Co to jest pierwotny typ danych?

Pierwotny typ danych to termin informatyczny używany do opisania fragmentu danych, który domyślnie istnieje w języku programowania komputerowego. Zazwyczaj wartości tego typu danych nie mogą być zmieniane przez programistę komputerowego. Na przykład, gdyby program komputerowy był murem z cegieł, prymitywne typy danych byłyby specjalnym typem cegieł, których nie można podzielić ani dalej udoskonalić. Przykładem fragmentu danych pierwotnych jest znak „a”; ten znak oznacza siebie i służy do przedstawiania bardziej skomplikowanych informacji poprzez łączenie ich z innymi elementami informacji. Podczas gdy dokładne prymitywne typy danych dostępne w dowolnym języku programowania różnią się w zależności od języka, liczby całkowite i znaki są podstawowymi prymitywnymi typami danych dostępnymi w większości z nich.

„Znak” jest jednym z podstawowych prymitywnych typów danych dostępnych w większości języków programowania komputerowego i jest czasami określany skróconą formą „znak”. Ten typ danych obejmuje większość pojedynczych symboli, które można wprowadzić do komputera jednym naciśnięciem klawisza, takich jak symbol cyfry „5”, znaki interpunkcyjne, takie jak „.” i litera „b”. Termin znak oznacza jednak nie tylko literę, cyfrę czy znak interpunkcyjny. Znaki sterujące, takie jak usuwanie, tabulator i backspace, również należą do podstawowego znaku typu danych.

Ogólnie rzecz biorąc, wszystko, co jest pierwotnym typem danych, jest również typem wartości, co oznacza, że ​​dane nie są zbyt wybredne. Dane nie zawsze muszą być rejestrowane w ten sam sposób. Na przykład zwykle nie ma znaczenia, w jakiej kolejności zapisywane są bajty opisujące dane.

Jednym z obszarów, w którym różnią się niektóre języki programowania, jest traktowanie ciągów. Jako termin informatyczny ciąg znaków jest sekwencją symboli, takich jak znaki. Niektóre języki programowania wbudowują obsługę ciągów i traktują je jako prymitywny typ danych, podczas gdy inne języki nie mają podstawowej obsługi tego typu danych.

Liczby całkowite to obszar, w którym sprzęt komputerowy może wpływać na traktowanie prymitywnych typów danych. W terminologii informatycznej liczba całkowita reprezentuje jedną lub więcej matematycznych liczb całkowitych. Różne jednostki centralne (CPU) mają różne limity liczby bajtów, które można wykorzystać do reprezentowania liczby całkowitej. Czasami jest to coś, o czym programiści komputerowi pamiętają, aby ich programy mogły działać na jak największej liczbie różnych typów procesorów.