Format całkowity to typ danych w programowaniu komputerowym. Dane są wpisywane według rodzaju przechowywanych informacji, z jaką dokładnością przechowywane są dane liczbowe oraz w jaki sposób te informacje mają być przetwarzane podczas przetwarzania. Liczby całkowite reprezentują całe jednostki. Liczby całkowite zajmują mniej miejsca w pamięci, ale ta oszczędzająca miejsce funkcja ogranicza wielkość liczby całkowitej, która może być przechowywana.
Liczby całkowite to liczby całkowite używane w zastosowaniach arytmetycznych, algebry, rachunkowości i wyliczeniach. Całkowita liczba oznacza, że nie ma mniejszych jednostek cząstkowych. Liczba 2 jako liczba całkowita ma inne znaczenie niż liczba 2.0. Drugi format wskazuje, że istnieją dwie całe jednostki i zero dziesiętnych jednostki, ale możliwe są dziesiąte części jednostki. Pierwsza liczba, jako liczba całkowita, oznacza, że mniejsze jednostki nie są brane pod uwagę.
Istnieją dwa powody formatowania liczb całkowitych w językach programowania. Po pierwsze, format liczb całkowitych jest odpowiedni przy rozważaniu obiektów, które nie są podzielne na mniejsze jednostki. Kierownik piszący program komputerowy do obliczania podziału premii 100 USD między trzech pracowników nie przypisałby zmiennej premii formatu liczb całkowitych, ale użyłby go do przechowywania liczby pracowników. Programiści zauważyli, że liczby całkowite są liczbami całkowitymi i nie wymagają dokładnej reprezentacji tylu cyfr.
Na początku informatyki przestrzeń pamięci była ograniczona i cenna, a w celu oszczędzania pamięci opracowano format liczb całkowitych. Ponieważ pamięć komputera jest systemem binarnym, liczby były reprezentowane w systemie o podstawie 2, co oznacza, że dopuszczalne cyfry to 0 i 1. Liczba 10 o podstawie 2 reprezentuje liczbę 2 o podstawie 10, ponieważ 1 w kolumnie dwójek to cyfra pomnożona przez 2. podniesiony do drugiej potęgi. 100 przy podstawie 2 równa się 8 przy podstawie 10, ponieważ 1 w pierwszej kolumnie to 1 pomnożone przez 2 w sześcianie.
Wykorzystując zasadę włącz/wyłącz do przedstawiania liczb binarnych, opracowano komputery elektryczne. Bit jest pojedynczą reprezentacją danych włącz/wyłącz, prawda/fałsz lub 0/1. Podczas gdy różne konfiguracje sprzętowe były badane przy użyciu odmian liczby bitów, które są bezpośrednio adresowane przez komputer, 8-bitowy bajt i 2-bajtowe słowo stały się standardem w obliczeniach ogólnego użytku. Wtedy specyfikacja szerokości formatu liczb całkowitych nie określa liczby miejsc dziesiętnych, ale największą i najmniejszą wartość, jaką może przyjąć liczba całkowita.
Formaty liczb całkowitych w większości języków pozwalają na użycie bitu jako znaku do oznaczenia dodatniej lub ujemnej liczby całkowitej. W 32-bitowym kompilatorze języka języki C/C+ używają formatu liczb całkowitych, int, do przechowywania wartości liczb całkowitych ze znakiem z zakresu od –231 do 231-1. Jedna wartość całkowita jest odejmowana, aby pomieścić zero, czyli z grubsza +/- 2.1 biliona. W kompilatorze 64-bitowym przy użyciu typu danych int64 dozwolone są liczby całkowite ze znakiem z zakresu od -263 do 263-1 lub +/- 9.2 kwintyliona.