Gigabajt to termin, który wskazuje określoną wartość ilości danych w odniesieniu do pojemności pamięci lub zawartości. Odnosi się do pewnej ilości czegoś, zwykle jakiegoś rodzaju danych, często przechowywanych w postaci cyfrowej. Gigabajt zazwyczaj odnosi się do 1 miliarda bajtów. Gigabajt można potencjalnie pomylić z gibibajtem, który jest również wielkością pamięci, ale jest oparty na systemie binarnym lub systemie dwupunktowym.
Najłatwiejszym sposobem zrozumienia terminu „gigabajt” jest rozdzielenie go na dwie podstawowe części: „giga” i „bajt”. Bajt to fragment danych i jest zwykle uważany za najmniejszą ilość danych używaną do reprezentowania pojedynczego znaku w kodzie komputerowym. Innymi słowy, bajty są pojedynczymi blokami składowymi kodu komputerowego. Każdy bajt składa się z kilku bitów, zwykle ośmiu, a każdy bit to fragment danych, który zazwyczaj ma jedną z dwóch możliwych wartości: zwykle reprezentowaną jako 1 lub 0.
Bity to poszczególne części kodu binarnego, które są zgrupowane razem, po osiem na raz, aby utworzyć pojedynczy bajt, który następnie faktycznie tworzy dane w szerszym sensie. Dlatego programy komputerowe składają się z bajtów, a więc rozmiar programu jest reprezentowany w bajtach. Tak jak ściana wykonana ze 100 cegieł będzie większa niż ściana wykonana z 10 takich samych cegieł, tak program 100 bajtów jest większy niż jeden z 10 bajtów. Zamiast wyrażać rozmiary dużych programów w tysiącach lub milionach, a teraz miliardach i bilionach bajtów, przedrostki są używane do wskazywania rzędów wielkości.
Te przedrostki odpowiadają ustalonym zapisom Międzynarodowego Układu Jednostek Miar, podobnym do tego, który jest używany w pomiarach metrycznych. Dlatego 1,000 bajtów jest określane jako kilobajt, 1 milion bajtów to megabajt, 1 miliard bajtów to gigabajt, a 1 bilion bajtów to terabajt. Każdy z tych przedrostków wskazuje rząd wielkości, o który bajty są zwiększane, i w pewnym stopniu odpowiadają notacji binarnej, która używa podobnej terminologii. Ze względu na ten rodzaj zapisu, gigabajt może być czasami mylony z gibibajtem, który jest podobny, ale ma inny rozmiar.
Gibibajt to rozmiar używany najczęściej w odniesieniu do pojemności przechowywania lub przetwarzania pamięci, takiej jak pamięć o dostępie swobodnym (RAM). Ten rozmiar jest oparty na systemie binarnym lub systemie o podstawie dwa, w którym rzędy wielkości składają się z wykładniczego wzrostu o 10 do podstawy dwa. Innymi słowy, 210 bajtów to kibibajt, 220 bajtów to mebibajt, a 330 bajtów to gibibajt. Chociaż jest to blisko gigabajta, nie jest dokładnie tym samym: gibibajt to 1,073,741,824 XNUMX XNUMX XNUMX bajtów; i doprowadziło do zamieszania w odniesieniu do rzeczywistych rozmiarów pamięci na dyskach twardych i podobnych urządzeniach pamięci.