Bit kontrolny to dodatkowa jedynka binarna lub zero, które jest używane do wskazania błędnego warunku w informacji. W sytuacjach, w których w danych może pojawić się więcej niż jeden błąd w tym samym czasie, użycie bitu kontrolnego do wskazania błędów nie jest całkowicie wiarygodne. Bity kontrolne są często używane w przypadku danych przesyłanych szeregowo lub w celu zapewnienia prawidłowego działania pamięci obliczeniowej. Do wskazania błędu można użyć jedynki lub zera, w zależności od typu używanej parzystości.
Parzystość to proces sprawdzania błędów, gdy używane są bity kontrolne. Bit kontrolny jest często nazywany bitem parzystości. Jeśli całkowita liczba jedynek w poprawnej sekwencji binarnej, w tym bitu kontrolnego, jest nieparzystą liczbą jedynek, nazywa się to nieparzystością. Parzystość ma miejsce, gdy łączna liczba jedynek w danych i bicie kontrolnym sumuje się do parzystej wartości.
Załóżmy na przykład, że osoba chciała przesłać siedmiobitową sekwencję binarną 1100101. W tej liczbie są cztery jedyneki, dlatego jeśli chciałaby dodać bit, aby utworzyć nieparzystość, dodałaby 1 do końca szeregu, tworząc w ten sposób numer 11001011. Jeśli dana osoba zdecydowała się na użycie parzystości, dodałaby 0 zamiast 1 na końcu, tworząc w ten sposób 11001010. Wybór parzystości lub nieparzystej jest zwykle kwestią ustalonych standardów lub wyboru projektanta. To najprostsza forma użycia bitu kontrolnego.
Wyobraź sobie, co się dzieje, gdy przesyłany jest nieparzysty łańcuch parzystości 11001011. Jeśli jedynka lub zero zmienią się w liczbie, zanim dotrze ona do miejsca przeznaczenia, całkowita liczba jedynek sumuje się do wartości parzystej, co wskazuje na błąd w danych. Z drugiej strony, jeśli błąd zostanie wprowadzony do sekwencji parzystości, pojawi się nieparzysta liczba jedynek. Jeśli dwie lub więcej liczb zostanie zmienionych podczas przesyłania, wykrycie błędu za pomocą jednego bitu kontrolnego może być niemożliwe, ponieważ oba błędy razem mogą stworzyć pierwotną parzystość.
Opracowano bardziej złożone metody wykrywania błędów w obliczeniach. Jednak w przypadkach, w których wystarczy prosta identyfikacja błędu, często wystarczy użycie pojedynczego bitu kontrolnego. Sposób, w jaki znaki są kodowane w American Standard Code for Information Interchange (ASCII) lub Extended Binary-Coded Decimal-Interchange Code (EBCDIC) to przykłady wykorzystania pojedynczego bitu kontrolnego w informatyce. Bity kontrolne, parzystość i inne schematy wykrywania błędów odgrywają kluczową rolę w zapewnieniu, że dane manipulowane przez procesy obliczeniowe pozostają wolne od niepożądanych skutków ubocznych spowodowanych szumem i błędnymi warunkami.