Co to jest czas bitowy?

Czas bitowy to termin dotyczący sieci komputerowej, który mierzy, ile czasu zajmuje jednemu impulsowi lub bitowi podróż z nadajnika do odbiornika w celu wytworzenia określonej szybkości transmisji danych w sieci. Czasami jest mylony z innymi terminami, takimi jak szybkość transmisji lub szybkość transmisji, która jest całkowitą liczbą przesyłanych bitów na sekundę (bps) oraz czas szczeliny, który jest czasem potrzebnym na przejście impulsu przez najdłuższy odcinek medium sieciowego. Bit time oblicza jednak wyrzucanie tylko jednego bitu i zamiast skupiać się na medium sieciowym, analizuje, w jaki sposób ten bit jest przesyłany z karty interfejsu sieciowego (NIC) z określoną prędkością, na przykład 10 Mbit/s.

Wiele osób słyszało termin „bit” używany w odniesieniu do komputerów, ale mogą nie wiedzieć dokładnie, co to jest i jak jest używane. Bit to pojedyncza liczba binarna, zero lub jeden, która jest używana w transmisji sieciowej do wskazania wielkości pulsowania napięcia w obwodzie. Zatem bit time patrzy na jeden z tych impulsów i jak szybko reaguje na polecenie opuszczenia karty sieciowej. Gdy tylko podwarstwa 2 warstwy kontroli łącza logicznego otrzyma polecenie z systemu operacyjnego, rozpoczyna się pomiar czasu bitu, obliczanie czasu potrzebnego na wysunięcie bitu z karty sieciowej. Podstawowa formuła jest następująca: Czas bitu = 1 / szybkość karty sieciowej.

Niektóre typowe pomiary czasu bitowego to 10 nanosekund dla Fast Ethernet i 100 nanosekund, jeśli określona prędkość wynosi 10 Mbit/s dla karty sieciowej. Czas bitu wynosi 1 nanosekundę dla Gigabit Ethernet. Innymi słowy, przesłanie 1 Gb/s danych zajmuje zaledwie 1 nanosekundę. Ogólnie rzecz biorąc, im wyższa szybkość transmisji danych, tym krótsza szybkość transmisji.

Pomiar ten staje się istotną dyskusją w analizie sieci komputerowych w odniesieniu do zagadnienia sieci o małych opóźnieniach. Pojawia się pytanie, czy krótszy bit time w połączeniu z większą szybkością transmisji sygnału przekłada się na mniejsze opóźnienia. Ta kwestia wydaje się być przedmiotem debaty.

Opóźnienie, wraz z przepustowością, jest podstawową miarą wydajności sieci. Opóźnienie mierzy, ile czasu zajmuje przesłanie wiadomości przez system. Dlatego małe opóźnienie wskazuje, że wymagany jest krótki czas i że sieć jest wydajna. Czas bitowy ma więc tutaj znaczenie, ponieważ menedżerowie sieci nieustannie pracują nad poprawą wydajności sieci i oceniają, jak różne czasy wpływają na opóźnienia.