Co to jest równoważenie obciążenia?

Równoważenie obciążenia to proces, w którym ruch przychodzący protokołu internetowego (IP) może być dystrybuowany na wiele serwerów. Zwiększa to wydajność serwerów, prowadzi do ich optymalnego wykorzystania i zapewnia, że ​​żaden pojedynczy serwer nie zostanie przytłoczony. Praktyka ta jest szczególnie istotna w przypadku obciążonych sieci, gdzie trudno jest przewidzieć liczbę żądań, które zostaną wysłane do serwera.

Zazwyczaj w schemacie równoważenia obciążenia wykorzystywane są co najmniej dwa serwery internetowe. W przypadku, gdy jeden z serwerów zaczyna być przeciążony, żądania są przekazywane do innego serwera. Proces ten skraca czas obsługi, umożliwiając wielu serwerom obsługę żądań. Czas obsługi jest skrócony dzięki zastosowaniu modułu równoważenia obciążenia w celu zidentyfikowania, który serwer ma odpowiednią dostępność do odbierania ruchu.

Proces, bardzo ogólnie, jest prosty. Żądanie strony internetowej jest wysyłane do systemu równoważenia obciążenia, który przekazuje żądanie do jednego z serwerów. Ten serwer odpowiada z powrotem do balancera, który z kolei wysyła żądanie do użytkownika końcowego.

Równoważenie obciążenia umożliwia kontynuację usług nawet w przypadku przestoju serwera spowodowanego jego awarią lub konserwacją. Jeśli firma korzysta z kilku serwerów, a jeden z nich ulegnie awarii, jej strona internetowa lub inne usługi będą nadal dostępne dla jej użytkowników, ponieważ ruch zostanie przekierowany na inne serwery w farmie serwerów. W globalnym równoważeniu obciążenia serwerów (GSLB) obciążenie jest rozdzielane na rozproszone geograficznie farmy serwerów, w zależności od ich obciążenia, kondycji lub bliskości.

Istnieje kilka metod równoważenia obciążeń. Jeśli serwery mają podobne specyfikacje sprzętowe, najlepsze mogą być metody Perceptive (która przewiduje serwer na podstawie danych historycznych i bieżących) oraz najszybszy czas odpowiedzi. Z drugiej strony, jeśli specyfikacje sprzętowe są różne, metoda Weighted Round Robin, która przypisuje żądania do serwerów po kolei według ich wag, może być lepszym rozwiązaniem, ponieważ może przypisać więcej żądań do serwera, który może obsłużyć większą objętość.