Jak działa serwer z wieloma klientami?

Serwer z wieloma klientami to rodzaj architektury oprogramowania dla sieci komputerowych, w której klienci, którymi mogą być podstawowe stacje robocze lub w pełni funkcjonalne komputery osobiste, żądają informacji z komputera serwera. Często między klientem a serwerem istnieją również interfejsy programowe, znane jako oprogramowanie pośrednie, a także oprogramowanie do routingu i protokołu sieciowego, a także oprogramowanie zabezpieczające, takie jak zapory. W zależności od rozmiaru sieci serwery i klienci mogą wchodzić w interakcje bezpośrednio lub za pośrednictwem architektury trójwarstwowej, która zapewnia dodatkowe przetwarzanie między dwoma typami maszyn.

Najpopularniejszym typem systemu wielu serwerów klienckich dla małych firm i domów jest pojedynczy serwer z wieloma klientami. Jeden serwer jest w stanie obsłużyć dziesiątki żądań informacji z komputerów klienckich jednocześnie. Wbrew powszechnemu przekonaniu sam serwer nie musi być najszybszą, najpotężniejszą maszyną w sieci, aby sprawnie pełnić tę rolę.

Jedną z głównych różnic w wielu sieciach klient-serwer jest to, że mogą to być sieci lokalne (LAN), które są samodzielne w jednym budynku i niekoniecznie są połączone z Internetem, lub sieciami rozległymi (WAN). Sieci rozległe to systemy serwerów z wieloma klientami, rozproszone w wielu lokalizacjach geograficznych i prawie wyłącznie połączone z Internetem. Jednak niektóre duże korporacje mają systemy WAN niezależne od Internetu. Wzrost rozmiaru Internetu, jego rozwój w sieci WWW oraz rosnąca różnorodność oprogramowania sieciowego i wyboru sprzętu sieciowego spowodowały, że termin WAN nabrał szerszego znaczenia.

W przeszłości sieć WAN to jeden lub więcej serwerów fizycznych zapewniających obsługę sieci wielu klientom. Termin ten jest teraz bardziej luźno zdefiniowany, a sieć WAN można zbudować w dużej mierze na samym oprogramowaniu, takim jak przetwarzanie w chmurze lub korzystanie z przeglądarek internetowych i serwerów internetowych. Bardziej tradycyjne sieci WAN korzystają z architektury protokołu przesyłania plików (FTP) i systemu nazw domen (DNS). Transfer plików i szybkości przetwarzania w sieciach WAN zostały również zwiększone dzięki zastosowaniu wielowątkowego serwera klienckiego, sieci zbudowanej na jednostkach centralnych (CPU), które pozornie mogą wykonywać wiele różnych instrukcji programu jednocześnie.

Serwery WWW to rodzaj wirtualnego hostowania wielu serwerów klienckich. Sieci te są w całości zbudowane na oprogramowaniu i nie wymagają określonych fizycznych lokalizacji dla komputerów klienckich lub serwerów. Serwer sieciowy działa jako serwer fizyczny i może działać na wielu komputerach lub w jednej sekcji maszyny serwerowej, na której działa jednocześnie wiele serwerów sieci Web. Komputer kliencki w tym przypadku to przeglądarka internetowa, która uzyskuje dostęp do serwera i może być również ładowana z różnych komputerów niezwiązanych z jedną konkretną lokalizacją.
Przetwarzanie w chmurze ma podobieństwa do koncepcji stacji roboczych z lat wcześniejszych dla wielu serwerów klienckich. Zarówno przetwarzanie w chmurze, jak i stacje robocze to komputery klienckie, z których można czerpać niewiele zasobów lokalnych. Prawie całe oprogramowanie sieci przetwarzania w chmurze jest instalowane na samym serwerze, takie jak edytory tekstu, gry, aplikacje muzyczne i wideo i inne. Klient uzyskuje dostęp do tego oprogramowania na serwerze w celu jego uruchomienia. Stacja robocza to monitor i lokalizacja sieciowa o minimalnych zasobach, takich jak bardzo mało pamięci lub możliwości przetwarzania, i bez dostępu do serwera nie byłaby sprawnym komputerem.
Architektury serwerów sieci Web, przetwarzanie w chmurze i uproszczone projekty stacji roboczych są próbami obniżenia kosztów sieci z wieloma serwerami klienckimi. Dzięki niedystrybucji fizycznych zasobów sprzętowych lub oprogramowania do dziesiątek lub setek komputerów klienckich można uzyskać do nich dostęp w bardziej ekonomiczny sposób na jednym centralnym, wydajnym serwerze. Ich luka polega na tym, że lokalne kopie większości plików nie istnieją, a jeśli sieć ulegnie awarii, wiele osób może stracić dostęp do swojej pracy.
Zarówno systemy FTP, jak i DNS są podstawowymi projektami komunikacji z wieloma klientami. FTP to szybka i niezawodna metoda przesyłania przez sieć tekstu i niektórych innych plików, zwykle w trybie binarnym. Był to oryginalny protokół przesyłania, gdy Internet był w dużej mierze oparty na tekście, zanim powstał bogaty w grafikę podzbiór sieci WWW. Większość dzisiejszego ruchu internetowego to nadal tekstowe transfery FTP, które są w dużej mierze niewidoczne dla użytkowników sieci. Systemy DNS również pojawiły się wcześnie, zwłaszcza w miarę rozwoju sieci WWW, jako sposób zastępowania rzeczywistych adresów sieciowych w postaci ciągów numerów protokołu internetowego (IP) znanymi angielskimi nazwami serwerów, do których klienci mieli dostęp.