Różne podejścia do sztucznej inteligencji można podzielić na trzy odrębne grupy: symulację mózgu, symboliczną i podsymboliczną oraz statystyczną. Podejścia symboliczne i podsymboliczne można dalej podzielić na własne grupy: symulacja kognitywna, inteligencja oparta na logice i inteligencja oparta na wiedzy należą do podejścia symbolicznego, podczas gdy teorie inteligencji oddolnej i obliczeniowej są określane jako sztuczna inteligencja podsymboliczna podejścia. Lata postępu w badaniach i stosowaniu tych teorii doprowadziły do powstania zintegrowanych podejść, łączących zasady z wielu szkół myślenia w celu generowania bardziej wyrafinowanych systemów sztucznej inteligencji (AI).
Rozwój sztucznej inteligencji po raz pierwszy osiągnął znaczący postęp w latach 1940. XX wieku. Wykorzystując zasady z neurologii, cybernetyki i podstawowych teorii przetwarzania poznawczego, naukowcy byli w stanie zbudować roboty o prymitywnym poziomie inteligencji w oparciu o symulację mózgu, pozwalającą na unikanie pewnych przeszkód poprzez wykrywanie sensoryczne. Ograniczony postęp w latach 1940. i 1960. doprowadził jednak do porzucenia tego paradygmatu, a naukowcy zdecydowali się opracować inne, bardziej obiecujące podejścia do sztucznej inteligencji.
Od połowy lat pięćdziesiątych do wczesnych lat sześćdziesiątych naukowcy zajmujący się sztuczną inteligencją próbowali uprościć ludzką inteligencję do manipulacji symbolami, wierząc, że zdolność ludzi do uczenia się i dostosowywania się do obiektów w ich środowisku obraca się wokół interpretacji i reinterpretacji obiektów jako podstawowych symboli. Na przykład krzesło można uprościć do symbolu określającego je jako przedmiot do siedzenia. Ten symbol można następnie manipulować i rzutować na inne obiekty. Badaczom udało się stworzyć szereg elastycznych i dynamicznych podejść do sztucznej inteligencji, włączając to symboliczne podejście do rozwoju sztucznej inteligencji.
Możliwość symulowania różnych podejść poznawczych do myślenia symbolicznego pozwoliła twórcom sztucznej inteligencji stworzyć inteligencję opartą na logice i wiedzy. Podejście oparte na logice działało na podstawowych zasadach logicznego myślenia, skupiając się prawie wyłącznie na rozwiązywaniu problemów, a nie na replikowaniu ludzkiej zdolności myślenia. Logika została ostatecznie zrównoważona przez „niechlujną” logikę, która uwzględniała fakt, że rozwiązania można znaleźć poza danym algorytmem logicznym. Z drugiej strony, inteligencja oparta na wiedzy wykorzystywała zdolność komputera do przechowywania, przetwarzania i wywoływania ogromnych ilości danych w celu rozwiązywania problemów.
Zainteresowanie symulacją mózgu odrodziło się w latach 1980. po spowolnieniu postępu w inteligencji symbolicznej. Doprowadziło to do stworzenia systemów podsymbolicznych, podejść opartych na sztucznej inteligencji, które polegały na łączeniu myślenia z bardziej podstawową inteligencją potrzebną do poruszania się i samozachowawczy. Umożliwiło to modelom powiązanie otaczającego ich środowiska z danymi w ich magazynach pamięci. Podejście statystyczne opracowane w latach 1990. pomogło udoskonalić zarówno symboliczne, jak i subsymboliczne podejście do sztucznej inteligencji, wykorzystując zaawansowane algorytmy matematyczne do określenia kierunku działania, który najprawdopodobniej zaowocuje sukcesem maszyny. Badania często zajmują się rozwojem sztucznej inteligencji przy użyciu zasad ze wszystkich podejść.