Inducția Solomonoff este o formă de inducție idealizată, riguroasă din punct de vedere matematic, adică prezicerea a ceea ce se va întâmpla în viitor pe baza experiențelor anterioare. Este o parte a teoriei informației algoritmice. Această schemă de inducție este teoretic optimă, adică, având date suficiente, va putea întotdeauna să atribuie probabilități evenimentelor viitoare cu precizia maximă posibilă permisă. Singura problemă cu inducerea Solomonoff este că este incalculabil – adică ar necesita un computer cu putere de procesare infinită pentru a rula. Cu toate acestea, toate schemele și mașinile inductive de succes – inclusiv animale și oameni – sunt aproximări ale inducției Solomonoff.
Fiecare argument verbal care conține sfaturi pentru o mai bună inducere, în măsura în care funcționează de fapt, funcționează prin a-l convinge pe ascultător să-și modifice strategia inductivă în așa fel încât să se apropie mai bine de teoria. Ideea că inducția poate fi formalizată matematic în acest fel este destul de profundă și multe generații de logicieni și filozofi au spus că nu se poate face. Teoria a apărut în urma lucrărilor lui Ray Solomonoff, Andrey Kolmolgorov și Gregory Chaitin în anii 1960. Motivația lor de bază a fost de a formaliza teoria probabilității și inducerea folosind axiome, în același mod în care au fost formalizate algebra și geometria. Teoria se bazează pe o regulă inductivă numită teorema lui Bayes, care descrie un mod matematic precis de a actualiza credințele pe baza datelor primite.
O slăbiciune în teorema lui Bayes este că depinde de o probabilitate anterioară pentru un anumit eveniment. De exemplu, probabilitatea ca un asteroid să impacteze Pământul în următorii 10 ani poate fi dată pe baza datelor istorice despre impacturile asteroizilor. Cu toate acestea, atunci când dimensiunea eșantionului de evenimente anterioare este mică, cum ar fi numărul de ori un neutrin a fost detectat într-o capcană de neutrini, devine foarte dificil să se prezică probabilitatea ca evenimentul să se repete pe baza exclusiv experienței anterioare.
Aici intervine inducerea Solomonoff. Folosind o măsură obiectivă a complexității numită complexitate Kolmogorov, teoria poate face o presupunere educată cu privire la probabilitatea ca un eveniment viitor să se producă. Complexitatea Kolmogorov se bazează pe un principiu numit Minimum Description Length (MDL), care evaluează complexitatea unui șir de biți pe baza celui mai scurt algoritm care poate scoate acel șir. Deși complexitatea Kolmogorov s-a aplicat inițial doar la șiruri de biți, poate fi tradusă pentru a descrie complexitatea evenimentelor și a obiectelor.
Inducerea Solomonoff integrează complexitatea lui Kolmogorov în raționamentul bayesian, oferindu-ne priorități justificate pentru evenimente care poate nici măcar nu s-au întâmplat niciodată. Probabilitatea anterioară a unui eveniment arbitrar este judecată pe baza complexității și specificității sale generale. De exemplu, probabilitatea ca două picături aleatoare de ploaie într-o furtună să lovească același metru pătrat este destul de mică, dar mult mai mare decât probabilitatea ca zece sau o sută de picături de ploaie să lovească acel metru pătrat.
Unii oameni de știință au studiat teoria în contextul neuroanatomiei, arătând cum inducerea optimă este un principiu organizator în evoluția animalelor care au nevoie de o inducție precisă pentru supraviețuire. Când se creează adevărata inteligență artificială, principiile vor fi o inspirație probabilă care stă la baza construcției acesteia.