Solomonova indukcija je matematično stroga, idealizirana oblika indukcije, to je napovedovanje, kaj se bo zgodilo v prihodnosti na podlagi prejšnjih izkušenj. Je del teorije algoritemskih informacij. Ta indukcijska shema je teoretično optimalna, to pomeni, da bo ob zadostnih podatkih vedno lahko dodelila verjetnosti prihodnjim dogodkom z največjo možno dovoljeno natančnostjo. Edina težava s Solomonovo indukcijo je, da je neizračunljiva – to pomeni, da bi za delovanje potreboval računalnik z neskončno procesorsko močjo. Vendar so vse uspešne induktivne sheme in stroji – vključno z živalmi in ljudmi – približki Solomonove indukcije.
Vsak verbalni argument, ki vsebuje nasvete za boljšo indukcijo, v kolikor dejansko deluje, deluje tako, da poslušalca prepriča, da spremeni svojo induktivno strategijo na način, da se bolje približa teoriji. Ideja, da je indukcijo mogoče matematično formalizirati na ta način, je precej globoka in številne generacije logikov in filozofov so trdile, da tega ni mogoče storiti. Teorija je nastala iz dela Raya Solomonoffa, Andreja Kolmolgorova in Gregoryja Chaitina v šestdesetih letih prejšnjega stoletja. Njihova osnovna motivacija je bila formalizirati teorijo verjetnosti in indukcijo z uporabo aksiomov, na enak način, kot sta bili formalizirani algebra in geometrija. Teorija temelji na induktivnem pravilu, imenovanem Bayesov izrek, ki opisuje natančen matematični način za posodobitev prepričanj na podlagi vhodnih podatkov.
Ena pomanjkljivost Bayesovega izreka je, da je odvisna od predhodne verjetnosti za določen dogodek. Na primer, verjetnost, da bo asteroid udaril na Zemljo v naslednjih 10 letih, je mogoče podati na podlagi zgodovinskih podatkov o udarcih asteroidov. Vendar, ko je velikost vzorca predhodnih dogodkov nizka, na primer, kolikokrat je bil nevtrino odkrit v nevtrinski pasti, postane zelo težko napovedati verjetnost, da se bo dogodek ponovil samo na podlagi preteklih izkušenj.
Tu nastopi Solomonova indukcija. Z uporabo objektivnega merila kompleksnosti, ki se imenuje kompleksnost Kolmogorova, lahko teorija poda utemeljeno ugibanje o verjetnosti, da se zgodi kakšen prihodnji dogodek. Kompleksnost Kolmogorova temelji na principu, imenovanem Minimum Description Length (MDL), ki ocenjuje kompleksnost niza bitov na podlagi najkrajšega algoritma, ki lahko izpiše ta niz. Čeprav je kompleksnost Kolmogorova sprva veljala samo za bitne nize, jo je mogoče prevesti tako, da opiše kompleksnost dogodkov in predmetov.
Solomonova indukcija integrira kompleksnost Kolmogorova v Bayesovsko sklepanje in nam daje upravičene predhode za dogodke, ki se morda sploh nikoli niso zgodili. Predhodna verjetnost poljubnega dogodka se presoja glede na njegovo splošno kompleksnost in specifičnost. Na primer, verjetnost, da dve naključni dežju v nevihti zadeneta isti kvadratni meter, je dokaj nizka, vendar veliko večja od verjetnosti, da deset ali sto naključnih dežnih kapljic zadene ta kvadratni meter.
Nekateri znanstveniki so preučevali teorijo v kontekstu nevroanatomije in pokazali, kako je optimalna indukcija organizacijski princip v evoluciji živali, ki potrebujejo natančno indukcijo za preživetje. Ko bo ustvarjena prava umetna inteligenca, bodo načela verjetno navdih za njeno konstrukcijo.