Ozemljitev simbola je povezava simbolov, kot so zapisane ali izgovorjene besede, s predmeti, idejami ali dogodki, na katere se nanašajo. Problem, ki se imenuje problem ozemljitve simbolov, se ukvarja z načini, na katere so besede povezane z njihovimi pomeni, in s tem, kako je zavest povezana z razumevanjem simbolnega pomena. Problem ozemljitve simbolov, ker je povezan s temi vprašanji pomena in zavesti, se pogosto razpravlja v kontekstu umetne inteligence (AI).
Proučevanje simbolov, pa tudi procesov, s katerimi pridobivajo pomen in se interpretirajo, je znano kot semiotika. Znotraj tega študijskega področja se veja, imenovana sintaktika, ukvarja z lastnostmi in veljavnimi pravili simbolnih sistemov, kot s formalnimi lastnostmi jezika. Problem ozemljitve simbolov razumemo v okviru te discipline, ki vključuje semiozo, proces, ki omogoča inteligenci, da razume svet skozi znake.
Problem ozemljitve simbolov je leta 1990 prvič opredelil Steven Harnad z univerze Princeton. Skratka, problem ozemljitve simbolov se sprašuje, kako je mogoče razumevanje pomenov simbolov znotraj sistema, kot je formalni jezik, narediti neločljivo za sistem. Čeprav lahko upravljavec sistema razume pomene simbolov, sam sistem ne.
Harnad se sklicuje na klasični miselni eksperiment Johna Searla »kitajska soba«, da ponazori svojo misel. V tem poskusu Searle, ki ne pozna kitajskega jezika, dobi niz pravil, ki mu omogočajo, da pravilno odgovori v pisni kitajščini na vprašanja, ki so mu zastavljena, tudi v pisni kitajščini. Opazovalec zunaj sobe bi lahko prišel do zaključka, da Searle zelo dobro razume kitajsko, vendar je Searle sposoben manipulirati s kitajskimi simboli, ne da bi sploh razumel pomen vprašanj ali odgovorov.
Po Harnadu je eksperiment mogoče primerjati z umetno inteligenco. Računalnik bi lahko ustvaril pravilne odgovore na zunanje pozive, vendar deluje na podlagi svojega programiranja, kot Searle po pravilih, ki so mu bila dana v miselnem eksperimentu. AI lahko manipulira s simboli, ki imajo pomen za zunanjega opazovalca, vendar nima semantičnega razumevanja simbolov. Zato za AI ne moremo reči, da ima zavest, ker dejansko ne razlaga simbolov ali razume, na kaj se nanašajo. Ne dosega semioze.