Împământarea simbolurilor este legătura dintre simboluri, cum ar fi cuvintele scrise sau rostite, cu obiectele, ideile sau evenimentele la care se referă. O problemă numită problema de împământare a simbolurilor se referă la modurile în care cuvintele ajung să fie asociate cu semnificațiile lor și, prin extensie, modul în care conștiința este legată de înțelegerea semnificației simbolice. Problema legării simbolurilor, deoarece este legată de aceste întrebări de semnificație și conștiință, este adesea discutată în contextul inteligenței artificiale (AI).
Studiul simbolurilor, precum și procesele prin care acestea capătă sens și sunt interpretate, este cunoscut sub denumirea de semiotică. În acest domeniu de studiu, o ramură numită sintactică se ocupă de proprietățile și regulile de guvernare ale sistemelor simbolice, ca și în proprietățile formale ale limbajului. Problema împământării simbolurilor este înțeleasă în cadrul acestei discipline, care include semioza, procesul care permite unei inteligențe să înțeleagă lumea prin semne.
Problema de împământare a simbolurilor a fost definită pentru prima dată în 1990 de Steven Harnad de la Universitatea Princeton. Pe scurt, problema de împământare a simbolurilor se întreabă cum înțelegerea semnificațiilor simbolurilor dintr-un sistem, cum ar fi limbajul formal, poate fi făcută intrinsecă sistemului. Deși operatorul sistemului ar putea înțelege semnificațiile simbolurilor, sistemul în sine nu o înțelege.
Harnad se referă la clasicul experiment de gândire al lui John Searle „Camera chinezească” pentru a-și ilustra punctul de vedere. În acest experiment, lui Searle, care nu are cunoștințe de limba chineză, i se oferă un set de reguli care îi permit să răspundă corect, în chineză scrisă, la întrebările care i se pun, tot în chineză scrisă. Un observator din afara camerei ar putea ajunge la concluzia că Searle înțelege foarte bine chineza, dar Searle este capabil să manipuleze simbolurile chinezești fără să înțeleagă vreodată semnificația întrebărilor sau a răspunsurilor.
Potrivit lui Harnad, experimentul poate fi comparat cu un AI. Un computer ar putea fi capabil să producă răspunsurile corecte la solicitările externe, dar acționează pe baza programării sale, cum ar fi Searle urmând regulile care i-au fost date în experimentul de gândire. AI este capabil să manipuleze simboluri care au semnificație pentru un observator din exterior, dar nu are o înțelegere semantică a simbolurilor. Prin urmare, nu se poate spune că IA posedă conștiință, deoarece nu interpretează de fapt simbolurile și nici nu înțelege la ce se referă ele. Nu atinge semioza.