Științele cognitive

Raluca Budiu -- raluca.budiu@cs.cmu.edu
http://www.cs.cmu.edu/~ralucav
Mihai Budiu -- mihaib+@cs.cmu.edu
http://www.cs.cmu.edu/~mihaib/

ianuarie 2000

Subiect:
relația dintre științele cognitive și calculatoare
Cunoștințe necesare:
idei vagi despre inteligența artificială
Cuvinte cheie:
metaforă, sens literal, model cognitiv, inteligența artificială


Cuprins




Științe cognitive -- Definiție și privire de ansamblu

Acest articol își propune să dea o idee despre ce sunt științele cognitive. Pentru că o discuție exhaustivă despre ce sunt ele nu își are locul aici (și de altfel depășește capacitățile autorilor), vom încerca să prezentăm un mic studiu de caz, despre abordarea unei probleme din înțelegerea limbajului natural, și anume înțelegerea metaforelor, presărat pe ici pe colo cu mici considerații generale despre metoda și specificul acestei discipline.

``Științe cognitive'' este traducerea românească a termenului englezesc ``cognitive science''. Întîmplator, pluralul din numele românesc (construit prin analogie cu ``științe sociale'' sau ``științe economice'') se potrivește mai bine -- științele cognitive sunt rezultatul încercării de a pune la un loc munca de cercetare din mai multe domenii distincte: psihologie, inteligență artificială, lingvistică, filozofie, științe neuronale (``neuroscience'' -- a nu se confunda cu neurologia), educație și antropologie1. Istoria disciplinei începe din 1976, o dată cu fondarea jurnalului ``Cognitive Science''. Trebuie spus că științele cognitive se suprapun în măsură destul de mare cu psihologia cognitivă; în acest articol o să studiem mai ales intersecția dintre cele două, și mai puțin diferențele. Să spunem totuși că una din diferențe este accentul diferit pe care cele două îl pun pe experiment -- în timp ce psihologia cognitivă este fundamental înrădăcinată în colectarea de date experimentale de la subiecți umani, științele cognitive se folosesc mult de simulări pe calculator.

Metoda

Dar destul cu precizările de terminologie! Cu ce se ocupă deci științele cognitive? După cum puteți ghici, cu studiul comportamentului și inteligenței umane, mai exact cu construirea unor teorii care să explice diverse aspecte ale acestora. În mod ideal, aceste modele sunt concretizate într-o simulare care se comportă, în condiții similare, asemănător cu oamenii. Științele cognitive folosesc ca unealtă fundamentală metoda procesării informației, împrumutată din informatică. De exemplu, teoriile sunt adesea exprimate în termeni de scheme logice (flowcharts). Ele nu încearcă sa explice în detaliu cum se întîmplă procesele în creier, unde sunt (dacă sunt) localizate2.

Deseori, informația este manipulată la nivel pur simbolic: așa cum atunci cînd scriem un program într-un limbaj de nivel înalt, ca C sau Pascal, nu ne punem problema să descriem exact reprezentarea la nivel de bit a datelor, ci folosim tipuri de date prefabricate, nici științele cognitive nu își propun să descrie cum este reprezentată informația la nivel de neuroni. Mai mult, așa cum este greu de presupus că analizînd fiecare bit manipulat de un program vom înțelege comportamentul programului, metoda procesării informației presupune că este greu de înțeles comportamentul minții omenești în lipsa unui nivel de abstracție simbolic. Această analogie cu calculatorul a bîntuit multă vreme domeniul (hrănită fiind și de idei din inteligența artificială care s-au dovedit fructuoase pentru științele cognitive), și a dat naștere teoriilor bazate pe sisteme de producție (adică pe condiționări de tipul ``dacă...atunci...''). Deși folositoare, analogia cu calculatorul a fost deseori privită cu oarecare nesiguranță, creierul omenesc fiind un lucru atît de diferit fizic de un calculator.

Conecționism

Aceasta neîncredere este manifestată cu preponderență în curentul științelor cognitive numit conecționism, care susține că procesele cognitive trebuie să fie explicate în termeni de interacțiuni între elemente neuronale interconectate între ele. Un pas important în evoluția conecționismului a fost marcat de apariția în 1986 celor două volume ``Procesarea distribuită paralelă: explorări în microstructura cogniției'' editate de James McClelland și David Rummelhart. Teza cărții era că teoriile simbolice ale cogniției sunt caracterizări aproximative ale ei, și că mintea omenească poate fi înțeleasă numai cu ajutorul unor modele neurale detaliate.

În ultima vreme, cercetătorii din științele cognitive tind spre o cale de mijloc: în loc să vadă metoda procesării informației și conecționismul ca pe doua soluții antagoniste, angajate într-o competiție, le privesc ca fiind complementare. Teoriile abstracte pot cîștiga din încercarea de a explica cum simbolurile pe care le manipulează pot fi implementate neural, iar cele conecționiste trebuie să încerce să avanseze spre modelarea unor aspecte cognitive mai complexe, identificate de teoriile abstracte.

În cele ce urmează, vrem să exemplificăm metodele cercetării în domeniu cu descrierea evoluției unor teorii despre înțelegerea metaforelor. Vom evidenția un lucru poate mai puțin evident celor cu formație de informaticieni, și anume rolul proeminent pe care colectarea datelor experimentale îl joacă în teoriile despre cogniție. Este și firesc să fie așa, dacă scopul este să înțelegi mintea omenească. Vom încerca apoi să precizăm ce aduce în plus un model computațional față de o teorie verbalizată (adică descrisă doar în proză), care sunt condițiile pe care trebuie să le îndeplinească, și cum se poate ataca sarcina creării unui astfel de model; apoi, în acest context, vom discuta un pic noțiunea de teorie unificată a cogniției.

Despre metafore -- modele și date experimentale

Deși ne-am obișnuit sa asociem noțiunea de ``metaforă'' de orele de limba română și de poezie, metaforele sunt un fenomen lingvistic ubicuu. Putem lua drept exemplu următoarele expresii comune, unele deja intrate în limbă, precum ``piciorul mesei'', ``mărul lui Adam'', ``a rupe un contract'', ``a i se sfîșia inima'', ``a lupta cu inflația'', ``limbă de lemn'', etc.

Pe lîngă aceste metafore încetățenite, vorbitorii unei limbi de multe ori inventează altele noi în conversații obișnuite. Sintagme precum ``păunul a ieșit din nou la plimbare'' referindu-se la o persoană țanțoșă și ferchezuită sau ``slujba meu e o pușcărie'' sau ``porcul n-a vrut sa-mi dea banii înapoi'', pot fi ușor înțelese de către oricine, deși sunt construcții metaforice.

Metafora se referă la explicarea unui domeniu sau concept prin evocarea altuia. De exemplu, cînd spunem ``timpul este bani'', folosim o metaforă în care explicăm un anumit aspect al ``timpului'' folosindu-ne de un alt concept (``bani''). În această metaforă, ``timpul'' este referentul (adică cel despre care se vorbește, ``ținta'' metaforei), iar ``banii'' sunt vehiculul, prin care referentul este explicat.

Ipoteza lui Searle

Întrebarea la care vrem să răspundem: cum fac oamenii sa priceapă că e vorba de metafore în cazurile de mai sus? Cum de nu interpretează aceste propoziții în sens propriu, cuvînt cu cuvînt (sensul propriu al propoziției este numit și sens literal)? De ce nu își imaginează un păun pe stradă?

O teorie foarte simplă și foarte celebră, aparținînd lui Searle, zice că creierul procesează o propoziție cu metafore în 3 pași:

  1. Construiește o interpretare literală a propoziției;
  2. Dacă interpretarea literală are sens, stop: se declară mulțumit;
  3. Dacă interpretarea literală nu are sens, sau este neadevărată, creierul caută o interpretare metaforică.

După această teorie, cînd auzim ``porcul n-a vrut să-mi dea banii'', ne gîndim mai întîi la un porc în carne și oase, dar, pentru că știm că porcii nici nu dețin și nici nu împrumută bani, ne dăm seama că e vorba de o metaforă.

Teoria este foarte simplă și plauzibilă, și, din fericire, ușor de verificat. Dacă teoria ar fi adevărată, atunci oamenii ar trebui sa aibă nevoie de mai mult timp pentru a înțelege o propoziție metaforică, decît una literală. De ce? Foarte simplu: pentru că pentru o propoziție literală, din algoritmul de mai sus nu trebuie executați decît primii doi pași, pe cînd, dacă propoziția este metaforică, cel care o înțelege va trebuie să execute și pasul 3, necesitînd mai mult timp.

Infirmarea teoriei

Ca urmare, psihologii au proiectat mai multe experimente care să verifice dacă înțelegerea propozițiilor metaforice ia mai mult timp. O aproximare bună a timpului de înțelegere este timpul de citire a unei propoziții, care poate fi ușor cronometrat cu ajutorul unui calculator.

Un prim experiment care a arătat că oamenii înțeleg metaforele la fel de repede ca și propozițiile literale aparține lui Ortony, Schallert, Reynolds & Antos (1978). Ei au arătat subiecților propoziții precum ``găinile cotcodăceau zgomotos'', precedate fie de un pasaj despre niște păsări de curte la o fermă, fie de un pasaj despre o întîlnire a unei organizații de femei. Contrar predicțiilor lui Searle, timpul de înțelegere a propozițiilor în context metaforic nu a fost diferit de timpul de înțelegere a acelorași propoziții în context literal. Acest experiment a fost considerat drept o bilă neagră pentru teoria lui Searle.

Confirmarea teoriei

Cu aceasta însă fenomenul cognitiv al metaforelor nu a fost dat uitării. În 1990, Gibbs a făcut un experiment, în care subiecții au văzut un pasaj despre un meci de box, apoi au citit fie o propoziție literală (``atletul nu a venit la meci''), fie una metaforică (``batoza nu a venit la meci'') -- unul din boxeri era descris de pasaj ca fiind grăsun. Metaforele ca cele din a doua propoziție sunt de un gen special (``batoza''): ele se numesc anaforice, pentru că referentul metaforei (boxerul) nu este prezent în propoziția curentă ci apare doar în pasajul anterior.

Măsurătorile subiecților umani au arătat că, de data asta, înțelegerea propoziției metaforice lua mai mult timp decît înțelegerea celei literale, sugerînd ca teoria lui Searle ar putea fi adevărată.

Cum se împacă acest experiment cu cel al lui Ortony? Principala diferență intre cele două este că, deși amîndouă studiile folosesc metafore anaforice, propozițiile anaforice din Ortony et al. au de fapt un și sens literal. Cu alte cuvinte, o propoziție ca ``găinile cotcodăceau zgomotos'', luată izolat, are un sens perfect limpede, literal. Numai contextul în care apare ne poate convinge dacă ea este metaforică sau nu. Textul cu batoza nu poate fi însă interpretat decît metaforic.

Concluzii contradictorii

Un alt studiu s-a ocupat de metafore de tipul ``Unii A sunt B'' -- de exemplu: ``unele slujbe sunt pușcării'' sau ``unele drumuri sunt șerpi'', etc. Acest studiu a urmat o cale diferită pentru a arăta că teoria lui Searle ar putea fi greșită. Autorii -- Glucksberg, Glidea & Bookin (1982) -- au pus subiecții să judece două feluri de propoziții: (1) propoziții ca cele de mai sus și (2) propoziții fără sens (``unele drumuri sunt pușcării'', ``unele slujbe sunt șerpi'', ``unele mere sunt pere'', etc.). Subiecții trebuiau să se pronunțe dacă propozițiile sunt adevărate sau false doar în sens literal. Autorii au cronometrat timpul în care astfel de judecăți au fost făcute.

Rezultatul a arătat că propozițiile fără sens au fost clasificate mai repede decît cele cu sens metaforic. Din moment ce nici propozițiile fără sens, nici cele metaforice nu aveau sens literal și singura diferență între ele era existența (sau nu) a unui sens metaforic, autorii au argumentat că oamenii nu pot evita să înțeleagă sensul metaforic al unei propoziții. Motivul pentru care propozițiile metaforice iau mai mult timp este că interpretarea metaforică este instantaneu și obligatoriu calculată. Indirect, ei au dedus astfel că sensul literal nu este accesat înaintea celui metaforic (dacă ar fi fost, atunci n-ar fi avut sens să se continue cu calcularea sensului metaforic).

Despre metoda experimentală

Sper că nu sunteți plictisiți de această înșiruire de experimente și ipoteze contradictorii. Deși o știință aparent atît de empirică precum psihologia ar putea să dea în afară impresia că teoriile ei sunt arbitrare și lipsite de orice certitudine, lucrurile nu stau de loc așa.

Experimentele concepute de cercetători pentru a verifica o teorie sunt adesea extrem de ingenioase, iar concluziile care pot fi extrase se bazează pe raționamente riguroase, și deloc banale.

Putem fi dezamăgiți de faptul că aparent tot ce putem face este să infirmăm teorii false, dar niciodată să demonstrăm adevărul unei teorii. Evidența faptelor experimentale pentru o teorie nu garantează adevărul ei. Dar, așa cum observă filozoful Karl Popper, acestea sunt de fapt trăsăturile generale ale tuturor științelor naturii, inclusiv fizica: chiar teorii care sunt suportate de extrem de multe fapte experimentale, și care dau predicții spectaculoase pentru fenomene neobservate sau ne-explicate (cum a fost de pildă teoria gravitației a lui Newton), pot fi, și vor fi, eventual, infirmate și înlocuite de o teorie care aproximează mai bine adevărul (așa cum a făcut teoria lui Einstein despre gravitație).

Chiar și în teoria informației, se definește cantitatea de informație prin ceea ce știm că nu este adevărat, și nu prin ceea ce știm că poate fi adevărat. Așa că acest joc minuțios, de a construi castele de cărți de joc prin teorii aparent efemere, de fapt este o succesiune de pași (mai mari sau mai mici) pentru o mai bună cunoaștere a realității.

O altă teorie de procesare a metaforelor

Revenind la oile noastre, în răspuns la experimentul lui Glucksberg et al., un teoretician (Dascal) a arătat că de fapt este foarte posibil ca autorii experimentului sa fi tras o concluzie greșită. Una din regulile comunicării între oameni este că interlocutorul nu spune lucruri fără sens. Ca atare, după Dascal, este posibil ca subiecții să fi urmat această regulă cînd au citit propozițiile metaforice de tipul ``unele slujbe sunt pușcării''. Cu alte cuvinte, în virtutea regulilor comunicării, subiecții au parcurs toți cei trei pași din modelul lui Searle, și au găsit un sens metaforic, însă, amintindu-și în final de cerința de a judeca propozițiile numai în mod literal, au avut nevoie de un timp suplimentar pentru a realiza că propozițiile metaforice sunt false din punct de vedere literal.

Pe de altă parte, pentru propozițiile fără sens, subiecții au parcurs toți cei trei pași din algoritmul lui Searle, însă, pentru că nu au găsit o interpretare metaforică pe care să trebuiască sa o rejecteze, au fost mai rapizi. Cu alte cuvinte, Dascal a argumentat că este posibil ca subiecții din experimentul lui Glucksberg sa fi acționat după următorul algoritm:

  1. Se construiește o interpretare literală a propoziției;
  2. Dacă interpretarea literală are sens, se verifică dacă ea este literal adevărată:
    Dacă da, răspunsul la test este ``adevărat''; stop;
    Dacă nu, continuă;
  3. Dacă interpretarea literală nu are sens, sau dacă este neadevărată, se caută o interpretare metaforică;
  4. Dacă nu se găsește nici o interpretare metaforică, răspunsul este ``fals'';
  5. Dacă se găsește o interpretare metaforică, este interpretarea metaforică adevărată și în sens literal?
  6. Dacă nu este, răspunsul este ``fals'';
  7. Dacă este, răspunsul este ``adevărat''.

Acest algoritm poate părea ineficient -- adică, dacă știi că o interpretare este literală, de ce sa mai testezi dacă este literal adevărată? De fapt, ideea este că interpretarea unei propoziții se caută automat și ``subconștient'' -- pentru mintea noastră nu există noțiunea de ``interpretare literală'' sau ``metaforică'' (de multe ori nici nu ne dăm seama că o propoziție este metaforică, ca în exemplele date la începutul acestui text). Ca atare, atunci cînd s-a calculat o interpretare, trebuie sa se testeze dacă ea răspunde cerințelor situației, în cazul nostru dacă interpretarea este literal adevărată.

Ați înțeles deci de ce, după Dascal, este firesc ca propozițiile metaforice să ia mai mult timp pentru a fi rejectate decît cele fără sens: pentru că cele fără sens, neavînd nici o interpretare, pot fi clasificate imediat ca fiind false, în timp ce pentru cele metaforice, subiecții trebuie să execute pașii suplimentari 4 și 5, necesari rejectării interpretării.

O teorie infirmată

Polemica nu se oprește însă aici. În răspuns la teoria lui Dascal, Keysar (1989) a proiectat un experiment ingenios; el a manipulat valoarea de adevăr literală și metaforică a propozițiilor expuse subiecților.

De exemplu, Keysar a arătat participanților la experimentul său un pasaj despre un magician la circ, Ion, care era foarte priceput în a face rost de bani. În cazul ăsta, propoziția ``Ion este un magician'' este adevărată în ambele sensuri, atît metaforic cît și literal. Dacă însă pasajul era modificat astfel încît Ion era total nepriceput să strîngă bani, propoziția ``Ion este un magician'' devenea adevărată literal, însă falsă din punct de vedere metaforic. Dacă însă pasajul era despre un cercetător care era foarte priceput la a face rost de bani, propoziția ``Ion este un magician'' era adevărată numai din punct de vedere metaforic. Într-un context în care Ion era un inginer nepriceput în a face rost de bani, propoziția cu pricina nu era adevărată nici în sens literal, nici metaforic.

Predicția teoriei lui Dascal este că propozițiile adevărate literal vor fi judecate mai repede decît propozițiile adevărate metaforic sau complet false. Rezultatul experimentului lui Keysar a infirmat însă această predicție -- în mod surprinzător, propozițiile cu valori de adevăr congruente (adevărate sau false atît din punct de vedere literal cît și din punct de vedere metaforic) au fost judecate mai repede decît cele cu valori de adevăr incongruente (adevărate dintr-un punct de vedere și false din celălalt). În felul acesta, Keysar pare să demonstreze că sensul metaforic este accesat în paralel cu cel literal, sau oricum, nu după cel literal.

După cum vedeți, psihologia cognitivă, deși se folosește de concepte precum scheme logice sau algoritmi ca să descrie diverse teorii, pare destul de bine echipată ca sa răspundă întrebărilor proprii. Chiar și cu așa mijloace ``sărace'' precum experimentarea și logica elementară, este capabilă sa ajungă la niște concluzii. Atunci care este rolul calculatorului în toată povestea asta -- ce aduce el nou?

Modele computaționale

Problema modelelor discutate anterior este că, deși ele pot face predicții generale, o mulțime de detalii nu sunt luate în considerare. De exemplu, oamenii au nevoie de cîteva secunde ca să înțeleagă o propoziție metaforică. La nivel teoretic se poate cu ușurință imagina o teorie foarte complicată, însă nimic nu dovedește că acea teorie poate să ``fie executată'' suficient de repede de un mecanism (creier, model cognitiv) real.

De asemenea, în teorie este ușor de folosit într-un algoritm o operație de genul ``caută o interpretare metaforică'', dar de fapt ce înseamnă acest proces de căutare este lăsat în umbră. Cum se reprezintă textul care precede propoziția în memorie, cum se reprezintă cunoștințele generale în memorie, care din ele sunt accesate și în ce ordine, cum este determinat referentul pentru o metaforă anaforică, toate acestea sunt întrebări rămase deschise. Ceea ce calculatorul aduce în acest domeniu este rigoarea -- un model computațional cît de simplu obligă la afirmarea explicită a asumpțiilor (și simplificărilor) pe care se bazează modelul și la explicarea tuturor detaliilor care nu au fost incluse în acele asumpții. De asemenea, în măsura în care poate produce predicții concrete (procentaj de răspunsuri corecte și timpi de procesare), un model computațional este verificabil.

Dar ce înțelegem prin ``model computațional''? Pur și simplu un set de structuri de date (numite uneori și ``reprezentări'') și un algoritm care operează cu ele. De multe ori, astfel de modele computaționale se implementează în cîte un ``limbaj'' specializat, adică se exprimă în termenii unei teorii cognitive mai generale. Astfel de teorii sunt fie bazate pe rețele neuronale, fie pe sisteme de producție. Diferența fundamentală între cele două constă în nivelul de abstracție la care încearcă să rezolve problema. Sistemele de producție manipulează simboluri și nu încearcă neapărat să explice cum se implementează aceste simboluri la nivel neuronal; ele declară mecanismele cognitive un fel de ``software'' care este independent de ``hardware''-ul pe care se execută; pe de altă parte, preoponenții rețelelor neuronale pornesc de la un nivel mai scăzut și susțin că nu se poate atinge o înțelegere deplină a cogniției făcînd abstracție de specificul ``hardware''-ului pe care ea funcționează - creierul omenesc.

Să vedem cam ce ar însemna un model computațional pentru înțelegerea metaforelor. În primul rînd se pune întrebarea cum se reprezintă sensul unui cuvînt. Aici avem mai multe opțiuni -- putem sa îl reprezentăm fie localizat, adică concentrat într-o singură locație în memorie (numită uneori ``chunk'' în literatura de specialitate), fie distribuit, adică format din mai multe astfel de ``chunk-uri'', corespunzînd fiecare cîte unei trăsături a cuvîntului; între chunk-uri sunt legături care reprezintă relațiile dintre ele. Aceste două tipuri de reprezentare sunt ușor accesibile unui programator -- cea localizată corespunde unei singure structuri (ca un struct în limbajul C), iar cea distribuită corespunde unui arbore, a cărui rădăcină este sensul cuvîntului și ale cărui frunze sunt trăsăturile lui individuale. Muchiile pot fi structuri care să conțină cîte un pointer la cele două vîrfuri (vedeți figura 13).

Figura 1: Reprezentarea sensului cuvintelor se poate face în două feluri: fie localizat, în care un sensul unui cuvînt este o colecție de trăsături, fie distribuit, în care un sensul este reprezentat printr-o relațiile cu trăsăturile sale. In figură vedeți reprezentarea localizată (figura a) sau distribuită (figura b) a sensului cuvîntului ``Noe''.
\begin{figure}\centerline{\epsfxsize=7cm\epsffile{reprezentari.eps}}\end{figure}

Cum reprezentăm o propoziție? De exemplu, ca pe un arbore cu muchii etichetate, ca în figura 2: propoziția este rădăcina arborelui, iar frunzele sunt cuvintele (mai exact sensurile cuvintelor din propoziție). Muchiile sunt reprezentate ca mai înainte, cu diferența că structura corespunzătoare conține un nou cîmp cu rolul tematic pe care sensul îl are în propoziție (exemplu: agent, pacient, etc.).

Figura: O propoziție poate fi reprezentată ca un arbore în care frunzele sunt părțile componente ale propoziției, iar muchiile indică rolul tematic al fiecărui cuvînt. Fiecare frunză este un sens al unui cuvînt, care poate fi reprezentat în oricare din formele din figura 1.
\begin{figure}\centerline{\epsfxsize=12cm\epsffile{propozitie.eps}}\end{figure}

Modelul trebuie să aibă și o reprezentare a cunoștințelor generale despre mediul înconjurător; acestea pot fi reprezentate de pildă ca o colecție de propoziții independente, existente în memoria de termen lung.

Modele cognitive și Inteligența Artificială

Cu o astfel de reprezentare, pentru a implementa teoria lui Searle (sau o alta alternativă), trebuie explicat ce înseamnă ``a căuta o interpretare pentru o propoziție''. Mai întîi, putem presupune că o interpretare a unei propoziții este o experiență anterioară ``analoagă'' acelei propoziții și existentă în mulțimea de cunoștințe generale. Cu alte cuvinte, înțelegem ceva în funcție de experiențe similare pe care le-am avut. Acum, cu aceste structuri de date pe care tocmai le-am definit, o interpretare pentru o propoziție este un arbore din baza de cunoștințe generale care să se ``suprapună'' peste arborele propoziției pentru care căutăm o interpretare. Suprapunerea poate fi mai mult sau mai puțin exactă. De exemplu, putem presupune că pentru o interpretare literală, suprapunerea trebuie să fie mai riguroasă decît pentru o interpretare metaforică. De aici putem construi cu ușurința un model (adică un program) care să urmeze teoria lui Searle.

Poate ați recunoscut în aceste reprezentări noțiunea de rețea semantica din inteligența artificială. Într-adevăr, multe din încercările inițiale din inteligența artificială au fost preluate de către științele cognitive. Diferența fundamentală este că științele cognitive își propun pe de o parte să construiască modele (programe) care să facă ce face omul, așa cum face omul. În plus, nefiind constrînse să construiască sisteme cu aplicații industriale (deocamdată), științele cognitive își pot permite luxul unor asumpții simplificatoare și pot sparge astfel o problemă complicată în mai multe bucățele. De exemplu, un program pentru înțelegerea metaforelor, ca să fie pe deplin funcțional, ar trebui să aibă în interior un algoritm de analiză sintactică, care să indice rolul sintactic al fiecărui cuvînt. Noi însă putem porni de la premiza că rolul sintactic este dinainte calculat4.

Pe de altă parte, modelele cognitive au constrîngeri suplimentare: ele sunt de pildă constrînse să dea răspunsuri într-un timp comparabil cu cel pe care oamenii îl iau ca să îndeplinească aceeași sarcină.

Deci nu orice program este un model cognitiv. Pe lîngă constrîngeri de timp, un model computațional este constrîns de tot felul de date empirice din domenii înrudite cu cel pe care își propune sa-l modeleze. De exemplu, se știe că oamenii nu pot să își amintească informație instantaneu -- deci programul trebuie să se respecte anumite reguli despre extragerea unei informații din memorie. De asemenea, pentru că oamenii procesează într-un timp totuși scurt, ideea unei căutări exhaustive în memorie nu este o alternativă viabilă. Se știe că memoria umană funcționează asociativ -- contextul în care suntem adesea influențează ceea ce ne amintim, iar procesul de extragere a informației din memorie este fundamental.

Alan Newell a fost primul care a propus ideea unei teorii unificate a cogniției umane. Aceasta ar fi un cadru foarte general construit pe baza unor asumpții fundamentale despre natura memoriei, despre selecția unei alternative atunci cînd mai multe sunt posibile, despre învățare etc. Pe baza acestor asumpții se produc modele care adresează date empirice din domenii diferite -- de exemplu memoria pentru liste de cuvinte5sau pentru propoziții care au sens, alegerea unei strategii optime, descompunerea unei probleme în subprobleme etc. Fiecare din modelele reușite (în sensul că reproduc fenomenele pe care încearcă să le modeleze), produse fiind sub asumpțiile teoriei, dau validitate acestor asumpții. Deseori, unele din aceste modele duc la reconsiderarea asumpțiilor fundamentale - cercetarea este un proces de ``încercare și eroare'' (``trial and error''). Însă de multe ori fenomene dintr-un domeniu, prin faptul că chestionează asumpții fundamentale ale teoriei, aruncă lumină asupra unor aspecte dintr-un domeniu paralel.

ACT-R

Există mai multe teorii unificate ale cogniției. Universitatea Carnegie Mellon, unde Alan Newell a fost profesor, este legată de mai multe dintre ele (Soar, ACT-R, CAPS etc.). Toate se bazează pe sisteme de producție.

Pentru exemplificare, vom vorbi pe scurt despre unul dintre ele: ACT-R
(http://sands.psy.cmu.edu/ACT/act-home.html). Acesta este un limbaj de programare, dar ale cărui instrucțiuni și mod de evaluare sunt concepute conform cu o anumită teorie despre modul de funcționare al cogniției umane.

Există două tipuri fundamentale de concepte cu care ACT-R operează: memoria declarativă (compusă din ``chunk''-uri) care conține informații ``statice'', fapte asemănătoare cu cele pe care le învățam în orele de geografie din clasele primare (``Chișinău este capitala Moldovei'') și memoria procedurală, populată de reguli atomice, indivizibile (de exemplu, toate regulile pe care le urmăm cînd conducem mașina). Distincția între procedural și declarativ nu este întîmplătoare -- există motive să credem că aceste două tipuri de memorie sunt diferite -- de exemplu, există amnezici care nu sunt capabili să memoreze fapte noi sau să își amintească informații din memoria pe termen lung, dar cu toate astea, pot conduce o mașină și pot chiar învăța să execute operații procedurale complicate (cum ar fi o problemă precum turnurile din Hanoi).

Un program ACT-R menține o stivă de ``scopuri'' și încearcă întotdeauna să execute scopul care este în vîrful stivei; face aceasta examinînd regulile (sau producțiile) din memoria procedurală și selectînd spre aplicare ``cea mai bună'' regulă care poate servi la îndeplinirea scopului curent. Cum se definește ``cea mai bună'' este o întreagă poveste -- de exemplu, cea mai bună poate fi cea care ia cel mai puțin timp pentru a fi executată sau cea care s-a dovedit corectă în experiențele anterioare6. Așa cum vă puteți imagina, nici criteriul de selecție nu este ales la voia întîmplării -- nenumărate experimente arată că oamenii și animalele învață din eșecuri sau succese (de exemplu, alegerea locului de pășune de către animale sălbatice depinde de experiența pe care ele au avut-o în trecut cu locul respectiv).

Rezumat

Sperăm că am reușit să ilustrăm în oarecare măsură scopul și mijloacele științelor cognitive. Interesul științelor cognitive este de a înțelege cum gîndesc oamenii; în acest scop, cercetătorii formulează teorii despre cogniție, care sunt adesea descrise sub formă de algoritmi. Acești algoritmi sunt implementați folosind interpretoare specializate. ``Instrucțiunile'' de bază modelează mecanismele elementare ale cogniției umane; algoritmii sunt apoi folosiți pentru a prezice rezultatele experimentale, confirmînd (sau infirmînd) teoria care a stat la baza modelului. Rezultatele experimentale sunt obținute din studierea unor subiecți umani.

Cu pași mărunți, științele cognitive ne apropie de înțelegerea acestui fascinant univers care este creierul uman.

Bibliografie selectivă

Anderson, J.R. and Lebiere, C., 1998. ``The atomic components of thought'', Lawrence Erlbaum Associates Publishers, Mahwah, New Jersey.

Gibbs, R., 1990. ``Comprehending Figurative referential descriptions'', Journal of Experimental Psychology: Learning, Memory and Cognition, 16, pp. 56-66.

Searle, J.R., 1979. ``Metaphor.'' În Ortony, A. (editor) ``Metaphor and Thought'', Cambridge University Press.

Ortony, A. and Schallert, D. and Reynolds, R. and Antos, S., 1978. ``Interpreting metaphors and idioms: Some effects on comprehension'', Journal of Verbal Learning and Verbal Behavior, 17, pp. 465-477.

Dascal, M., 1987. ``Defending Literal Meaning'', Cognitive Science, 11, pp. 259-281.

Keysar, B., 1989. ``On the functional equivalence of literal and metaphorical inte rpretations in discourse.'' Journal of Memory and Language, 28, pp. 375-385.

Anderson, J.R., 1995. ``Cognitive psychology and its implications.'' W.H. Freeman & Co, New York.

Despre autori

Raluca Budiu
este doctorand în cadrul departamentului de calculatoare al universității Carnegie Mellon. Domeniul ei de interes este modelarea cognitivă a fenomenelor lingvistice.

Mihai Budiu
este un corespondent fidel al revistei.



Note

... antropologie1
Aceste discipline intră în subtitlul jurnalului Cognitive Science., însă nu toate sunt egal reprezentate; principalele contribuții în domeniu vin din psihologie și inteligență artificială
... localizate2
Nu este nici o ironie la mijloc -- teoria ``frenologică'' a localizării funcțiilor cognitive în diverse arii ale creierului primește din ce în ce mai multe și mai serioase lovituri.
...reprezentari3
Figura nu prezintă arborele desenat in stilul tradițional; rădacina arborelui trebuie considerată a fi ``Noe''
... calculat4
Aceasta este o premiza în spiritul controversatei idei a modularității limbajului.
... cuvinte5
E vorba despre modul în care oamenii rețin liste lungi de cuvinte fără legătură între ele.
... anterioare6
De fapt, soluția exactă este un compromis între cost și succesul anterior.