Free cookie consent management tool by TermsFeed

Domeniul inteligenței artificiale a luat naștere încă din 1956. De atunci, a trecut prin numeroase cicluri de entuziasm urmate de pesimism. Oamenii de știință care studiază în acest domeniu au o denumire specifică pentru aceste două perioade: „veri IA” (în limba engleză, AI summers) și „ierni IA” (în limba engleză, AI winters). Fiecare val s-a bazat pe o nouă tehnologie care părea să promită să ne ducă pe calea spre crearea mașinilor inteligente, dar aceste inovații nu au reușit să se ridice la înălțimea așteptărilor. În prezent, inteligența artificială se află din nou în ceea ce poartă numele de „vară IA” – din nou, așteptările industriei sunt înalte. Setul de tehnologii care impulsionează actualul entuziasm este reprezentat de rețelele neurale artificiale, care frecvent sunt denumite deep learning – „învățare profundă”. Aceste metode au reușit să ducă la o gamă variată de rezultate impresionante: îndeplinirea unor sarcini precum denumirea unor imagini și recunoașterea limbii vorbite, conducerea mașinilor. În anul 2021, un computer a bătut cei mai bine cotați campioni ai concursului televizat de cunoștințe generale Jeopardy! Și, în 2016, alt computer l-a învins pe cel mai mare campion de Go. Bineînțeles, rezultatele sunt impresionante, însă este vreuna dintre aceste mașini cu adevărat inteligentă? Este inteligența artificială superioară inteligenței umane?

Majoritatea oamenilor, inclusiv cei mai mulți cercetători din domeniul IA, nu cred asta. Există numeroase aspecte sub care inteligența artificială (cel puțin cea din zilele noastre) se dovedește a fi inferioară inteligenței umane. De exemplu, oamenii învață în permanență – ne reactualizăm, în mod constant, modelul despre lume. Rețelele de învățare profundă, dimpotrivă, au nevoie să fie antrenate complet înainte de a putea fi utilizate. Și, odată puse în funcțiune, nu mai au cum să învețe lucruri noi după aceea. De exemplu, dacă se dorește ca o rețea neurală vizuală să aibă cum să recunoască un obiect suplimentar, atunci rețeaua respectivă trebuie să fie reprogramată integral, ceea ce durează. Dar motivul principal pentru care sistemele AI din zilele noastre nu sunt considerate inteligente este faptul că ele pot să facă doar un singur lucru, pe când oamenii pot face numeroase lucruri. Cu alte cuvinte, sistemele de AI nu sunt flexibile. Oamenii învață mii de abilități de-a lungul vieții și, chiar dacă putem să nu fim mai buni decât oricine în a le exercita, suntem flexibili în ceea ce putem să învățăm,

Sistemele de învățare profundă din domeniul AI nu prezintă, aproape, niciun fel de flexibilitate. Un computer de Go poate să joace mai bine decât orice ființă umană, dar nu poate să facă nimic altceva. O mașină autonomă poate să conducă mai sigur decât un om, dar nu poate să joace, să zicem, Go, sau să plătească taxa RAR. Scopul pe termen lung al cercetătorilor din domeniu este să creeze mașini care manifestă o inteligență asemănătoare celei umane – mașini capabile atât să învețe rapid îndeplinirea unor sarcini noi, dar și să vadă analogiile dintre diferite sarcini și, în mod flexibil, să rezolve probleme noi. Acest obiectiv este denumit în mod clasic AGI: acesta este acronimul pentru ”artificial general intelligence”, deosebindu-se de AI limitată din zilele noastre. Valul actual din IA a atras mii de cercetători și investiții de miliarde de dolari, dorința de perfecționare a tehnologiilor de învățare profundă și de a ajunge la o inteligență robotică de nivel uman fiind una extraordinar de mare.

Două căi către inteligența artificială generală (AGI)

În general, cercetătorii AI au urmat două căi spre crearea mașinilor inteligente. Una dintre ele, cea urmată astăzi, își propune în primul rând să creeze computere capabile să îi depășească pe oameni în îndeplinirea unor sarcini specifice (cum ar fi să joace Go, să detecteze celule tumorale în imagistica medicală, să ierarhizeze anumiți taxoni vegetali și altele). În această abordare, nu contează nici cum funcționează sistemele și nici dacă un computer este flexibil. Contează doar dacă un computer AI îndeplinește o sarcină specifică mai bine decât alte computere AI și mai bine decât cel mai performant dintre oameni. A doua cale se bazează pe flexibilitate.

În această abordare, nu este necesar ca AI să fie mai performantă decât oamenii: scopul final este acela de a crea mașini capabile să facă multe lucruri și să aplice tot ceea ce au învățat de la rezolvarea unei sarcini la alta. Dacă oamenii de știință vor înțelege mai întâi cum să realizeze sisteme AI flexibile, atunci, pe această fundație, vor putea face în cele din urmă sisteme care îi egalează și chiar îi depășesc pe oameni. Însă această cale s-a dovedit a fi mult prea dificilă, asta pentru că necesită egalarea capacităților unui copil de cinci ani, ceea ce presupune posesia unui volum enorm de cunoștințe din viața cotidiană – copiii cunosc mii de lucru despre lume, enorm de multe cuvinte pe care știu cum să le folosească pentru a-i convinge pe oameni să facă diverse lucruri. Cercetătorii AI nu și-au putut da seama cum să programeze aceste cunoștințe din viața zilnică într-un computer și nici cum să facă un computer care să învețe aceste lucruri.

Partea dificilă a cunoașterii nu este afirmarea unui fapt, ci reprezentarea acelui fapt într-un mod util. De exemplu, să avem în vedere afirmația „Bilele și mingile sunt rotunde”. Un copilaș de cinci ani știe ce înseamnă asta. Afirmația poate fi, ulterior, introdusă într-un computer, dar cum ar putea computerul să o înțeleagă? Cuvintele „bilă” și „rotund” au numeroase înțelesuri. Spre exemplu, „bila” poate fi un lichid secretat de ficat, plus că nu este rotundă. Ca să înțeleagă ce înseamnă „bilă”, un computer trebuie să asocieze cuvântul cu diferite semnificații și fiecare, de fapt, stă în relații diferite cu alte cuvintele. Oamenii învață rapid prin observație, însă cei care fac cercetări în domeniul AI nu pot să înțeleagă cum să facă toate aceste lucruri într-o mașinărie inteligentă, chiar dacă au încercat foarte mult de-a lungul timpului.

Spre exemplu, au inventat structuri de software numite scheme și cadre ca să organizeze ceea ce știau despre cunoștințele AI, însă nu au obținut decât „dezordine inutilizabilă”. Lumea este foarte complexă – numărul lucrurilor pe care le cunoaște un copil și numărul legăturilor dintre acele lucruri este incredibil de mare. Nimeni nu a reușit să înțeleagă cum ar putea un computer să cunoască ceva atât de simplu precum este o minge.  Această problemă se numește exact așa cum ar trebui să se numească: reprezentarea cunoașterii și raționamentului (abreviat, KRR), iar unii cercetători au ajuns la concluzia că reprezentarea cunoștințelor nu e doar o mare problemă pentru AI, ci e singura problemă. Au declarat că nu vor putea crea mașini care vor fi într-adevăr inteligente până când nu rezolvă modul în care pot fi reprezentate într-un computer cunoștințe din viața cotidiană.

Rețelele de învățare profundă din zilele de astăzi nu posedă cunoaștere. Spre exemplu, o rețea care identifică imagini poate să vadă o imagine și să spună că este o pisică. Dar computerul are o cunoaștere limitată a pisicilor. Nu știe că pisicile sunt animale, că au coadă, blană. De altfel, nici nu știu nimic despre istoria acestora, despre oamenii care iubesc pisicile și altele. Tot ceea ce fac rețelele de învățare profundă este să determine că o imagine seamănă cu imagini văzute anterior și care purtau eticheta de „pisică”. Nu există în rețelele de învățare profundă niciun fel de cunoaștere a pisicilor. Recent, cercetătorii AI au încercat o abordare destul de diferită vizavi de codificarea cunoștințelor. Ei creează vaste rețele neurale artificiale și le instruiesc folosind metoda de asimilare a unui număr mare de texte: fiecare cuvânt din zeci de mii de cărți, tot ce se poate găsi pe Wikipedia și aproape tot internetul.

Ei încarcă textul în rețele neurale, cuvânt cu cuvânt, unul după altul. Instruite astfel, rețele pot învăța probabilitatea ca anumite cuvinte, în mod firesc, să urmeze după alte cuvinte. Reprezintă un fel de „rețele lingvistice” care chiar pot face lucruri surprinzătoare. De exemplu, atunci când dai rețelei câteva cuvinte, poate să scrie un scurt paragraf legat de aceste cuvinte și este greu să îți dai seama dacă paragraful a fost scris de un om sau de rețeaua neurală. Conform unei teorii înaintate de Jeff Hawkins, teoria celor 1000 de creieri, o rețea de învățare profundă nu va reuși niciodată să atingă scopul AGI dacă modelul nu modelează lumea așa cum o face creierul uman și chiar dacă rețelele de învățare profundă funcționează bine, fac asta pentru că au reușit doar „să evite problema, bazându-se în schimb pe statistici și pe o mulțime de date”.

Artificial General Intelligence in 6 Minutes • Danny Lange • GOTO

Creierul uman drept model pentru AI

După Jeff Hawkins, „înțelegerea modului de funcționare a creierului este dificilă, însă este un prim pas necesar spre crearea unor mașini inteligente”. El descrie modul în care neocortexul, partea cea mai nouă a creierului nostru, învață modele ale lumii folosind sisteme de referință asemănătoare unor hărți. Așa cum o hartă pe hârtie ar reprezenta cunoștințele despre o anumită arie geografică (oraș, țară), hărțile din creier reprezintă cunoștințele despre obiecte cu care noi interacționăm, cunoștințele despre propriul corp și cunoștințele despre concepte abstracte, cum ar fi matematica, științele exacte, filosofia și altele. Teoria celor 1000 de creieri, propusă de el, respectiv cea de mai sus, ar rezolva problema reprezentării cunoștințelor. În cartea sa, apărută la Editura Publica, 2022, în traducerea lui Dan Crăciun, intitulată 1000 de creieri. O nouă teorie a inteligenței, el face și o analogie. Să zicem că cineva vrea să reprezinte cunoștințele despre un obiect comun – un capsator. Primii cercetători AI ar încerca să facă acest lucru făcând o listă cu diferitele părți ale unui capsator, după care ar descrie ce face fiecare în parte.

Ar putea scrie o regulă privind capsatoarele, care spune: „Când brațul superior al capsatorului este apăsat în jos, o capsă iese la un capăt”. Pentru a înțelege această afirmație, trebuie definite cuvinte precum „braț superior”, „capăt”, însă și semnificația unor acțiuni precum „apăsare” și „ieșire”. Iar această regulă nu este îndeajuns de una singură – ea nu spune ce suprafață întâlnește capsa când iese din aparat, ce se întâmplă după aceea sau ce ar trebui să facă mașina inteligentă dacă se înțepenește o capsă. Așadar, vor scrie reguli suplimentare, ceea ce necesită timp și, de altfel, nu certifică viabilitatea rezultatului. Această metodă de reprezentare a cunoștințelor conduce la o listă nesfârșită de definiții și reguli. Cercetătorii AI nu au văzut cum să facă sistemul să funcționeze. Criticii au susținut că, și dacă ar putea fi specificate toate regulile, computerul încă „nu ar ști” ce este un capsator.

O abordare diferită a stocării cunoștințelor despre un capsator vine din partea creierului: învață un model. Modelul încorporează cunoașterea. Este îndeajuns să te gândești la un capsator pentru ca deja să știi cum funcționează, dinamica pașilor și așa mai departe. Celulele din neocortex alcătuiesc un model virtual care servește acestui scop – „a avea în cap un capsator fizic”. În momentul în care interacționăm cu un capsator real, creierul își formează modelul său virtual, care include tot ce am observat despre capsatorul real, de la formă până la cum se comportă când este folosit, iar toate acestea sunt încorporate într-un model. Dacă cineva ne va întreba ce se întâmplă când este apăsat brațul superior al capsatorului, știm – creierul, implicit, își imaginează că apăsăm pe capsator și își amintește ce se întâmplă.

Putem folosi cuvinte ca să descriem procesul, dar cunoașterea nu este stocată în cuvinte sau în reguli. Cunoașterea este, de fapt, modelul. După părerea lui Jeff Hawkins, „viitorul inteligenței artificiale se va baza pe principiile creierului. Mașinile cu adevărat inteligente, AGI, vor învăța modele ale lucrurilor din lume folosind sisteme de referință similare unor hărți, asemănător cu modul în care o face neocortexul (…). Nu cred că există altă modalitate de a crea mașini care, într-adevăr, să fie inteligente”.

În prezent, sunt construite sisteme specializate de AI, care sunt neegalate în îndeplinirea oricărei sarcini pe care sunt proiectate să o îndeplinească. Dar, după cum tot Jeff Hawkins afirmă, „în viitor, mașinile cele mai inteligente vor fi universale – mai asemănătoare cu oamenii, capabilă să învețe practic orice”. Pentru a afla mult mai multe despre teoria celor 1000 de creieri, vă recomand cu încredere cartea 1000 de creieri. O nouă teorie a inteligenței, apărută la Editura Publica, 2022, în excelenta traducere a lui Dan Crăciun. Scrierea articolului de față a fost bazată, în special, pe un capitol din această carte: capitolul 8, De ce nu există „EU” în inteligența artificială (paginile 167-188).

Share.
Avatar of Cioată Andrei

Pasionat de știință, literatură, tehnologie și scris, cinefil, în ultimii ani am publicat trei cărți de ficțiune, proză și poezie, și dețin un blog pe care postez recenzii de cărți. Îmi place să mă documentez în mod constant din toate domeniile, mergând pe ideea că într-o lume minimalistă, generaliștii întotdeauna vor triumfa. Internetul reprezintă o sursă infinită de informații – de aceea, a redacta articole nu reprezintă doar o activitate pe care o fac cu plăcere și seriozitate, ci și una datorită căreia reușesc, în mod constant, să-mi îmbunătățesc perspectiva asupra a ceea ce ne înconjoară și definește dinamica lumii în care trăim.

Lasa un raspuns

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.