Memoria, punctul nevralgic al agenților AI și de ce nu suntem (încă) aproape de AGI


Ideea că AGI-ul e „chiar după colț” a devenit chintesența hype-ului din jurul inteligenței artificiale. Fiecare model nou e însoțit de promisiunea că ar putea fi ultimul pas înainte ca sistemele să devină „cu adevărat” inteligente. Dar această narațiune maschează o problemă fundamentală încă nerezolvată: memoria persistentă, necesară învățării continue.

Problemă ușor de observat în implementările practice de agenți AI. Cu toate promisiunile pe care le fac multiplele platforme de dezvoltat agenți, în viața reală, agenții AI, oricât de fluenți ar fi, nu învață din experiențele anterioare așa cum visăm. Și nu o fac pentru că nu sunt suficient de inteligenți, ci pentru că nu pot “ține” minte experiențele anterioare într-un mod persistent și activ.

În comunitățile de cercetare, inginerie și dezbatere publică pe tema AI-ului, emularea memoriei umane este unul dintre cele mai aprinse subiecte. Evident ca nu în sensul simplu computațional al ferestrelor de context mai largi, ci ca o paradigmă fundamentală: cum construiești o memorie care nu doar stochează, ci organizează, corelează și influențează comportamentul agentului în timp?

Memorie nu înseamnă doar „mai mult context”

Ca întotdeauna pulsul cel mai relevant îl luăm din viața reală. De exemplu, într-o postare pe X antreprenorul AI John Rush, argumentează că memoria pe termen lung e veriga lipsă care împiedică modelele actuale să devină cu adevărat autonome în aplicații practice, nu în medii de laborator. Deși nu vine din zona cercetării academice, observațiile lui rezonează cu opiniile unor figuri mult mai consacrate.

Andrej Karpathy, fost cercetător la OpenAI și Tesla, descrie actualele modele LLM ca „fantome” — distilări pasive ale datelor umane, fără o relație activă cu experiența sau cu învățarea din mers. „Nu au memorie persistentă. Nu le poți spune ceva azi și să te bazezi că va conta mâine”, spune el într-un interviu cu Dwarkesh Patel. Karpathy estimează că ar putea dura încă un deceniu până vom depăși aceste limitări și vom construi agenți capabili să învețe în timp real, din propriile acțiuni.

Yann LeCun, de la Meta, critică de ani buni această lipsă a învățării continue, iar recent a subliniat că „modelele actuale nu au capacități de raționare proprii, nu au memorie persistentă și continuă și nu pot planifica”. Chiar și în tabăra celor mai optimiști, precum François Chollet (Google), apare o recunoaștere: fără memorie funcțională, agenții AI rămân un patchwork de task-uri izolate, nu entități capabile de autonomie.

Ce înseamnă, de fapt, o memorie „utilă” în contextul AI-ului cu adevărat autonom?

Dar ce înseamnă, de fapt, „memorie” într-un astfel de sistem? Nu e vorba doar despre a reține informații brute. Lumea umană e modelată de tipuri variate de memorie: episodică (ce ni s-a întâmplat), semantică (ce știm despre lume), procedurală (ce știm să facem). În mod ideal, un agent ar trebui nu doar să stocheze aceste informații, ci să le lege între ele, să le actualizeze și să le acceseze context-relevant, la momentul potrivit.

Modelele actuale nu reușesc asta. Chiar și cu memorie vectorială, ferestre de context extinse sau arhitecturi de tip „retrieval-augmented”, ele sunt incapabile să construiască un istoric coerent. În termeni de învățare continuă, suferă de așa-numitul „catastrophic forgetting”: când învață ceva nou, uită ce știau anterior. Nu există un fir narativ intern, o acumulare de experiență sau o adaptare personalizată.

Fără memorie, nu există autonomie

Acest blocaj nu e doar teoretic, ci practic: fără memorie coerentă și persistentă, nu putem construi agenți care să devină utili în situații neprevăzute sau care să se îmbunătățească prin experiență. Nu putem avea asistenți personali care cresc odată cu noi, sau agenți de business care învață din datele unei companii pe termen lung. Scalarea simplă a modelelor nu rezolvă acest lucru.

De aceea, tot mai multe voci din cercetare susțin că memoria nu este doar un obstacol tehnic, ci poate chiar marea problemă conceptuală a AGI-ului. Ce înseamnă să ai „amintiri”? Cum sunt organizate, când sunt reactivate, cum influențează comportamentul? E posibil să fie nevoie de o regândire completă a arhitecturilor AI pentru a face loc acestui tip de funcționalitate.

Memoria, nu doar utilă — ci indispensabilă

Aici apare și nuanța crucială: AGI nu înseamnă un model care poate conversa despre orice. Înseamnă un sistem care poate învăța continuu, care poate decide și planifica singur, care poate acționa coerent în timp. Iar pentru asta, memoria — în sensul profund al termenului — nu e doar utilă. Este indispensabilă.

Studii relevante subiectului ce merită studiate

 

Te-AI pregătit pentru ce vine?
Abonează-te la "Pulsul AI", newsletter-ul care te ține la zi cu noutățile din Inteligența Artificială. Fără hype sau panică. Doar ce contează.

Ultimele Știri

Noutăți din AI