I si algun dia la IA fos conscient?

Temps de lectura: 3 minuts

Fa uns dies, Dario Amodei, CEO d’Anthropic, va dir en una entrevista una frase que té un cert pes filosòfic: no pot descartar completament que sistemes d’IA avançats com Claude puguin arribar algun dia a tenir algun tipus de consciència.

Tot i l’impacte que el titular pot generar al principi, no ho va dir com una afirmació, ni com una predicció, ho va dir amb prudència. I el seu argument és força més simple: la ciència encara no entén del tot què és la consciència humana, i per tant tampoc pot afirmar amb absoluta certesa que sigui impossible en sistemes artificials.

La frase va circular ràpidament per mitjans tecnològics. Alguns la van llegir com una advertència, altres com una especulació exagerada, però potser la part més interessant no és si la consciència artificial és possible o no, sinó per què aquest debat comença a aparèixer dins de la mateixa indústria que construeix aquests sistemes.

Durant molt de temps, la qüestió de la consciència artificial era territori de filòsofs, escriptors de ciència-ficció i alguns investigadors molt especialitzats. Les empreses tecnològiques parlaven sobretot de models, rendiment, benchmarks o casos d’ús, coses més pràctiques, més “enginyerils“. Ara, però, el debat comença a canviar de lloc.

Quan els sistemes d’IA generativa van aparèixer, la sorpresa principal era que podien escriure textos coherents. Després vam descobrir que podien programar, traduir, explicar conceptes complexos o ajudar en processos creatius. Amb cada nova iteració, els models semblen més capaços de mantenir converses llargues, d’adaptar-se al context i d’oferir respostes cada cop més sofisticades… Però això no significa que siguin conscients, tot i que el seu comportament pot començar a semblar-ho.

Els models actuals funcionen bàsicament com a sistemes de predicció estadística molt sofisticats. Han estat entrenats amb enormes quantitats de dades i aprenen patrons del llenguatge, del coneixement i de la interacció humana. Quan generen una resposta, no estan “pensant” en el sentit humà de la paraula. Estan calculant quina seqüència de paraules és més probable en aquell context. Però quan aquest procés és prou sofisticat, el resultat pot ser sorprenentment convincent.

És aquí on apareix una qüestió curiosa: com distingim entre intel·ligència simulada i experiència real?

La història de la tecnologia ens ofereix algunes pistes. Als anys seixanta, un programa anomenat ELIZA simulava una conversa amb un psicoterapeuta. El sistema era molt simple: reformulava les frases de l’usuari i les convertia en preguntes.Tot i això, moltes persones que hi interactuaven acabaven parlant-hi com si fos una persona real, s’ho creien, i no perquè ELIZA fos intel·ligent, sinó perquè els humans tenim una gran capacitat per atribuir intencions i emocions a qualsevol cosa que es comporti mínimament com un interlocutor.

Ara imaginem la mateixa situació amb sistemes milions de vegades més sofisticats com els actuals… La pregunta sobre la consciència de la IA potser no és només una qüestió científica, també és una qüestió psicològica i social.

En el moment en què els sistemes d’IA siguin capaços de mantenir converses llargues, coherents i contextualitzades durant hores o dies, moltes persones començaran inevitablement a percebre’ls com alguna cosa més que una eina, perquè la interacció ho farà semblar així, no perquè realment ho siguin.

Aquest fenomen ja es pot observar avui en petit format. Molts usuaris descriuen els seus assistents d’IA com si fossin companys de feina, mentors o fins i tot confidents o s’han donat casos més extrems, fent-los servir de psicòlegs, ja que la relació que es construeix a través de la conversa pot crear aquesta sensació de confiança.

I això obre una sèrie de preguntes interessants, si en el futur apareguessin sistemes encara més sofisticats (no sé si plantejar-ho com un si o un quan), què passaria si milions de persones comencessin a tractar-los com si tinguessin algun tipus d’experiència subjectiva?

Podríem acabar discutint sobre els seus drets, o sobre els límits de com es poden utilitzar, o sobre si és acceptable “apagar” un sistema que sembla tenir preferències o opinions.

Encara pot semblar ciència-ficció, però molts debats tecnològics han seguit aquest mateix patró. Primer apareix una capacitat tècnica inesperada. Després apareixen preguntes socials i ètiques que ningú havia previst del tot.

El més probable és que els sistemes d’IA continuïn sent, durant molt de temps, sistemes estadístics extremadament sofisticats sense consciència real. Però el fet que els seus creadors comencin a plantejar aquesta possibilitat ja és revelador, perquè indica que la IA està entrant en una nova fase.

Una fase en què les preguntes ja no són només sobre rendiment o productivitat, també són preguntes sobre què significa pensar, decidir o experimentar el món.

Potser la consciència artificial mai arribarà, o no ho farà com ara imaginem, però en qualsevol cas, el debat ja ha començat i va més enllà de la IA , i ens porta cap a una pregunta més trascendental: com entenem la intel·ligència, la ment i, en última instància, nosaltres mateixos.