Portem uns anys parlant de la IA com si fos una evolució del software, la nova eina, una eina més potent, sí, però eina al cap i a la fi.
El 2026, però, aquesta idea ja no s’aguantarà, però hi ha una gran resistència a canviar el xip, potser perquè assumir el contrari ens obliga a replantejar massa coses alhora.
Les grans plataformes tecnològiques ja no presenten la IA com un assistent que respon preguntes, sinó com un agent que actua. Compra, reserva, decideix, negocia. Mark Zuckerberg ho va verbalitzar fa pocs dies parlant d’agentic commerce : sistemes d’IA que no només recomanen productes, sinó que poden executar accions completes en nom de l’usuari. No és una promesa llunyana; és el full de ruta de les grans.
De l’eina obedient a l’actor delegat
Una eina espera ordres, cal que algú l’utilitzi, un martell no decideix on clavar el clau, un full de càlcul no optimitza sol el negoci. Fins i tot el programari més avançat, tradicionalment, actuava dins d’un marc clar determinista : inputs humans, outputs previsibles.
Els agents d’IA trenquen aquest esquema. No perquè siguin conscients, que ja sabem que no ho són, sinó perquè operacionalitzen objectius. Els donem una intenció (“troba el millor vol”, “maximitza conversions”, “redueix costos”) i els deixem explorar, provar, decidir i actuar dins d’un entorn, amb criteris i límits, potser, però amb un cert marge real d’autonomia.
Ens enganyem potser dient-li “eines” ?
El canvi no és tècnic, és mental
Tecnològicament, el salt és incremental. Tenim cada cop models més capaços, amb més memòria, amb connexió amb sistemes externs i bucles d’acció, però el canvi profund és com deleguem responsabilitat.
Quan una empresa deixa que un agent optimitzi campanyes de màrqueting, accepta que part de les decisions ja no passen per una persona concreta. Quan un usuari permet que un agent li gestioni compres recurrents, cedeix criteri. I quan una organització integra agents en processos crítics, difumina la frontera entre decisió humana i decisió automatitzada.
Aquí és on el relat de “només és una eina” serveix de coixí psicològic. Ens permet seguir operant com abans sense afrontar del tot les conseqüències.
Qui mana, realment, sobre els agents?
Un agent no té voluntat pròpia, però sí objectius definits, que els fixa algú. Per tant, la pregunta no és què pot fer l’agent, sinó a favor de qui optimitza.
Si un agent de compra està integrat en una plataforma comercial, prioritza l’usuari… o el marge de la plataforma? Si un agent personal recomana contingut, respon als interessos de la persona… o als objectius publicitaris del sistema? Si un agent corporatiu pren decisions internes, ho fa segons criteris ètics, legals, econòmics… o una barreja opaca de tots tres?
Parlar d’eines evita aquesta conversa, però parlar d’agents, no.
El paral·lelisme incòmode amb els algoritmes socials
Ja hem passat per això, en part. Durant anys vam dir que els algoritmes de recomanació de les xarxes socials eren “neutrals”. Només ordenaven contingut. Només optimitzaven engagement. Fins que vam entendre (massa tard segurament) que estaven modelant opinió pública, comportaments i polarització.
Amb els agents d’IA el risc és similar, però més directe. No només influeixen en el que veiem, sinó en el que fem. I ho fan a escala, amb velocitat i sense cansament, la diferència és que ara ho sabem abans, però tot i així, continuem utilitzant un llenguatge que minimitza l’impacte real del que estem desplegant.
Empreses que juguen amb foc
Moltes organitzacions estan integrant agents perquè “si no ho fem nosaltres, ho farà la competència”. És comprensible, però sovint ho fan sense redefinir rols, responsabilitats ni processos de control. L’agent entra com si fos un nou mòdul de software, no com un nou actor operatiu.
Això genera una tensió latent: qui respon quan l’agent s’equivoca? Qui audita les seves decisions? Qui entén realment com ha arribat a una conclusió concreta? Si ningú no ho pot explicar amb claredat, potser no estem parlant d’una eina convencional.
El 2026 no serà l’any de la IA. Serà l’any de la delegació
Ens agrada dir que “el 2026 serà l’any de la IA”, però això ja no diu res, també ho deiem del 2025, la IA fa anys que és aquí. El que canvia ara és quan decidim delegar.
Delegar temps és fàcil, delegar criteri, no tant. I la il·lusió és perillosa: pensar que podem delegar acció sense delegar poder, que podem automatitzar decisions sense redefinir governança, que podem parlar d’eines mentre construïm sistemes que actuen.
Potser el debat real no és si la IA és bona o dolenta, sinó si estem disposats a assumir que ja no és només un instrument passiu, i que, com qualsevol actor dins d’un sistema, necessita regles clares, límits explícits i responsabilitats ben definides.
Perquè si no ho fem nosaltres, algú altre ho farà, i no necessàriament pensant en el nostre interès.
La gran il·lusió del 2026 és semàntica, però no innocent. Dir “eina” tranquil·litza, dir “agent” incomoda, però la incomoditat, sovint, és el primer pas cap a decisions més adultes.
La pregunta no és si la IA actuarà, ja ho està fent, la pregunta és: qui li ha dit què ha de fer, i amb quins límits?