La IA secreta: què vol dir que un model existeix però no el pots veure?

Temps de lectura: 2 minuts

Aquesta setmana, Google ha publicat Gemma 4 amb llicència Apache 2.0. Qualsevol persona al món pot descarregar-lo, executar-lo al seu portàtil i construir-hi un negoci. No cal permís, no cal subscripció, no cal demanar res a ningú. La mateixa setmana, una filtració ha confirmat que Anthropic ha entrenat Claude Mythos 5 ( un model de 10 bilions de paràmetres que descriu com un “salt qualitatiu” ).

Dos models, dos extrems i al mig, una pregunta que definirà els pròxims anys de la intel·ligència artificial: qui decideix què es publica, quan i per a qui?

La resposta no és tan senzilla com “obert = bo, tancat = dolent”. Google no es una ONG, obre Gemma 4 perquè li convé estratègicament: crea ecosistema, atrau desenvolupadors i competeix amb els models xinesos de DeepSeek, Alibaba i Moonshot. De la mateixa manera, Anthropic no ha desmentit la filtració de Mythos 5 però un model d’aquesta escala podria tenir capacitats que cal entendre abans de fer-lo públic. La precaució té sentit quan fins i tot els propis informes de seguretat d’Anthropic han reconegut que Opus 4.6 pot facilitar el desenvolupament d’armes químiques si es fa servir sense controls.

Ara bé, en certs aspectes la precaució i l’estratègia comercial s’assemblen molt. Quan una empresa diu “no publiquem aquest model perquè és massa potent”, com sabem si la motivació real és la seguretat o el control del mercat… Qui audita aquesta decisió? Qui decideix que el model és prou segur per sortir, i quan? No hi ha cap regulador que supervisi el procés. No hi ha cap organisme independent que pugui dir “sí, heu fet bé de no publicar-lo” o “no, esteu retardant l’accés purament per simple avantatge competitiu”.

I fins i tot diria que hi ha un tercer nivell, potser el més inquietant, el control de la narrativa com esten veient també a les notícies: OpenAI ha comprat un podcast tecnològic amb milions d’oients, Anthropic ha creat un comitè d’acció política… Les empreses d’IA ja no es limiten a decidir quins models publiquen; també decideixen com es parla dels models que no publiquen.

El còctel de tecnologia secreta, accés selectiu i control narratiu crea una asimetria de poder que hauria de preocupar-nos i que pot ser un problema greu a mig termini.

Sabem que l’open source no ho soluciona tot i Gemma 4 és gratuït, però cal hardware, coneixement tècnic i temps per fer-ne alguna cosa útil. La democratització de la IA és real en molts aspectes, però també és parcial: obrir un model no equival a obrir l’accés al poder que el model confereix.

Per tant us llenço una pregunta: volem un futur on la IA més potent del món existeixi però només la controlin uns quants? O volem un futur on tothom hi pugui accedir, amb els riscos que això comporta? La resposta probablement no és cap dels dos extrems, sinó un equilibri que encara no hem trobat… Però el primer pas per trobar-lo és fer-nos la pregunta.