Anthropic contra Washington: ètica i mercat

Temps de lectura: 4 minuts

Hi ha moments en què la indústria de la IA sembla una competició de benchmarks. I després hi ha moments com aquest, en què la cursa deixa de ser tècnica i esdevé política.

Anthropic, fundada el 2021 per antics investigadors d’OpenAI amb una promesa clara, construir models potents però alineats i segurs, s’ha trobat en un xoc frontal amb el govern dels Estats Units.

Segons diverses informacions publicades en mitjans nord-americans, el Departament de Defensa volia ampliar l’abast d’ús dels models de Claude en entorns sensibles, incloent aplicacions de vigilància i autonomia operativa. Anthropic s’hi hauria negat si això implicava rebaixar determinades salvaguardes internes del model, seguin fidel a la seva filosifia.

De soci estratègic a “risc per a la seguretat”

Anthropic no era un actor marginal. Havia tancat aliances potents amb Amazon (inversió multimilionària i integració a AWS) i Microsoft, competint directament amb OpenAI pel mercat enterprise. Claude era percebut com el model “seriós”, el més prudent, el més institucional, el més segur.

Aleshores és quan el reanomenat Departament de Guerra dels Estats Units, abans defensa, inicia una campanya de redefinició on vol ser en tots els seus components IA first, però amb una filosofia de contractar models lliures de restriccions de política d’ús , i aquí ja tenim el conficte amb Anthropic, sobretot en 2 punts candents : la vigilància domèstica i les armes autònomes.

En l’ecosistema nord-americà, defensar límits ètics en entorns de defensa no sempre és la decisió més còmoda. El resultat ha estat un deteriorament de la relació amb determinades agències federals i canvis dels contractes públics i fins arribar al tuit de Doanld Trump de divendres tarda, titllant la companyia de Woke, esquerra radical i fent una crida a cessar qualsevol contracte del govern de USA amb ells. El següent pas ha estat que el secretari de defensa (o de guerra ara) ha designat a Anthropic com una empresa perillosa per a la seva cadena de subministre, que a la pràctica la deixa en una situació molt perillosa.

Anthopic ha contactacat amb un comunicat dient que ells defensen els valors nord-americans i que en qualsevol cas, a la pràctica tot això no afecta als clients indivuals o particulars, fent control de danys, però el mal està fet.

La ironia és evident: l’empresa que va néixer per posar la seguretat al centre acaba penalitzada precisament per mantenir aquesta coherència.

Crisis i oportunitat

En paral·lel, altres competidors han ocupat l’espai. OpenAI ha reforçat la seva presència institucional amb acords que, sobre el paper, mantenen compromisos de seguretat, però que no han generat el mateix nivell de fricció pública, tot i que divendres es posicionaven en la linea de Anthropic en temes de seguretat i ètica.

Però Anthropic torna a contraatacar, aquest cop molt més intel·ligent al meu entendre, llança una funció aparentment tècnica però estratègicament brillant: una eina que permet importar la memòria i l’historial de ChatGPT cap a Claude, és a dir, redueix el cost de canvi a zero.

En el mercat de la IA conversacional, la memòria és l’actiu invisible. No només són converses; són preferències, context acumulat, hàbits de treball. Fins ara, canviar d’assistent implicava començar de nou. Amb aquesta funció, Anthropic converteix el lock-in del competidor en oportunitat pròpia.

El resultat? Claude es converteix en l’app més descarregada als Estats Units durant diversos dies. Una reacció que molts interpreten com un suport explícit d’usuaris que valoren la postura d’Anthropic en el debat sobre l’ús responsable de la IA.

És una jugada que demostra lectura estratègica del moment. Si no pots guanyar volum institucional, pots guanyar narrativa pública. I si guanyes narrativa, guanyes descàrregues.

De model punter a marca amb posicionament

Hi ha una lliçó empresarial aquí. Anthropic va néixer com a competidor tecnològic, però la seva identitat s’ha anat desplaçant cap a una cosa més intangible: una marca associada a límits, prudència i alineament. En un sector on molts actors competeixen per demostrar qui és més capaç, més ràpid o més autònom, Anthropic està competint per demostrar qui posa més condicions.

A curt termini, això pot costar contractes públics. A mitjà termini, pot generar confiança en empreses privades que no volen veure el seu proveïdor d’IA involucrat en polèmiques militars o de vigilància massiva La pregunta és si aquesta confiança es traduirà en ingressos suficients per compensar la pèrdua institucional.

El que pot passar ara

Veig tres escenaris plausibles.

Primer, que Anthropic consolidi una base sòlida en el mercat privat, especialment en sectors regulats (finances, salut, administracions europees) on el discurs de seguretat i control és un avantatge competitiu real.

Segon, que la pressió competitiva l’obligui a matisar la seva postura en determinats entorns, trobant un equilibri entre principis i creixement. La coherència és cara quan hi ha milers de milions en joc.

Tercer, que aquest conflicte acceleri una fragmentació del mercat: empreses d’IA alineades amb defensa i seguretat nacional per una banda, i empreses amb posicionament més restrictiu per l’altra.

No seria estrany que acabéssim parlant d’“IA de contracte públic” i “IA d’empresa privada” com si fossin categories diferents.

Una reflexió personal

El cas Anthropic ens recorda que la cursa de la IA no és només una batalla de paràmetres, GPUs o agents autònoms. És també una batalla de límits. És fàcil parlar d’ètica quan no està en joc un contracte multimilionari. És més difícil mantenir-la quan sí que ho està.

No sé si Anthropic sortirà reforçada o debilitada d’aquest episodi. Però sí que crec que aquest tipus de conflictes marcaran el futur del sector més que qualsevol nou model amb millor benchmark.

Crec que tornem al debat de sempre, la duatlitat entre ètica i seguretat, contra resultats econòmics i evolució del negoci… Cal seguir atents als propers dies i les notícies sobre la posició d’Antropic.