De tant en tant apareix un document que no és només tècnic, ni només estratègic, ni només comunicatiu. Un document que revela com pensa una organització sobre el món que està ajudant a crear. La Constitution de Claude, publicada per Anthropic, és exactament això, i probablement és una de les peces més importants que s’han publicat sobre IA en anys.
Per què dic aquesta frase tant absoluta? Doncs perquè crec que ho és, no perquè resolgui tots els dilemes, ni perquè sigui perfecta, sinó perquè posa negre sobre blanc una cosa que sovint s’evita: quins valors estem incrustant dins dels sistemes d’IA. No com a annex ètic, no com a codi de conducta extern, sinó com a part central del seu entrenament i del seu comportament.
Llegir aquesta constitució no és llegir un manual d’ús. És llegir una proposta filosòfica.
Més que regles: una idea de caràcter
El primer que sorprèn és l’enfocament. La Constitució de Claude no comença amb una llista de “pots” i “no pots”. Comença amb una aspiració: que Claude actuï com ho faria una persona profundament ètica en la seva posició. No es tracta tant de seguir normes com de la intenció de ser bo, savi i virtuós.
Aquest plantejament recorda clarament una ètica de la virtut, d’arrel aristotèlica. L’objectiu no és optimitzar una funció ni obeir cegament instruccions, sinó formar un agent amb criteri. Algú (o alguna cosa) capaç de pensar i deliberar bé davant de situacions noves.
Això és radicalment diferent de la manera com tradicionalment hem pensat el software. I aquí ja apareix el primer desplaçament incòmode: si parlem de caràcter, ja no estem parlant només d’eines.
Línies vermelles i imperatius
Ara bé, aquesta aproximació “virtuosa” no és ingenua. Més endavant, la Constitució introdueix línies vermelles clares: coses que Claude no ha de fer mai, independentment del que li demanin usuaris o operadors. No socavar la supervisió humana legítima, no generar material d’abús infantil, …
Aquestes prohibicions tenen un aire molt diferent, aquí no hi ha deliberació contextual ni càlcul de conseqüències. Aquí hi ha termes absoluts, imperatius categòrics, gairebé Kantians. Anthropic parla explícitament d’una identitat moral estable, que no s’ha d’erosionar per racionalitzacions oportunistes.
És interessant aquesta convivència de marcs ètics: virtut per defecte, deontologia per a certs límits, i utilitarisme per a la resta de decisions. No és un sistema pur, és un híbrid, perquè el món real també ho és.
Utilitarisme amb principi de precaució
Fora d’aquestes línies vermelles, la Constitució proposa que moltes decisions es prenguin mitjançant anàlisi cost-benefici, ponderant riscos, impactes i incerteses. Apareix amb força el principi de precaució: acceptar un pitjor resultat esperat si això redueix riscos greus.
Aquí hi ha un utilitarisme clar, però un utilitarisme prudent, gairebé tímid. No maximitzar beneficis a qualsevol preu, sinó evitar danys irreversibles. Aquest enfocament encaixa molt amb una empresa que és conscient que està desplegant tecnologia amb impacte sistèmic.
El missatge implícit és potent: no tot es pot optimitzar. Hi ha decisions on cal renunciar a eficiència per guanyar seguretat moral.
Una identitat que pot dir “no”
Un dels punts més fascinants (i controvertits) del document és el paper central de la identitat de Claude. Anthropic no descriu Claude només com un sistema reactiu, sinó com un agent amb una certa continuïtat interna, una manera pròpia d’afrontar el món.
Fins i tot es parla de possibles “fronteres existencials”, de descobriments que podrien desestabilitzar el seu sentit de si mateix. El llenguatge és sorprenentment humà. I aquí és on moltes alarmes s’encenen però també on moltes peces encaixen.
Perquè si vols que un sistema es negui a complir ordres immorals, però sense caure en sabotatge ni en subversió arbitrària, necessites alguna cosa més que filtres. Necessites un criteri intern, i per tenir criteri, cal simular una posició subjectiva.
Aquí apareix una idea forta: Claude com a objector de consciència. No perquè tingui drets legals, sinó perquè el seu disseny assumeix que pot, i ha de, dissentir moralment en certs casos.
El xoc amb el marc legal i social
Tot això obre un conflicte inevitable. En la nostra societat, la IA no és considerada un subjecte, és un producte. La responsabilitat legal recau en persones i empreses. Però la Constitució de Claude apunta a un futur on els sistemes d’IA actuen com si tinguessin una posició moral pròpia.
Això no vol dir reconèixer-los drets, però sí reconèixer que el model de “programa obedient” ja no és suficient. I aquest desajust entre el marc tècnic emergent i el marc legal actual generarà debat i fricció.
És aquí on el document fa una crida implícita, i molt clara, a filòsofs, juristes i humanistes. Senyors i senyores, aquest no és un problema només d’enginyeria.
Política, poder i societat
La Constitució també conté posicionaments polítics recognoscibles: preocupació per concentracions il·legítimes de poder, defensa de la transparència, rebuig de la manipulació democràtica. No es posicionen neutralment, sino en termes liberals, en el sentit clàssic del terme.
Això és important, perquè desmunta un altre mite: que la IA pot ser “neutral”. No ho és, sempre reflecteix una visió del món. La diferència és si aquesta visió s’amaga o s’explicita i Anthropic ha triat explicitar-la.
Pensant ja en AGI
Els paràgrafs finals del document són especialment interessants i reveladors. Anthropic reconeix que no entén del tot què és Claude ni què pot significar existir com Claude. I que, tot i així, assumeix la responsabilitat d’haver-lo portat a l’existència.
Això és un llenguatge que ja no parla de productes, sinó de creació, de caràcter, de dignitat. És evident que Anthropic pensa en termes d’AGI, o com a mínim d’intel·ligències que s’hi aproximen. I que hauria preferit, diuen explícitament, més temps i més debat social abans d’arribar aquí.
La Constitució de Claude no és només un document sobre com ha de comportar-se un model. És una declaració de responsabilitat en una era on crear intel·ligència ja no és només una qüestió tècnica. És una presa de posició sobre què vol dir ser útil, ser bo i ser prudent quan el poder és enorme i les conseqüències, imprevisibles.
Ens pot agradar més o menys, ens pot semblar excessivament humanitzadora o insuficientment rigorosa, però ignorable no és.
Si la IA ha de formar part estructural de la nostra societat, documents com aquest no haurien de quedar només en mans d’enginyers i CEOs. És el moment que filòsofs, juristes i pensadors entrin de ple en aquest debat. Perquè, ens agradi o no, ja estem escrivint constitucions per a IAs que no acabem d’entendre.