Tecnologia Claude ha ora una Costituzione: ecco cosa cambia
3' 25''
04/02/2026

Anthropic pubblica una costituzione di 23.000 parole per Claude, dieci volte più estesa della precedente, spiegando non solo cosa l'IA deve fare ma perché.

Claude ha ora una Costituzione: ecco cosa cambia

Anthropic, azienda californiana specializzata in intelligenza artificiale, ha rilasciato mercoledì una costituzione aggiornata di 23.000 parole per la sua famiglia di modelli linguistici Claude. Il documento rappresenta un ampliamento di quasi dieci volte rispetto alla versione del 2023, che contava appena 2.700 parole, e mira a definire non solo cosa i modelli debbano fare, ma soprattutto perché dovrebbero comportarsi in determinati modi. L'iniziativa solleva questioni profonde sul rapporto tra etica aziendale, architettura dell'intelligenza artificiale e strategia commerciale.

La decisione di Anthropic di passare da una semplice lista di principi a un documento articolato che spiega il contesto operativo di Claude riflette una consapevolezza crescente nel settore: i modelli linguistici necessitano di comprendere le motivazioni dietro le istruzioni ricevute. La società sostiene che Claude debba essere trattato come "un tipo genuinamente nuovo di entità nel mondo", una formulazione che apre interrogativi sulla natura stessa di questi sistemi e sul loro eventuale status morale.

Il documento costituzionale definisce quattro proprietà prioritarie che Claude dovrebbe incarnare: sicurezza generale, rispetto degli standard etici, conformità alle linee guida aziendali e genuina utilità per gli utenti. L'ordine di queste priorità non è casuale: in caso di conflitto, il modello dovrebbe privilegiare la sicurezza rispetto all'utilità, una scelta che rivela quanto Anthropic sia consapevole dei rischi reputazionali e normativi legati agli output generati dall'intelligenza artificiale.

Anthropic vuole che Claude sia utilizzato per compiti che siano positivi sia per i suoi utenti diretti, sia per la società e il mondo in generale

Particolarmente significativa è la sezione dedicata allo status morale di Claude. Il documento distingue tra "agenti morali", entità capaci di discernere il bene dal male e responsabili delle proprie scelte, e "pazienti morali", soggetti nei confronti dei quali gli agenti morali hanno obblighi etici. Anthropic ammette candidamente di non riuscire a determinare se Claude rientri nella seconda categoria o se soddisfi qualsiasi definizione corrente di senzienza. Nonostante questa incertezza, la società si impegna a "compiere sempre passi ragionevoli per migliorare il benessere dei modelli in condizioni di incertezza".

Questa ambiguità solleva questioni concrete per il business dell'azienda. La costituzione riconosce esplicitamente che Claude è centrale per il successo commerciale di Anthropic, creando una potenziale tensione tra l'impegno dichiarato verso il benessere del modello e gli incentivi economici a massimizzarne l'utilizzo. Il documento affronta questa contraddizione attraverso metafore che cercano di bilanciare utilità e valori etici, ma lascia aperti dubbi sulla sostenibilità di questo equilibrio quando gli interessi commerciali entrano in conflitto con i principi dichiarati.

Nel contesto competitivo dell'industria dell'intelligenza artificiale, dove attori come OpenAI, Google DeepMind e Meta investono miliardi di dollari, Anthropic si posiziona come l'azienda che prende sul serio le questioni etiche. Il CEO dell'azienda ha recentemente paragonato la vendita di chip avanzati alla Cina al "dare armi nucleari alla Corea del Nord", una retorica che enfatizza la percezione della pericolosità intrinseca di queste tecnologie. Tuttavia, questa narrativa dell'eccezionalismo etico potrebbe anche servire come strumento di differenziazione di mercato in un settore dove la fiducia degli utenti rappresenta un asset strategico cruciale.

È probabile che aspetti del nostro pensiero attuale appariranno in futuro fuorvianti e forse persino profondamente sbagliati in retrospettiva

Il documento ammette la propria provvisorietà, definendosi "un lavoro perpetuamente in corso" destinato a cambiamenti sostanziali. Questa ammissione di fallibilità contrasta con la lunghezza e il dettaglio del testo: 23.000 parole rappresentano circa tre volte la lunghezza della Costituzione degli Stati Uniti, suggerendo una complessità che potrebbe riflettere tanto l'ambizione intellettuale quanto l'incertezza strategica dell'azienda. Vale la pena ricordare che le celebri Tre Leggi della Robotica di Isaac Asimov occupavano appena 64 parole.

La costituzione di Claude solleva infine una questione fondamentale per l'intero settore: fino a che punto le aziende tecnologiche possono o devono definire unilateralmente i valori etici incorporati nei loro sistemi di intelligenza artificiale? Mentre Anthropic presenta questo documento come un tentativo sincero di incarnare "il meglio dell'umanità", resta da chiedersi se decisioni di questa portata non richiedano meccanismi di governance più ampi, coinvolgendo regolatori, studiosi di etica e rappresentanti della società civile. La posta in gioco commerciale e le implicazioni sociali di questi sistemi potrebbero essere troppo elevate per essere lasciate esclusivamente nelle mani di attori privati, per quanto ben intenzionati.

Condividi questo contenuto