Opinioni Modelli sicuri e utili alla comunità: il caso di successo di Anthropic
Marina Londei
3' 28''
03/11/2023

Anthropic è una delle startup più interessanti nel mondo dell'IA generativa e l'ultimo Ordine Esecutivo di Biden potrebbe aiutarla a espandersi ulteriormente.

Modelli sicuri e utili alla comunità: il caso di successo di Anthropic

Il 30 ottobre Biden ha firmato un Ordine Esecutivo col chiaro obiettivo di rendere l'IA uno strumento utile alla comunità e ridurre i rischi derivanti da errori nei modelli e usi scorretti dei chatbot.

Nonostante ci siano ancora alcune cose da chiarire, come i criteri specifici per valutare se un modello aderisce agli standard e se il governo ha già definito un organo di specialisti per far applicare le normative, il provvedimento ha il potenziale per premiare compagnie e startup che fanno della sicurezza dell'IA la loro bandiera.

È il caso di Anthropic, una startup nata a San Francisco che fin dalla sua fondazione ha lavorato per produrre LLM che fossero utili alla società e garantissero sicurezza agli utenti. 

Peter Cohan, professore e autore per Forbes, prevede che la startup beneficerà notevolmente dall'Ordine Esecutivo del governo, a scapito invece delle società che speravano di ignorare i costi sociali dei loro modelli e non farli pesare sugli investitori. 

Pixabay
intelligenza artificiale

L'Ordine Esecutivo di Biden

L'Ordine Esecutivo dell'Amministrazione Biden stabilisce la necessità di garantire la sicurezza e l'eticità dei sistemi di IA al fine di proteggere i cittadini e ridurre le differenze sociali.

Il provvedimento definisce standard di sviluppo che hanno l'obiettivo di proteggere la privacy degli utenti e assicurare che i modelli non lavorino con dei pregiudizi intrinseci. I sistemi di IA devono essere sicuri, affidabili e supportare gli utenti nel loro lavoro senza esporli a rischi.

Il governo ha il diritto di monitorare il processo di sviluppo dei futuri sistemi di IA per valutare il livello di rischio ed eventualmente sospenderne la pubblicazione dei modelli se questi dovessero rappresentare un rischio per la sicurezza nazionale. 

Inoltre, le compagnie sviluppatrici dovranno condividere con gli organi governativi i risultati dei test di sicurezza e altre informazioni critiche per valutare se i sistemi sono adatti a essere introdotti sul mercato. 

Il successo di Anthropic

L'Ordine Esecutivo emesso dal governo statunitense aiuterà le compagnie di IA già votate alla protezione dei consumatori a realizzare la propria mission.

Pexels
intelligenza artificiale

È il caso di Anthropic, una delle startup più interessanti nel mondo dell'IA generativa. La società è stata fondata nel 2021 da due fratelli, Dario e Daniela Amodei, entrambi ex collaboratori di OpenAI.

I due avevano dei ruoli rilevanti nella compagnia di ChatGPT: Dario ha guidato il team di sviluppo dietro GPT-2 e GPT-3, mentre Daniela ha supervisionato i team che si occupavano di redigere le policy e le indicazioni di sicurezza per i modelli. 

Preoccupati dal fatto che OpenAI fosse più interessata alla commercializzazione di GPT che di garantire sicurezza agli utenti, i due fratelli hanno deciso di fondare Anthropic con l'obiettivo di sviluppare un nuovo LLM incentrato sulla privacy e sulla protezione dei cittadini.

La scelta si è rivelata vincente: Anthropic ha sviluppato Claude 2, un modello in grado di riassumere documenti molto più grandi rispetto a ChatGPT e soprattutto di produrre risultati più sicuri. 

L'impegno della società è molto serio e a provarlo è stato il fatto che, nonostante le altre compagnie corressero per rilasciare i propri modelli, Anthropic ha ritardato l'uscita sia della prima che della seconda versione di Claude fino a che non ha avuto il via libera da parte dei team di sicurezza interni. 

Pixabay
intelligenza artificiale

Per i fratelli Amodei Claude doveva essere utile, inoffensivo per la comunità e affidabile; per questo i due hanno sviluppato Constitutional AI, un sistema composto da due LLM pensato per garantire la massima sicurezza agli utenti.

Uno dei due modelli genera le risposte seguendo una lista di principi elaborati da diverse  sorgenti come la Dichiarazione Universale dei Diritti Umani; il secondo modello si occupa invece di monitorare il primo e valutare se ha seguito i principi specificati, eventualmente correggendo le risposte prima di fornirle all'utente.

Secondo Cohan, Anthropic ha tutte le carte in regola per migliorare davvero la società e l'Ordine Esecutivo di Biden potrebbe essere la spinta che serviva alla compagnia per superare la concorrenza e farsi conoscere in tutto il mondo. Oggi Anthropic vanta clienti come Slack, Notion e Quora, ma il suo successo potrebbe moltiplicarsi.

Potrebbe interessarti anche

Opinioni

I leader aziendali devono familiarizzare con l'IA per garantire il successo del business

I leader aziendali devono investire su iniziative di formazione dei consigli aziendali per assicurarsi che l'IA venga ut...

Opinioni

L'IA minaccia l'integrità e la carriera dei doppiatori

La carriera dei doppiatori è in serio pericolo: gli strumenti di sintesi vocale consentono di replicare la loro voce e f...

Opinioni

L'essere umano è il fulcro dei processi decisionali di successo

I processi decisionali basati sull'IA non possono prescindere dall'elemento umano, fondamentale per il successo delle st...

Tecnologia

Nightshade, il tool che "avvelena" i dataset di IA

L'Università di Chicago ha sviluppato un tool, "Nightshade", che altera le opere degli artisti per proteggerlo dagli usi...