News OpenAI elimina il divieto sugli "usi militari" di ChatGPT
Marina Londei
1' 59''
15/01/2024

OpenAI ha eliminato dalle sue linee guida il divieto per gli "usi militari" di GPT, aprendosi a collaborazioni per progetti di sicurezza nazionale.

OpenAI elimina il divieto sugli "usi militari" di ChatGPT

Lo scorso 10 gennaio OpenAI ha aggiornato le sue linee guida eliminando il ban sugli usi militari di GPT; a scoprirlo per primo era stato Sam Biddle di Intercept: la compagnia non aveva rilasciato alcun comunicato ufficiale riguardo la modifica.

La nuova policy vieta l'utilizzo del servizio per far del male a se stessi o agli altri, per esempio per creare armi, ma non specifica più alcunché sugli utilizzi legati alla guerra, prima espressamente vietati. 

L'aggiornamento delle linee guida nasce dalla volontà di renderle più chiare, soprattutto in merito agli usi legati all'ambito militare. OpenAI ha individuato alcuni casi d'uso considerati borderline che, secondo la documentazione precedente, sarebbero stati vietati e che invece potrebbero essere considerati vantaggiosi per la sicurezza nazionale.

La compagnia ha spiegato la questione in un chiarimento successivo riportato da TechCrunch: "La nostra politica non consente di utilizzare i nostri strumenti per danneggiare le persone, sviluppare armi, sorvegliare le comunicazioni, ferire altri individui o distruggere proprietà. Esistono tuttavia casi di d'uso per la sicurezza nazionale che sono in linea con la nostra missione".

Pexels
ChatGPT

OpenAI ha specificato inoltre di star collaborando con DARPA (Defense Advanced Research Projects Agency) per sviluppare nuovi strumenti di cybersecurity volti a proteggere il software open-source da cui dipendono le infrastrutture critiche. 

Molti esperti guardano con timore a questo cambiamento, specificando che i limiti insiti nel modello potrebbero portare a errori durante le operazioni militari e aumentare le vittime tra i civili.

"OpenAI è ben consapevole dei rischi e dei danni che possono derivare dall'uso della sua tecnologia e dei suoi servizi in applicazioni militari" ha affermato Heidy Khlaaf, engineering director di Trail of Bits e co-autrice insieme ai ricercatori della compagnia di un paper sui rischi degli usi militari dei chatbot. "C'è una netta differenza tra le due politiche, in quanto la prima definisce chiaramente che lo sviluppo di armi e le attività militari e belliche è vietato, mentre la seconda enfatizza la flessibilità e il rispetto della legge".

L'aggiornamento delle linee guida non è in realtà un chiarimento di quelle esistenti, come alcuni hanno fatto notare, ma semplicemente la rimozione di un divieto presente. Di certo quella di OpenAI è una dichiarazione neanche troppo velata del fatto ch OpenAI sia aperta a supportare le organizzazioni militari, possibilità che prima non rientrava nella filosofia della compagnia. 

Potrebbe interessarti anche

News

OpenAI sta testando SearchGPT, il suo motore di ricerca intelligente

OpenAI ha annunciato SearchGPT, un motore di ricerca che usa l'intelligenza artificiale per offrire agli utenti risultat...

News

OpenAI vieta le sue tecnologie in Cina: comincia la guerra tech

La guerra tech sta per iniziare dopo la decisione storica di OpenAI: la compagnia di Sam Altman sta per bloccare l'acces...

Opinioni

L'impatto dell'IA generativa è appena cominciato: parola del CTO di OpenAI

Mira Murati, CTO di OpenAI, ritiene che l'impatto dell'IA generativa sui business e sul mondo del lavoro è appena cominc...

Opinioni

Accordo News Corp e OpenAI: cosa significa per il giornalismo?

News Corp e OpenAI hanno siglato un accordo che permetterà a GPT di accedere ai contenuti delle testate del gruppo. Cosa...