News OpenAI elimina il divieto sugli "usi militari" di ChatGPT
Marina Londei
1' 59''
15/01/2024

OpenAI ha eliminato dalle sue linee guida il divieto per gli "usi militari" di GPT, aprendosi a collaborazioni per progetti di sicurezza nazionale.

OpenAI elimina il divieto sugli "usi militari" di ChatGPT

Lo scorso 10 gennaio OpenAI ha aggiornato le sue linee guida eliminando il ban sugli usi militari di GPT; a scoprirlo per primo era stato Sam Biddle di Intercept: la compagnia non aveva rilasciato alcun comunicato ufficiale riguardo la modifica.

La nuova policy vieta l'utilizzo del servizio per far del male a se stessi o agli altri, per esempio per creare armi, ma non specifica più alcunché sugli utilizzi legati alla guerra, prima espressamente vietati. 

L'aggiornamento delle linee guida nasce dalla volontà di renderle più chiare, soprattutto in merito agli usi legati all'ambito militare. OpenAI ha individuato alcuni casi d'uso considerati borderline che, secondo la documentazione precedente, sarebbero stati vietati e che invece potrebbero essere considerati vantaggiosi per la sicurezza nazionale.

La compagnia ha spiegato la questione in un chiarimento successivo riportato da TechCrunch: "La nostra politica non consente di utilizzare i nostri strumenti per danneggiare le persone, sviluppare armi, sorvegliare le comunicazioni, ferire altri individui o distruggere proprietà. Esistono tuttavia casi di d'uso per la sicurezza nazionale che sono in linea con la nostra missione".

Pexels
ChatGPT

OpenAI ha specificato inoltre di star collaborando con DARPA (Defense Advanced Research Projects Agency) per sviluppare nuovi strumenti di cybersecurity volti a proteggere il software open-source da cui dipendono le infrastrutture critiche. 

Molti esperti guardano con timore a questo cambiamento, specificando che i limiti insiti nel modello potrebbero portare a errori durante le operazioni militari e aumentare le vittime tra i civili.

"OpenAI è ben consapevole dei rischi e dei danni che possono derivare dall'uso della sua tecnologia e dei suoi servizi in applicazioni militari" ha affermato Heidy Khlaaf, engineering director di Trail of Bits e co-autrice insieme ai ricercatori della compagnia di un paper sui rischi degli usi militari dei chatbot. "C'è una netta differenza tra le due politiche, in quanto la prima definisce chiaramente che lo sviluppo di armi e le attività militari e belliche è vietato, mentre la seconda enfatizza la flessibilità e il rispetto della legge".

L'aggiornamento delle linee guida non è in realtà un chiarimento di quelle esistenti, come alcuni hanno fatto notare, ma semplicemente la rimozione di un divieto presente. Di certo quella di OpenAI è una dichiarazione neanche troppo velata del fatto ch OpenAI sia aperta a supportare le organizzazioni militari, possibilità che prima non rientrava nella filosofia della compagnia. 

Potrebbe interessarti anche

News

OpenAI annuncia lo store di GPT

Lo store di OpenAI annunciato lo scorso novembre è atteso in arrivo per questa settimana: gli sviluppatori potranno pubb...

News

GPT-4 Turbo, Assistants API e riduzioni di prezzo: tutte le novità di OpenAI

Durante il DevDay OpenAI ha annunciato importanti novità e miglioramenti per i suoi modelli, a cominciare dal nuovo GPT-...

News

Il nuovo ChatGPT vede, ascolta e parla

La nuova versione di ChatGPT è in grado di analizzare le immagini, elaborare audio e parlare per guidare gli utenti in u...

News

Spotify tradurrà i podcast in ogni lingua replicando la voce del creator

Spotify ha annunciato Voice Translation, una feature che consente di tradurre gli episodi dei podcast in un'altra lingua...