Uno dei problemi principali dei modelli generativi è il rischio legato alla generazione di output errati o pericolosi e al leak di dati sensibili. Al fine di garantire l'uso e lo sviluppo sicuro e consapevole dei tool generativi, Arthur, compagnia attiva nel mondo dell'intelligenza artificiale, ha presentato Arthur Shield, il primo firewall per gli LLM.
Il firewall permette alle organizzazioni di identificare e bloccare i rischi dei modelli prima che diventino un problema per il business.
Integrato nello sviluppo delle applicazioni, Arthur Shield consente di filtrare gli output considerati offensivi e non in linea coi principi dell'organizzazione. Il firewall è inoltre in grado di individuare le risposte sbagliate ed evitare che vengano proposte all'utente.
Arthur Shield si occupa anche di bloccare input malevoli, pensati per generare risposte dannose od ottenere dati sensibili dall'azienda o dal dataset di addestramento, bloccando anche l'esecuzione di attacchi di prompt injection.
Il firewall si inserisce subito sotto il livello applicativo, facendo da scudo per il modello sottostante, le API e i dati di training.
"Gli LLM sono una delle tecnologie più rivoluzionarie dall'avvento di Internet" ha affermato Adam Wenchel, Co-Fondatore e CEO della compagnia. "Arthur ha creato gli strumenti per sviluppare questa tecnologia più velocemente e con più sicurezza, così che le organizzazioni possano anticipare i loro competitor senza esporre il business o i propri clienti a rischi inutili".
Al momento il firewall è disponibile in versione beta soltanto per alcuni clienti della compagnia.