L'esplosione dell'intelligenza artificiale ha portato molte aziende ad adottare questa tecnologia e a cercare di integrarla in quasi ogni processo. L'IA sta dimostrando il suo potenziale trasformativo in ogni settore e in molti casi ha portato già a dei risultati significativi.
Christine Barney, CEO di rbb Communications, sottolinea però che a fronte di questo entusiasmo mancano la conoscenza e la consapevolezza necessarie a usare in maniera efficiente e sicura l'IA. Barney riporta che, secondo uno studio di Gallup, il 44% dei chief HR officer non sa con quale frequenza i dipendenti usano questa tecnologia; inoltre, il 78% dei lavoratori usa dei tool personali di IA per lavorare.
Quasi la metà delle aziende ha già vissuto conseguenze negative a causa dell'uso errato e non supervisionato dell'IA che hanno portato non solo a perdite economiche, ma anche a ingenti danni di reputazione.
Visti i rischi di innaccuratezza, sicurezza e furto di proprietà intellettuale, è necessario che le imprese definiscano una chiara policy aziendale di IA per proteggere se stesse, i dipendenti e i consumatori.
Barney ritiene che una buona policy sull'uso dell'IA debba basarsi su quattro componenti principali: un punto di vista, protocolli ben definiti, indicazioni su come gestire gli output e una "pubblicizzazione" adeguata.
Il punto di vista, spiega Barney, segue la visione aziendale e risponde alla domanda: "Qual è l'obiettivo dell'IA nella mia organizzazione?". La policy deve chiarire gli obiettivi dell'introduzione di questa tecnologia in modo che i dipendenti diventino parte del cambiamento e abbiano tutti gli strumenti per abbracciarlo, senza sentirsi esclusi o in pericolo.
I protocolli si riferiscono invece alle linee guida di utilizzo e specificano gli obblighi e i divieti da seguire durante l'uso dei tool di IA. Ogni dipendente deve essere in grado di sfruttare gli strumenti a sua disposizione riducendo al minimo i rischi e gli impatti negativi, possibilmente in ambienti isolati che proteggono le informazioni sensibili.
Strettamente legato a questo concetto è la gestione corretta degli output: una buona policy di IA deve insistere sulla necessità di controllare attentamente le risposte dei tool e verificarne non solo la correttezza, ma anche la presenza di potenziali violazioni di proprietà intellettuale. La policy, in tal senso, deve definire le modalità migliori per verificare i contenuti dei modelli e identificare le fonti usate.
Infine, affinché questi sforzi siano efficaci, la policy deve essere "pubblicizzata" all'interno dell'azienda, non solo tra i dipendenti ma anche tra i manager. La forza lavoro e la board manageriale devono essere allineate sulle regole da seguire per un uso ottimale dell'IA.
Senza una policy adeguata in campo le aziende si espongono a rischi elevati che possono mettere in pericolo l'intero business. Effettuando una gestione del rischio informata e definendo le linee guida di utilizzo dell'IA è possibile trarre il massimo beneficio dalla tecnologia e favorire la crescita dell'organizzazione.