Durante l'AI & Big Data Expo tenutosi ad Amsterdam a fine settembre si è parlato della necessità di definire e proteggere gli standard etici per l'intelligenza artificiale.
La questione è piuttosto articolata. Uno dei problemi è la complessità legale di gestire le responsabilità nell'ambito dell'IA: ci sono i provider di sistemi di intelligenza artificiale, gli utenti di queste piattaforme e in ultimo le organizzazioni che importano i sistemi.
In caso di "problematiche" la sfida per gli avvocati è individuare i responsabili tra i diversi attori coinvolti.
Ci sono anche da considerare i costi che le aziende dovranno affrontare per le questioni burocratiche annesse. Sarà necessario, tra le altre cose, individuare uno o più esperti che conoscano le norme previste dall'Unione Europea.
Le indicazioni per ora rimangono stringenti e questo potrebbe danneggiare le piccole e medie imprese che devono fare i conti con la concorrenza degli Stati Uniti e della Cina, dove le normative sono molto diverse.
L'UE non vede ancora di buono occhio un uso esteso dell'intelligenza artificiale, soprattutto in processi decisionali importanti, dove un errore del sistema potrebbe causare danni seri.
Quel che è certo è che la componente umana non andrebbe mai eliminata dal processo, come sostiene Aoibhinn Reddington, consulente di intelligenza artificiale presso Deloitte.
Reddington ha sollevato anche la questione della trasparenza nell'IA: i sistemi decisionali dovrebbero sempre fornire all'utente finale le motivazioni delle scelte? Che cosa succederebbe, per esempio, se un sistema negasse un prestito a un soggetto accusato di crimini finanziari?
I risultati, per quanto precisi possano essere, devono comunque essere monitorati da un occhio umano che possa valutare di caso in caso la correttezza dell'esito ed eventualmente applicare eccezioni.