Un nuovo studio condotto dai ricercatori dell'Università di Portsmouth e del Max Planck Institute for Innovation and Competition ha rivelato che oltre il 60% dei partecipanti preferisce che le decisioni redistributive vengano prese dall'intelligenza artificiale (IA) piuttosto che da esseri umani. Questo esperimento online ha coinvolto più di 200 partecipanti provenienti da Regno Unito e Germania, che hanno votato per far prendere le decisioni sui loro guadagni a un algoritmo o a un umano.
Tuttavia, nonostante la preferenza espressa per l'IA, i partecipanti hanno anche trovato le decisioni prese dagli algoritmi meno soddisfacenti e meno "giuste" rispetto a quelle umane. Secondo il Dr. Wolfgang Luhan, professore associato di economia comportamentale all'Università di Portsmouth, la trasparenza e la responsabilità degli algoritmi sono essenziali per la loro accettazione, specialmente in contesti di decisioni morali.
Ricerche come queste sono fondamentali perché nei prossimi anni gli algoritmi saranno sempre più integrati nei processi decisionali, e inevitabilmente le decisioni dei bot finiranno per impattare la vita di tutti noi (molto più di quanto accada oggi). Ad esempio, potrebbe essere un algoritmo a stabilire chi merita un premio di produzione, o il suo ammontare; o magari potrebbe essere un bot a stabilire il giusto salario, lasciando poco o nessuno spazio alla contrattazione tra esseri umani.
Luhan ha sottolineato che molte aziende già utilizzano l'IA per decisioni di assunzione e pianificazione delle retribuzioni, mentre enti pubblici la impiegano in strategie di polizia e concessione della libertà condizionale. I risultati dello studio suggeriscono che con miglioramenti nella coerenza degli algoritmi, il pubblico potrebbe sempre più sostenere decisioni algoritmiche anche in aree moralmente significative.
Il risultato è sicuramente indicativo e meritevole di ulteriori approfondimento. Se la maggior parte delle persone crede che l’AI potrebbe prendere decisioni e migliori riguardo alla distribuzione della ricchezza, significa probabilmente che le soluzioni attuali sono percepite come ingiuste, forse persino inique, da queste stesse persone.
Allo stesso tempo tuttavia le decisioni prese dalla AI a posteriori non soddisfano. Ciò significa che forse le aspettative erano troppo alte, o forse che esiste una tendenza a immaginarci i risultati migliori di quelli che saranno. O forse si spera che un'ipotetica “imparzialità” delle AI possa portare a una società più giusta ed equilibrata. E ciò sarebbe probabilmente un errore, perché come sappiamo le AI non hanno la minima idea di cosa sia giusto o sbagliato, e prenderanno decisioni in base ai dati di training e a certe regole di base.
Un’AI non potrà “capire” cosa è moralmente accettabile o cosa è “giusto”, ma cercherà di prendere decisioni che in qualche modo ricordano quelle etichettate come giuste, usate per l’addestramento.
Sicuramente potrebbe essere di aiuto stabilire dei principi di equità e giustizia, e poi tentare di inserirli all’interno dell’AI nel miglior modo possibile. Considerata l’incapacità di comprendere in senso umano sarebbe una sfida molto complicata, ma forse vale la pena di farla perché la ricerca dimostra anche che le persone reagiscono meglio alle decisioni - anche se avverse - se sono coerenti con i principi etici e di equità stabiliti in precedenza.
Bisogna tenerne conto, perché le IA stanno già entrando nei processi decisionali, e presto potrebbero fare scelte di grande impatto anche senza supervisione umana. Può funzionare? No per niente, almeno non oggigiorno.
Ma la prossima generazione di AI potrebbe rendere possibile questo tipo di scenario, e dovremo essere pronti.