Opinioni Lavoratori al controllo della produzione AI
4' 44''
25/12/2025

Intervista: E se i fornitori di IA si concentrassero sulla domanda anziché sull'offerta?

Lavoratori al controllo della produzione AI

L'adozione dell'intelligenza artificiale nel mondo del lavoro rischia di creare più danni che benefici, almeno nel breve termine. È questa la preoccupazione di Bars Juhasz, fondatore di WorkBeaver, una piattaforma di automazione senza codice che sta tentando un approccio radicalmente diverso rispetto ai colossi tecnologici. Invece di spingere l'IA dall'alto verso il basso, come fanno le grandi aziende, Juhasz vuole partire dai lavoratori stessi, da chi rischia di essere sostituito piuttosto che da chi prende le decisioni di licenziamento.

La sua visione nasce da un'osservazione inquietante: le aziende stanno correndo troppo velocemente verso l'automazione, licenziando personale prima di capire davvero come implementare questi strumenti, per poi rendersi conto dell'errore e dover riassumere. Un copione che si sta ripetendo puntualmente, come testimoniano le recenti notizie sui cosiddetti "AI janitors", una nuova categoria professionale dedicata esclusivamente a ripulire i disastri causati da questa corsa precipitosa.

La rivoluzione dal basso che parte dai lavoratori

WorkBeaver rappresenta un esperimento sociale tanto quanto tecnologico. Dopo aver venduto la maggior parte delle sue azioni in Undetectable.ai nell'agosto 2024, Juhasz si è trovato nella posizione privilegiata di poter scegliere su cosa lavorare. Con un background in apprendimento automatico, ha iniziato a riflettere su come gli agenti IA – modelli dotati di strumenti operativi – avrebbero impattato la società nel suo complesso.

Il problema fondamentale, secondo il CEO, è che l'approccio prevalente si concentra sul lato dell'offerta, sulle esigenze aziendali. Ma cosa succederebbe se si partisse dalla domanda, dalle persone destinate a essere rimpiazzate e che altrimenti avrebbero scarse possibilità di rimanere competitive nel mercato del lavoro dei prossimi cinque-dieci anni?

Quando i manager impongono strumenti che non capiscono

L'esempio dei giornalisti di Reuters è emblematico della deriva in atto. Manager che non sono redattori né giornalisti impongono l'uso di determinati strumenti un certo numero di volte alla settimana, trasformandoli in indicatori di performance. Gli strumenti in questione sostituiscono letteralmente il processo di pensiero critico che è l'essenza stessa del mestiere: inserisci la storia, aggiungi le fonti, e il sistema ti restituisce una versione rielaborata.

Educare all'IA richiede tempo che nessuno vuole concedere

La piattaforma funziona attraverso un'interfaccia che chiede agli utenti descrizioni testuali delle attività da svolgere. L'agente IA sottostante tenta poi di eseguire il compito come se fosse l'utente umano, senza richiedere codice o API. Tra i casi d'uso figurano la compilazione automatica di moduli, l'impostazione di promemoria, la pianificazione di appuntamenti, l'invio di email e l'inserimento dati.

Il paradosso dell'alfabetizzazione tecnologica

Entro cinque-dieci anni, i lavoratori dovranno dimostrare un certo livello di competenza nell'IA appropriato ai loro ruoli. Lo dimostra l'iniziativa dell'Università Purdue, che ha introdotto un requisito di competenza in intelligenza artificiale come condizione per la laurea. Ma molte persone semplicemente non saranno in grado di soddisfare questi standard, perché non sono tecniche o perché resistono alla tecnologia.

WorkBeaver ha scoperto questa realtà sulla propria pelle. Lanciata in alfa privata a gennaio e arrivata alla beta aperta a settembre, l'azienda conta ora quasi 4.000 utenti, principalmente tra piccole e medie imprese. Alcuni clienti pagano di tasca propria, altri acquistano licenze multiple per i loro team. C'è persino in cantiere un accordo con un produttore di laptop per preinstallare il software sui computer aziendali in Sud America.

L'educazione è il vero collo di bottiglia

Dal punto di vista commerciale, l'impresa funziona. Come progetto sociale volto ad aiutare le persone a familiarizzare con l'IA, i risultati sono più modesti. Il primo ostacolo è l'educazione necessaria per formulare prompt efficaci. Juhasz sostiene di essere da tre a sei mesi avanti rispetto a OpenAI e Anthropic su questo fronte, e che questi giganti stanno per scoprire ciò che WorkBeaver ha imparato tre mesi fa: il requisito educativo per far fare a un agente ciò che si vuole attraverso il prompting taglierà immediatamente fuori molte persone normali.

Il secondo problema è ancora più basilare: le persone non sanno cosa automatizzare. Per questo, la prossima versione del servizio, prevista per questo mese, sostituisce il processo di prompting basato su menu con un sistema in cui l'agente monitora le interazioni con schermo, mouse e tastiera per apprendere le attività degli utenti e ripeterle.

Privacy e sicurezza: imparare dagli errori di Microsoft

L'esperienza d'uso diventa collaborativa: l'utente lavora insieme all'agente su un'attività, e qualsiasi cosa faccia sul computer può essere ripresa dall'agente. Durante questo processo di addestramento collaborativo, l'agente può individuare e correggere potenziali punti di fallimento mentre il lavoratore illustra il compito, evitando la frustrante esperienza di automazioni che si bloccano all'esecuzione.

Sul fronte della sicurezza, WorkBeaver ha fatto scelte precise. Sui server dell'azienda vengono conservati solo l'indirizzo email e il saldo del conto. Tutto il resto è memorizzato localmente sui dispositivi degli utenti, completamente crittografato. Con Google Cloud esiste un accordo di retention zero dei dati: le informazioni vivono e muoiono nella memoria effimera per una frazione di secondo al massimo.

Consentire a un agente IA di controllare il computer rappresenta indubbiamente un rischio per la sicurezza, che Juhasz riconosce apertamente. Per questo WorkBeaver utilizza liste di applicazioni e cartelle consentite, insieme ad alcune misure di sicurezza aggiuntive. La piattaforma è costruita usando Google Cloud Vertex AI, ma l'agente è agnostico rispetto al modello e può funzionare con qualsiasi modello fondazionale, anche in cloud privati aziendali.

Il vero banco di prova arriverà tra una o due settimane, quando la nuova versione sarà rilasciata. Solo allora si capirà se utenti non tecnici riusciranno a utilizzare questa tecnologia in modo da renderli più felici sul lavoro. La sfida non è solo tecnologica ma profondamente umana: rallentare per accelerare, educare invece che imporre, partire dal basso invece che calare dall'alto le decisioni. Un approccio che contrasta con la mentalità del "muoversi velocemente e rompere le cose" celebrata nella Silicon Valley, ma che potrebbe essere l'unica strada per un'adozione dell'IA che non lasci indietro metà della forza lavoro.

Condividi questo contenuto