L'intelligenza artificiale è la protagonista degli investimenti aziendali, ma non tutte le realtà sono in grado di seguire la strada giusta e ottenere benefici reali da questa tecnologia.
Ashu Garg, autore per Foundation Capital, ha elencato i dieci insight più interessanti sull'intelligenza artificiale condivisi da cinque esperti del settore, tra i quali il CEO di Databricks, il CEO di Anyscale e il Chief Strategy Officer di Microsoft, per aiutare le aziende a navigare il mercato.
L'IA "mangerà" il software
Così come il software è diventato parte integrante di ogni aspetto della nostra vita, lo stesso accadrà all'IA: secondo Ali Ghodsi, CEO e co-fondatore di Databricks, in futuro l'intelligenza artificiale non sarà più solo una "feature" aggiuntiva, ma diventerà un componente nativo di ogni piattaforma, sostituendo il software classico.
Ghodsi ritiene che l'IA trasformerà il software da un semplice tool statico a una macchina in grado di auto-gestirsi e prendersi decisioni integrata nell'architettura stessa dei sistemi.
Puntare sulle startup
L'adozione dell'IA da parte delle imprese non è omogenea: fatta eccezione per le big tech, a investire maggiormente sull'intelligenza artificiale sono le startup innovative, mentre gran parte delle aziende ben stabilite sul mercato stanno faticando a integrare questa tecnologia nei loro processi.
I motivi di questo ritardo, spiega Ghodsi, sono legati per lo più al labirinto di requisiti di sicurezza a cui si devono attenere le imprese, oltre agli ostacoli della burocrazia.
Per questo gli imprenditori dovrebbero concentrarsi sulle startup, almeno inizialmente, per investire su nuove soluzioni e metterle in funzione il prima possibile, capendo se il prodotto è adatto al mercato di riferimento. Una volta che la soluzione ha avuto successo su una scala ristretta, gli imprenditori possono puntare a un mercato più ampio.
Gli LLM non sono database
Spesso gli LLM vengono visti come se fossero semplicemente degli enormi database capaci di fornire agli utenti le informazioni di cui hanno bisogno. Matei Zaharia, CTO e co-fondatore di Databricks, avverte che si tratta di un approccio sbagliato, soprattutto quando si utilizzano gli LLM per applicazioni reali: questi strumenti tendono a sbagliare man mano che la base di conoscenza aumenta.
Zaharia spiega che gli LLM andrebbero visti come dei "motori pensanti", capaci di interpretare il linguaggio e analizzare il contesto per elaborare una risposta. Le organizzazioni dovrebbero tenere in considerazione questo aspetto e sfruttare gli LLM non tanto per accedere a dati aggiornati, quanto per le loro capacità di analisi del linguaggio e di generazione.
Aiutare le persone ad anticipare il cambiamento
Naveen Rao, VP of Generative AI in Databricks, ritiene che per favorire l'entrata di un'organizzazione in un nuovo settore tecnologico è necessario sviluppare una forte capacità di anticipare i trend del mercato, anche diventando i primi a esplorare i vantaggi di una tecnologia.
Il passo successivo è riuscire a convincere i dipendenti, gli investitori e i propri clienti riguardo i benefici delle soluzioni che si stanno esplorando. Esplorare la tecnologia e trovare nuove applicazioni prima che lo facciano gli altri, ridefinendo il modo in cui si pensano i problemi, è la chiave per la vera innovazione.
L'intelligenza artificiale generale è ancora lontana
Rao esplora anche il tema dell'intelligenza artificiale generale, ovvero un ipotetico tipo di IA in grado di svolgere qualsiasi compito intellettuale che un essere umano può imparare.
Molti temono che questo scenario sia dietro l'angolo, ma Rao è molto scettico a riguardo: secondo lui, la probabilità che nei prossimi 10 anni si arrivi a un'IA generale non supera il 50%; più probabile (90%) che questo scenario si realizzi nei prossimi 30 anni.
Rao sostiene che, per quanto avanzata, l'IA soffre ancora di molti limiti, legati soprattutto alla scalabilità delle soluzioni. L'intelligenza artificiale non è una novità e negli ultimi 30 anni ha attraversato cicli di sviluppo con alti e bassi. È probabile che lo stesso avverrà anche nei prossimi anni.
I modelli open-source si diffonderanno sempre di più
Se in una prima fase della diffusione dell'IA le organizzazioni si sono concentrare semplicemente sul prendere una soluzione già pronta e integrarla nei propri processi, adesso devono lavorare per migliorare la qualità della loro offerta e soddisfare le richieste dei propri clienti.
Robert Nishihara, co-fondatore e CEO di Anyscale, ritiene che i modelli open-source conquisteranno il mercato proprio perché le imprese hanno necessità di utilizzare soluzioni personalizzate. Man mano che i modelli generativi matureranno, sempre più realtà si affideranno alla flessibilità e al controllo offerti dalle soluzioni open-source.
Il futuro dell'IA sono i modelli task-specific
Insieme alla diffusione dei modelli open-source, Nishihara prevede una maggiore adozione di soluzioni task-specific, più ridotte ma focalizzate su attività specifiche. Questi modelli, piccoli e veloci, sfruttano i dati aziendali proprietari per risolvere le sfide delle imprese riducendo i costi, senza rinunciare però alla qualità.
Nishihara sottolinea anche che in futuro si utilizzeranno architetture di routing in grado di valutare la complessità delle singole richieste e indirizzarle al modello più adatto a portare a termine il compito.
Il problema della valutazione della genAI
La sempre maggiore varietà di modelli a disposizione complicherà ulteriormente la valutazione dei modelli. Se prima bastava avere un set di dati di prova, eseguire il modello su di essi e ottenere un punteggio di precisione, oggi valutare una risposta, testuale o visiva che sia, è molto più complesso: non esistono più dei parametri di riferimento assoluti.
I risultati, essendo soggettivi, sono difficili da valutare in modo chiaro. Nishihara sottolinea che il problema della valutazione dei modelli diventerà sempre più pressante, ma che potrebbe essere una grande opportunità per le startup.
Migliorare l'adozione dell'IA integrandola nei flussi di lavoro esistenti
Bobby Yerramilli-Rao, Chief Strategy Officer di Microsoft, spiega che per facilitare l'adozione dell'IA è opportuno integrarla in flussi di lavoro ben consolidati, aiutando gli utenti a farla diventare una tecnologia d'uso quotidiano.
Assicurarsi che l'adozione degli strumenti di IA abbia successo è tanto fondamentale quanto migliorare le applicazioni. Rendere questa tecnologia parte integrare dei flussi di lavoro esistenti, in modo progressivo, è la chiave per introdurre funzionalità di intelligenza artificiale sempre più avanzate.
Le nuove soluzioni devono risolvere problemi specifici di settore
Yerramilli-Rao si rivolge anche agli investitori sottolineando il fatto che è importante sviluppare prodotti verticali, in grado di risolvere uno specifico problema di uno specifico settore, offrendo soluzioni di qualità.
Invece di lavorare a un modello generalista capace di rispondere a qualsiasi quesito, è consigliabile sviluppare prodotti personalizzati e stabilirsi su mercati più piccoli, ma più solidi. Tra le aree più valide da esplorare ci sono la conformità dei modelli, la prevedibilità dei risultati e la privacy.