Negli ultimi giorni è esplosa la moda di ChatGPT, un modello di IA generativa in grado di rispondere a qualsiasi domanda e scrivere testi in maniera apparentemente sensata. Molti hanno sollevato il problema che il modello potrebbe minacciare molti lavori legati alla scrittura, come il copywriting, il servizio clienti, il giornalismo e addirittura la scrittura di libri.
La verità è che questo scenario, se mai si dovesse verificare, è ancora molto lontano: le frasi generate dal modello sembrano plausibili a un primo livello di lettura, ma spesso risultano incorrette o prive di senso.
Questo tipo di modelli si limita a generare risposte basandosi su pattern matching a breve termine, senza effettuare una ricerca approfondita di fonti. Così come Galactica, l'algoritmo di IA generativa di Meta, ora in pausa per via della scarsa correttezza scientifica riscontrata, ChatGPT non può essere considerato come una fonte affidabile di informazione.
Per realizzare un'applicazione completa, in cui le risposte provengono da sorgenti attendibili e le frasi non siano un semplice accostamento sensato di parole, si potrebbero utilizzare strumenti di ricerca semantica per validare il contenuto dei messaggi.
Hebbia è un esempio di motore di ricerca semantico in cui le risposte vengono fornite sulla base del loro significato e non solo delle parole chiave ricercate dall'utente. Un modello di questo tipo è in grado di comprendere ciò che l'utente sta cercando e trovare le risposte giuste.
I modelli di IA generativa si limitano ad effettuare ricerche basate su parole chiave ed estrarre le frasi che contengono la keyword o si avvicinano di più a essa; i modelli di ricerca semantica, o "discriminativi", effettuano uno step ulteriore di scrematura estrapolando il vero significato delle parole.
In questo modo i modelli come ChatGPT potranno diventare più accurati e affidabili, poiché in grado di comprendere il significato contestuale della domanda e delle parole chiave.