L'intelligenza artificiale generativa sta rivoluzionando il mondo dell'istruzione in modo molto più profondo di quanto si pensi, e il problema non è solo il plagio o l'uso scorretto della tecnologia. Secondo Kimberley Hardcastle, professoressa di economia e marketing presso la Northumbria University nel Regno Unito, la vera questione riguarda chi detiene il controllo sulla conoscenza stessa. Mentre scuole e università si concentrano su questioni superficiali come il cheating accademico, sta avvenendo uno spostamento silenzioso ma fondamentale: il potere decisionale su cosa costituisce sapere valido sta passando dalle menti umane agli algoritmi delle grandi aziende tecnologiche.
La dipendenza algoritmica sostituisce il pensiero critico
I dati raccolti da Anthropic, l'azienda creatrice di Claude, uno dei chatbot più utilizzati, rivelano una realtà preoccupante. Analizzando circa un milione di conversazioni studentesche nel mese di aprile, l'azienda ha scoperto che il 39,3% riguardava la creazione o il perfezionamento di contenuti educativi, mentre un consistente 33,5% consisteva in richieste dirette di risolvere compiti e assignments. Ma secondo Hardcastle, ridurre il fenomeno a "studenti che non fanno i compiti" sarebbe riduttivo e fuorviante.
"Quando saltiamo il percorso cognitivo della sintesi e della valutazione critica, non perdiamo solo competenze," spiega la professoressa a Business Insider. "Stiamo modificando il nostro rapporto epistemologico con la conoscenza stessa." In pratica, gli studenti non si affidano all'IA solo per trovare risposte, ma stanno delegando agli algoritmi il compito di stabilire quali risposte siano considerate valide.
L'erosione della "vigilanza epistemica"
Il concetto introdotto da Hardcastle di "atrofia della vigilanza epistemica" descrive la graduale perdita della capacità di verificare, contestare e costruire conoscenza in modo indipendente. Quando l'intelligenza artificiale diventa un mediatore costante dell'apprendimento, gli studenti rischiano di perdere l'istinto fondamentale di mettere in discussione le fonti, testare le ipotesi e sviluppare un pensiero critico autonomo. Questa generazione di studenti, secondo la professoressa, rappresenta "la prima coorte sperimentale che incontra l'IA a metà del proprio sviluppo cognitivo, rendendoli learners 'spostati dall'IA' piuttosto che nativi dell'IA".
Le conseguenze di questa trasformazione vanno ben oltre le aule scolastiche. Se le persone smettono di esercitare la valutazione indipendente, la società nel suo complesso rischia di diventare dipendente dagli algoritmi come arbitri della verità. Le implicazioni per il mercato del lavoro, sottolinea Hardcastle, non riguardano tanto una ridotta capacità tecnica, quanto uno spostamento del framework cognitivo: "La validazione e la creazione della conoscenza dipendono sempre più dalla mediazione dell'IA piuttosto che dal giudizio umano."
Il potere invisibile delle Big Tech sulla conoscenza
Ma l'allarme più significativo lanciato dalla studiosa riguarda la dimensione strutturale del problema. Se i sistemi di intelligenza artificiale diventano i principali mediatori della conoscenza, le grandi aziende tecnologiche assumono di fatto il controllo su ciò che viene considerato sapere valido. "Il problema non è un controllo drammatico ma una deriva epistemica sottile," spiega Hardcastle. "Quando ci affidiamo costantemente a sintesi e analisi generate dall'IA, permettiamo involontariamente ai dati di addestramento commerciali e alle metriche di ottimizzazione di determinare quali domande vengano poste e quali metodologie appaiano valide."
Questo slittamento graduale rischia di consolidare l'influenza aziendale sul modo in cui la conoscenza viene creata e validata, trasferendo silenziosamente l'autorità dal giudizio umano alla logica algoritmica. Un processo che avviene senza dibattito pubblico e senza una consapevolezza diffusa delle sue implicazioni a lungo termine.
La sfida per il sistema educativo
Secondo Hardcastle, la domanda cruciale non è se l'istruzione "combatterà" contro l'intelligenza artificiale, ma se sarà capace di modellare consapevolmente l'integrazione dell'IA per preservare quella che definisce "agency epistemica umana" – la capacità di pensare, ragionare e giudicare in modo indipendente. Questo richiede agli educatori di andare oltre i semplici aggiustamenti operativi e le normative di compliance, per iniziare a porsi domande fondamentali sull'autorità della conoscenza in un mondo mediato dall'IA.
"Mi preoccupa meno che le nuove generazioni siano 'peggiori' e più il fatto che il sistema educativo stia perdendo questo punto di svolta critico," afferma la professoressa. A meno che università e istituzioni non agiscano in modo deliberato e strategico, l'intelligenza artificiale potrebbe erodere il pensiero indipendente mentre le Big Tech traggono profitto dal controllo su come la conoscenza stessa viene prodotta, distribuita e legittimata. Una prospettiva che dovrebbe spingere il mondo accademico a ripensare radicalmente il proprio ruolo nell'era degli algoritmi.