Tecnologia OpenAI e screenshot: la privacy è ora a rischio
2' 57''
23/04/2026

OpenAI lancia Chronicle per macOS, una funzione che acquisisce schermate del desktop e le invia ai server aziendali, sollevando dubbi sulla privacy simili al caso Microsoft Recall.

OpenAI e screenshot: la privacy è ora a rischio

OpenAI ha lanciato in anteprima una funzione chiamata Chronicle, disponibile in modalità opt-in per l'app Codex su macOS, che acquisisce schermate del desktop dell'utente e le trasmette ai server dell'azienda per generare informazioni contestuali destinate all'agente di intelligenza artificiale Codex. La mossa, emersa questa settimana dalla documentazione ufficiale della società, solleva interrogativi immediati sulla protezione dei dati personali.

Il parallelo con Microsoft Recall — la funzione Windows lanciata nel 2024 e travolta dalle critiche della comunità della cybersicurezza — è stato tracciato immediatamente dal ricercatore di sicurezza Michael Taggart, che ha scritto: "OpenAI ha reinventato Recall, ma per macOS." Recall prevedeva l'acquisizione automatica di screenshot del desktop ogni pochi secondi; le analogie con Chronicle sono evidenti, anche se quest'ultima richiede il consenso esplicito dell'utente, a differenza della versione iniziale di Microsoft.

Chronicle augments Codex memories with context from your screen

Dal punto di vista tecnico, Chronicle cattura porzioni dello schermo, le invia temporaneamente ai server di OpenAI per l'elaborazione tramite riconoscimento ottico dei caratteri (OCR) e altri metodi di estrazione, generando poi file di testo in formato Markdown — definiti "memories" — salvati localmente nella directory $CODEX_HOME/memories_extensions/chronicle/. Le immagini originali vengono conservate sul dispositivo per sole sei ore, ma le memorie testuali derivate persistono fino alla cancellazione manuale da parte dell'utente.

La documentazione di OpenAI elenca essa stessa i rischi: Chronicle consuma rapidamente i limiti di utilizzo (rate limits) di Codex, aumenta l'esposizione al cosiddetto prompt injection — ovvero la possibilità che contenuti malevoli sullo schermo manipolino le istruzioni all'agente — e archivia le memorie in chiaro sul dispositivo, senza cifratura. Non è il profilo di rischio tipico di un prodotto pensato per ambienti professionali o aziendali sensibili.

Chronicle uses rate limits quickly, increases risk of prompt injection, and stores memories unencrypted on your device

Sul fronte della privacy, OpenAI afferma che le schermate trasmesse ai propri server non vengono utilizzate per addestrare i modelli e non vengono conservate, salvo obblighi di legge. Tuttavia, la documentazione non chiarisce se le memorie testuali — derivate da quelle stesse schermate — possano essere trattenute sui server aziendali in risposta a richieste legalmente vincolanti. Una distinzione non trascurabile, in particolare alla luce del quadro normativo europeo: il Regolamento generale sulla protezione dei dati (GDPR) impone requisiti stringenti sulla minimizzazione dei dati e sulla loro portabilità, aspetti che Chronicle sembra gestire con margini di ambiguità.

Il caso Recall di Microsoft offre un precedente utile per valutare la traiettoria di questa funzione. Nel 2024, la funzione fu definita pubblicamente "un keylogger" e "un incubo per la privacy"; test indipendenti, tra cui quelli condotti da The Register, trovarono Recall a salvare immagini contenenti numeri di carte di credito e password, nonostante i filtri dichiarati. Microsoft fu costretta a revisioni sostanziali. Il browser Brave sviluppò successivamente uno strumento apposito per bloccare le schermate di Recall.

Anyone using Chronicle may end up re-sharing captured content with OpenAI through prompts to Codex that use those stored memories

OpenAI stessa avverte che le directory contenenti schermate e memorie potrebbero includere informazioni sensibili e che altri programmi presenti sul computer possono accedervi. Un avvertimento che, inserito nella documentazione tecnica di una funzione opt-in, rischia di passare inosservato alla maggioranza degli utenti meno esperti.

La questione di fondo riguarda l'equilibrio tra utilità contestuale dei modelli di intelligenza artificiale e diritto alla riservatezza degli utenti. Quanto gli sviluppatori di strumenti AI siano disposti a cedere in termini di privacy per guadagnare in capacità contestuale è una domanda che il mercato — e le autorità di regolamentazione — dovranno rispondere con crescente urgenza, man mano che funzioni di questo tipo migreranno dall'anteprima alla disponibilità generale.

Condividi questo contenuto