La promessa degli assistenti IA come ChatGPT è una competenza quasi universale, ma anche questi sistemi avanzati si imbattono in compiti sorprendentemente basilari. Un esempio notevole? ChatGPT non è in grado di leggere l’ora in modo affidabile. Nonostante sia in grado di generare testo simile a quello umano, tradurre lingue e persino scrivere codice, spesso fallisce quando viene richiesta l’ora corrente.
Le risposte incoerenti
Quando richiesto, le risposte di ChatGPT sono irregolari. A volte ammette la sua incapacità: “Non ho accesso all’orologio in tempo reale del tuo dispositivo…” Altre volte, indovina, spesso in modo errato, o chiede una posizione solo per fornire comunque informazioni inaffidabili. Il modello occasionalmente ha ragione, ma ripete gli errori anche pochi istanti dopo. Questa imprevedibilità è ben documentata tra gli utenti di forum come Reddit, che esprimono frustrazione nei confronti di un sistema che altrimenti dimostra capacità cognitive impressionanti.
Perché ciò accade: i limiti fondamentali dell’intelligenza artificiale
La ragione di questo difetto risiede nel modo in cui opera l’intelligenza artificiale generativa. A differenza dei computer o degli smartphone, che accedono all’ora tramite chip integrati, ChatGPT funziona prevedendo la risposta più probabile in base ai dati di addestramento. Tali dati non includono aggiornamenti costanti in tempo reale come l’ora corrente a meno che non ricerchi attivamente le informazioni. L’esperto di robotica AI Yervant Kulbashian lo descrive come un’intelligenza artificiale “fornita con un’enorme collezione di libri ma senza orologi”.
I compromessi della consapevolezza
OpenAI potrebbe integrare l’accesso all’orologio in tempo reale e, in alcuni casi, con funzionalità come la ricerca web abilitata, ChatGPT può fornire orari precisi. Tuttavia, ciò introduce dei compromessi. I modelli di intelligenza artificiale hanno “finestre di contesto” limitate, ovvero la quantità di informazioni che possono conservare in un dato momento. Aggiornamenti temporali costanti riempirebbero questo spazio, aggiungendo potenzialmente rumore e confondendo il sistema.
“Se inizi ad aggiungere più cose alla tua scrivania, alla fine devi iniziare a spingerle via,” spiega Kulbashian. Il sistema rischierebbe di dare priorità all’ora corrente rispetto al contesto di conversazione più significativo.
Oltre il tempo: uno schema di punti ciechi
L’incapacità di leggere l’ora non è un caso isolato. I ricercatori hanno scoperto che i modelli di intelligenza artificiale hanno difficoltà con altre attività legate al tempo, come leggere gli orologi analogici o interpretare i calendari. Ciò evidenzia un problema più ampio: I sistemi di intelligenza artificiale non sono intrinsecamente consapevoli dei concetti del mondo reale allo stesso modo degli esseri umani. Prevedono risultati basati su modelli e il tempo, in quanto variabile in continuo cambiamento, non si adatta perfettamente a tale quadro.
Il problema della trasparenza
In definitiva, l’aspetto più frustrante per gli utenti è la trasparenza incoerente di ChatGPT. Un assistente umano che ammette la propria ignoranza è accettabile; un’intelligenza artificiale che fornisce con sicurezza informazioni errate non lo è. ChatGPT non mente, ma piuttosto predice ciò che un utente vuole sentire. OpenAI lo riconosce e continua a migliorare la capacità del modello di riconoscere i propri limiti.
Nonostante i progressi nell’intelligenza artificiale, l’incapacità di ChatGPT di leggere l’ora rimane un chiaro promemoria del fatto che anche i sistemi più sofisticati presentano lacune fondamentali nella comprensione del mondo reale.
























