De belofte van AI-assistenten zoals ChatGPT is een vrijwel universele competentie, maar zelfs deze geavanceerde systemen stuiten op verrassend basistaken. Een opmerkelijk voorbeeld? ChatGPT kan niet op betrouwbare wijze de tijd aangeven. Ondanks dat het menselijke tekst kan genereren, talen kan vertalen en zelfs code kan schrijven, mislukt het vaak wanneer er naar het huidige uur wordt gevraagd.
De inconsistente antwoorden
Wanneer daarom wordt gevraagd, zijn de reacties van ChatGPT grillig. Soms geeft het zijn onvermogen toe: “Ik heb geen toegang tot de realtime klok van uw apparaat…” Andere keren raadt het, vaak ten onrechte, of vraagt het alleen om een locatie om nog steeds onbetrouwbare informatie te verstrekken. Het model heeft af en toe gelijk, maar herhaalt fouten zelfs even later. Deze onvoorspelbaarheid is goed gedocumenteerd onder gebruikers op forums als Reddit, die hun frustratie uiten over een systeem dat anderszins indrukwekkende cognitieve vaardigheden vertoont.
Waarom dit gebeurt: de kernbeperkingen van AI
De reden voor deze fout ligt in de manier waarop generatieve AI werkt. In tegenstelling tot computers of smartphones, die toegang hebben tot de tijd via ingebouwde chips, functioneert ChatGPT door de meest waarschijnlijke reactie te voorspellen op basis van de trainingsgegevens. Die gegevens omvatten geen constante, realtime updates zoals de huidige tijd, tenzij actief naar de informatie wordt gezocht. AI-robotica-expert Yervant Kulbashian beschrijft dit als een AI die “geladen is met een enorme verzameling boeken, maar zonder horloge.”
De afwegingen van bewustzijn
OpenAI * zou * realtime kloktoegang kunnen integreren, en in sommige gevallen, met functies zoals zoeken op internet ingeschakeld, kan ChatGPT nauwkeurige tijden bieden. Als u dit wel doet, worden er echter afwegingen gemaakt. AI-modellen hebben beperkte ‘contextvensters’: de hoeveelheid informatie die ze op een bepaald moment kunnen vasthouden. Constante tijdupdates zouden deze ruimte opvullen, wat mogelijk ruis zou toevoegen en het systeem in verwarring zou brengen.
“Als je meer dingen op je bureau gaat zetten, moet je uiteindelijk dingen van je af schuiven”, legt Kulbashian uit. Het systeem zou het risico lopen de huidige tijd voorrang te geven boven een betekenisvollere gesprekscontext.
Voorbij de tijd: een patroon van blinde vlekken
Het onvermogen om de tijd te zien staat niet op zichzelf. Onderzoekers hebben ontdekt dat AI-modellen worstelen met andere tijdgerelateerde taken, zoals het lezen van analoge klokken of het interpreteren van kalenders. Dit benadrukt een breder probleem: AI-systemen zijn zich niet inherent bewust van concepten uit de echte wereld op dezelfde manier als mensen. Ze voorspellen resultaten op basis van patronen, en tijd, als een voortdurend veranderende variabele, past niet netjes in dat raamwerk.
Het transparantieprobleem
Uiteindelijk is het meest frustrerende aspect voor gebruikers de inconsistente transparantie van ChatGPT. Een menselijke assistent die onwetendheid toegeeft, is acceptabel; een AI die zelfverzekerd onjuiste informatie verstrekt, is dat niet. ChatGPT liegt niet, maar voorspelt wat een gebruiker wil horen. OpenAI erkent dit en blijft het vermogen van het model om zijn eigen beperkingen te herkennen verbeteren.
Ondanks de vooruitgang op het gebied van AI blijft het onvermogen van ChatGPT om de tijd te zien een grimmige herinnering dat zelfs de meest geavanceerde systemen fundamentele hiaten hebben in hun begrip van de echte wereld.
























