Das Versprechen von KI-Assistenten wie ChatGPT ist nahezu universelle Kompetenz, aber selbst diese fortschrittlichen Systeme stoßen bei überraschend einfachen Aufgaben an ihre Grenzen. Ein bemerkenswertes Beispiel? ChatGPT kann die Uhrzeit nicht zuverlässig angeben. Obwohl es in der Lage ist, menschenähnlichen Text zu generieren, Sprachen zu übersetzen und sogar Code zu schreiben, schlägt es häufig fehl, wenn nach der aktuellen Stunde gefragt wird.

Die inkonsistenten Antworten

Wenn ChatGPT dazu aufgefordert wird, sind die Antworten unregelmäßig. Manchmal gibt es zu, dass es nicht in der Lage ist: „Ich habe keinen Zugriff auf die Echtzeituhr Ihres Geräts…“ In anderen Fällen vermutet es, oft falsch, oder fragt nur nach einem Standort, um dennoch unzuverlässige Informationen zu liefern. Das Modell macht gelegentlich etwas richtig, wiederholt Fehler jedoch auch wenige Augenblicke später. Diese Unvorhersehbarkeit ist bei Benutzern in Foren wie Reddit gut dokumentiert, die ihre Frustration über ein System zum Ausdruck bringen, das ansonsten beeindruckende kognitive Fähigkeiten an den Tag legt.

Warum das passiert: Die wesentlichen Einschränkungen der KI

Der Grund für diesen Fehler liegt in der Funktionsweise der generativen KI. Im Gegensatz zu Computern oder Smartphones, die über eingebaute Chips auf die Zeit zugreifen, funktioniert ChatGPT durch die Vorhersage der wahrscheinlichsten Reaktion basierend auf seinen Trainingsdaten. Diese Daten umfassen keine ständigen Echtzeitaktualisierungen wie die aktuelle Zeit, es sei denn, es sucht aktiv nach Informationen. Der KI-Robotikexperte Yervant Kulbashian beschreibt dies als eine KI, die „mit einer riesigen Sammlung von Büchern, aber ohne Uhr“ ausgestattet sei.

Die Kompromisse des Bewusstseins

OpenAI könnte den Zugriff auf die Echtzeituhr integrieren, und in einigen Fällen kann ChatGPT mit aktivierten Funktionen wie der Websuche genaue Zeiten liefern. Dies führt jedoch zu Kompromissen. KI-Modelle verfügen über begrenzte „Kontextfenster“ – die Menge an Informationen, die sie zu einem bestimmten Zeitpunkt speichern können. Ständige Zeitaktualisierungen würden diesen Raum füllen, was möglicherweise zu Rauschen führen und das System verwirren würde.

„Wenn du anfängst, mehr Dinge auf deinen Schreibtisch zu legen, musst du irgendwann anfangen, Dinge wegzuschieben“, erklärt Kulbashian. Das System würde riskieren, der aktuellen Zeit Vorrang vor einem aussagekräftigeren Gesprächskontext zu geben.

Jenseits der Zeit: Ein Muster blinder Flecken

Die Unfähigkeit, die Zeit zu bestimmen, ist kein Einzelfall. Forscher haben herausgefunden, dass KI-Modelle mit anderen zeitbezogenen Aufgaben wie dem Ablesen analoger Uhren oder der Interpretation von Kalendern Schwierigkeiten haben. Dies verdeutlicht ein umfassenderes Problem: KI-Systeme sind sich realer Konzepte nicht von Natur aus so bewusst wie Menschen. Sie sagen Ergebnisse auf der Grundlage von Mustern voraus, und die Zeit als sich ständig ändernde Variable passt nicht genau in diesen Rahmen.

Das Transparenzproblem

Der frustrierendste Aspekt für Benutzer ist letztendlich die inkonsistente Transparenz von ChatGPT. Ein menschlicher Assistent, der Unwissenheit zugibt, ist akzeptabel; Eine KI, die selbstbewusst falsche Informationen liefert, ist es nicht. ChatGPT lügt nicht, sondern *sagt vielmehr voraus, was ein Benutzer hören möchte. OpenAI erkennt dies an und verbessert weiterhin die Fähigkeit des Modells, seine eigenen Grenzen zu erkennen.

Trotz der Fortschritte in der KI bleibt die Unfähigkeit von ChatGPT, die Zeit anzuzeigen, ein deutlicher Hinweis darauf, dass selbst die ausgefeiltesten Systeme grundlegende Lücken in ihrem Verständnis der realen Welt aufweisen.