La promesse des assistants IA comme ChatGPT est une compétence quasi universelle, mais même ces systèmes avancés butent sur des tâches étonnamment basiques. Un exemple notable ? ChatGPT ne peut pas indiquer l’heure de manière fiable. Bien qu’il soit capable de générer du texte de type humain, de traduire des langues et même d’écrire du code, il échoue fréquemment lorsqu’on lui demande l’heure actuelle.

Les réponses incohérentes

Lorsque vous y êtes invité, les réponses de ChatGPT sont erratiques. Parfois, il admet son incapacité : “Je n’ai pas accès à l’horloge en temps réel de votre appareil…” D’autres fois, il devine, souvent de manière incorrecte, ou demande un emplacement uniquement pour fournir des informations peu fiables. Le modèle réussit parfois, mais répète les erreurs même quelques instants plus tard. Cette imprévisibilité est bien documentée parmi les utilisateurs de forums comme Reddit, qui expriment leur frustration face à un système qui, par ailleurs, démontre des capacités cognitives impressionnantes.

Pourquoi cela se produit : les principales limites de l’IA

La raison de cette faille réside dans le fonctionnement de l’IA générative. Contrairement aux ordinateurs ou aux smartphones, qui accèdent à l’heure via des puces intégrées, ChatGPT fonctionne en prédisant la réponse la plus probable en fonction de ses données d’entraînement. Ces données n’incluent pas de mises à jour constantes et en temps réel comme l’heure actuelle, à moins qu’il ne recherche activement les informations. L’expert en robotique IA, Yervant Kulbashian, décrit cela comme une IA « dotée d’une énorme collection de livres mais pas de montre ».

Les compromis de la sensibilisation

OpenAI pourrait intégrer l’accès à l’horloge en temps réel et, dans certains cas, avec des fonctionnalités telles que la recherche sur le Web activées, ChatGPT peut fournir des heures précises. Cependant, cela introduit des compromis. Les modèles d’IA ont des « fenêtres contextuelles » limitées, c’est-à-dire la quantité d’informations qu’ils peuvent conserver à un moment donné. Des mises à jour constantes rempliraient cet espace, ajoutant potentiellement du bruit et perturbant le système.

“Si vous commencez à ajouter plus de choses sur votre bureau, vous devrez éventuellement commencer à repousser les choses”, explique Kulbashian. Le système risquerait de donner la priorité à l’heure actuelle par rapport à un contexte de conversation plus significatif.

Au-delà du temps : un modèle d’angles morts

L’incapacité de lire l’heure n’est pas isolée. Les chercheurs ont découvert que les modèles d’IA ont du mal à réaliser d’autres tâches liées au temps, telles que la lecture d’horloges analogiques ou l’interprétation de calendriers. Cela met en évidence un problème plus large : Les systèmes d’IA ne sont pas intrinsèquement conscients des concepts du monde réel de la même manière que les humains. Ils prédisent les résultats en fonction de modèles, et le temps, en tant que variable en constante évolution, ne s’intègre pas parfaitement dans ce cadre.

Le problème de la transparence

En fin de compte, l’aspect le plus frustrant pour les utilisateurs est la transparence incohérente de ChatGPT. Un assistant humain admettant son ignorance est acceptable ; une IA fournissant en toute confiance des informations incorrectes ne l’est pas. ChatGPT ne ment pas, mais plutôt prédit ce qu’un utilisateur veut entendre. OpenAI le reconnaît et continue d’améliorer la capacité du modèle à reconnaître ses propres limites.

Malgré les progrès de l’IA, l’incapacité de ChatGPT à lire l’heure reste un rappel brutal que même les systèmes les plus sophistiqués présentent des lacunes fondamentales dans leur compréhension du monde réel.