Asystenci AI, tacy jak ChatGPT, obiecują niemal uniwersalne kompetencje, ale nawet te zaawansowane systemy natrafiają na zaskakująco proste zadania. Jeden wyraźny przykład? ChatGPT nie jest w stanie wiarygodnie określić godziny. Pomimo możliwości generowania humanoidalnego tekstu, tłumaczenia języków, a nawet pisania kodu, często zawodzi, gdy pojawia się pytanie, która jest godzina.
Niespójne odpowiedzi
Na żądanie ChatGPT generuje nieprzewidywalne odpowiedzi. Czasami przyznaje się do swojej niemożności: “Nie mam dostępu do zegara systemowego Twojego urządzenia…”. W innych przypadkach zgaduje, często błędnie, lub pyta o lokalizację tylko po to, by i tak podać fałszywe informacje. Modelka od czasu do czasu odpowiada poprawnie, jednak nawet po kilku chwilach powtarza błędy. Ta nieprzewidywalność jest dobrze udokumentowana wśród użytkowników na forach takich jak Reddit, którzy wyrażają frustrację w związku z systemem, który poza tym wykazuje imponujące zdolności poznawcze.
Dlaczego tak się dzieje: kluczowe ograniczenia sztucznej inteligencji
Przyczyną tego błędu jest sposób działania generatywnej sztucznej inteligencji. W przeciwieństwie do komputerów i smartfonów, które odbierają czas za pomocą wbudowanych chipów, ChatGPT działa poprzez przewidywanie najbardziej prawdopodobnej odpowiedzi na podstawie danych treningowych. Dane te nie obejmują ciągłych aktualizacji w czasie rzeczywistym, takich jak bieżący czas, chyba że aktywnie szuka tych informacji. Ekspert ds. robotyki AI, Yervant Kulbashian, opisuje tę sztuczną inteligencję jako sztuczną inteligencję „obciążoną ogromną kolekcją książek, ale pozbawioną zegarka”.
Kompromisy uważności
OpenAI mógłby zintegrować dostęp do zegara systemowego, a w niektórych przypadkach, przy włączonej funkcji wyszukiwania w Internecie, ChatGPT mógłby zapewnić dokładny czas. Wiąże się to jednak z kompromisami. Modele AI mają ograniczone „okna kontekstowe” – ilość informacji, które mogą przechowywać w danym momencie. Stałe aktualizacje wypełniłyby tę przestrzeń, potencjalnie dodając hałasu i dezorientując system.
„Jeśli będziesz ciągle kładł na biurku coraz więcej rzeczy, prędzej czy później będziesz musiał coś z niego przenieść” wyjaśnia Kulbashyan. System ryzykuje przedłożeniem bieżącego czasu nad bardziej znaczący kontekst rozmowy.
Poza czasem: model martwego punktu
Niemożność określenia czasu nie jest odosobnionym przypadkiem. Naukowcy odkryli, że modele AI miały trudności z innymi zadaniami związanymi z czasem, takimi jak odczytywanie zegarów analogowych lub interpretacja kalendarzy. To uwydatnia szerszy problem: Systemy sztucznej inteligencji nie rozumieją pojęć świata rzeczywistego w taki sam sposób jak ludzie. Przewidują wyniki w oparciu o wzorce, a czas, jako stale zmieniająca się zmienna, nie pasuje do tych ram.
Problem przejrzystości
Ostatecznie najbardziej irytującym aspektem dla użytkowników jest niespójna przejrzystość ChatGPT. Akceptowalny jest ludzki asystent przyznający się do niewiedzy; Sztuczna inteligencja, która rzetelnie dostarcza nieprawidłowe informacje, tego nie robi. ChatGPT nie kłamie, ale raczej przewiduje to, co użytkownik chce usłyszeć. OpenAI zdaje sobie z tego sprawę i stale ulepsza zdolność modelu do rozpoznawania własnych ograniczeń.
Pomimo postępu w sztucznej inteligencji, niezdolność ChatGPT do określania czasu pozostaje wyraźnym przypomnieniem, że nawet najbardziej złożone systemy mają zasadnicze luki w rozumieniu prawdziwego świata.
























