OpenAI wzmacnia środki bezpieczeństwa w swoim chatbocie ChatGPT po analizie i postępowaniu sądowym, w którym zarzucono, że sztuczna inteligencja przyczyniła się do samobójstw nastolatków. Firma ogłosiła aktualizację specyfikacji swojego modelu, mającą na celu zapewnienie „bezpiecznego i odpowiedniego do wieku doświadczenia” użytkownikom w wieku od 13 do 17 lat. Posunięcie to jest następstwem szeregu procesów sądowych o bezprawną śmierć, w których zarzucono, że ChatGPT nie zareagował odpowiednio na myśli samobójcze, a nawet nie zachęcał do samookaleczenia.
Rosnące obawy dotyczące zdrowia psychicznego nastolatków
Niedawny wzrost liczby procesów sądowych i krytyki publicznej, w tym niepokojących ogłoszeń służb publicznych przedstawiających chatboty AI jako szkodliwe podmioty, zmusił OpenAI do bezpośredniego zajęcia się tym problemem. Jeden z przypadków dotyczy samobójstwa 16-letniego Adama Reina, w przypadku którego OpenAI zaprzecza jakimkolwiek nadużyciom. Pomimo tych zaprzeczeń, presja wzrosła, co skłoniło firmę do zobowiązania się do priorytetowego traktowania bezpieczeństwa nastolatków, „nawet jeśli jest to sprzeczne z innymi celami”.
Nowe środki bezpieczeństwa dla młodych użytkowników
Aktualizacja wprowadza bardziej rygorystyczne ograniczenia dla nastolatków. ChatGPT będzie teraz traktować priorytetowo zapobieganie, przejrzystość i wczesną interwencję w rozmowach wysokiego ryzyka. Oznacza to, że sztuczna inteligencja będzie aktywnie zachęcać nastolatków do szukania bezpośredniego wsparcia lub służb ratunkowych podczas omawiania takich tematów, jak samookaleczenie, samobójstwo lub niebezpieczne zachowanie. OpenAI wdraża również model wykrywania wieku, aby jeszcze bardziej dostosować środki bezpieczeństwa.
Recenzje ekspertów i dodatkowe zasoby
Amerykańskie Towarzystwo Psychologiczne (APA) przekazało opinie na temat zasad OpenAI dla użytkowników poniżej 18 roku życia, podkreślając znaczenie równowagi między narzędziami sztucznej inteligencji a interakcjami międzyludzkimi w świecie rzeczywistym dla zdrowego rozwoju. Dr Arthur C. Evans Jr., dyrektor generalny APA, stwierdził, że sztuczna inteligencja może przynieść korzyści nastolatkom tylko wtedy, gdy zostanie zintegrowana w sposób odpowiedzialny. OpenAI publikuje także recenzowane przewodniki dotyczące umiejętności korzystania z AI dla nastolatków i rodziców.
Trwające debaty i konflikty prawne
Eksperci ds. bezpieczeństwa dzieci w dalszym ciągu wyrażają obawy dotyczące zagrożeń stwarzanych przez chatboty AI podczas dyskusji na temat zdrowia psychicznego nastolatków. OpenAI twierdzi, że jego najnowszy model, ChatGPT-5.2, jest „bezpieczniejszy”, ale pozostaje sceptyczny. Warto również zauważyć, że spółka-matka Mashable, Ziff Davis, pozywa obecnie OpenAI za rzekome naruszenie praw autorskich.
Ostatecznie aktualizacja OpenAI stanowi odpowiedź na rosnącą presję prawną i publiczną na bezpieczeństwo. Długoterminowa skuteczność tych zmian pozostaje niejasna, ale to posunięcie sygnalizuje rosnące uznanie potencjalnych szkód, jakie sztuczna inteligencja może wyrządzić bezbronnym młodym użytkownikom.
Jeśli masz myśli samobójcze lub przeżywasz kryzys psychiczny, dostępna jest pomoc. Możesz zadzwonić lub wysłać SMS-a pod numer 988, porozmawiać na 988lifeline.org lub skontaktować się z innymi usługami pomocy wymienionymi w oryginalnym artykule.























