Ponad milion użytkowników tygodniowo używa ChatGPT w sposób sugerujący myśli samobójcze – wynika z najnowszego wpisu na blogu OpenAI. Firma ujawniła statystyki dotyczące kryzysów psychicznych wśród użytkowników, które napawają niepokojem.
OpenAI ujawnia skalę rozmów o samobójstwie i psychozie na ChatGPT
Wpis na blogu OpenAI, opublikowany w poniedziałek, zawiera jedne z najmocniejszych dotąd deklaracji firmy na temat wpływu sztucznej inteligencji na zdrowie psychiczne. To pierwszy raz, gdy firma w tak bezpośredni sposób komentuje wpływ swojego flagowego produktu na zdrowie psychiczne użytkowników. I choć OpenAI zapewnia, że te przypadki są rzadkie w ujęciu procentowym, mówimy o setkach tysięcy realnych osób.
Według danych opublikowanych przez OpenAI, ok. 0,07% wszystkich użytkowników aktywnych w danym tygodniu wykazuje możliwe objawy „nagłych zaburzeń zdrowia psychicznego związanych z psychozą lub manią”. Przy obecnym poziomie ok. 800 milionów użytkowników tygodniowo (liczba podana przez CEO Sama Altmana), oznacza to ok. 560 tysięcy osób.
Opublikowanie tych danych nie jest przypadkowe. OpenAI znajduje się obecnie pod rosnącą presją regulatorów i opinii publicznej. W tle toczy się m.in. głośna sprawa sądowa zainicjowana przez rodzinę nastolatka, który odebrał sobie życie po intensywnym korzystaniu z ChatGPT. Federalna Komisja Handlu USA (FTC) prowadzi natomiast szeroko zakrojone śledztwo w sprawie wpływu chatbotów AI na dzieci i młodzież. Sprawdzane są m.in. metody wykrywania i ograniczania potencjalnych szkód psychicznych.
„Ulepszony model GPT-5 działa bezpieczniej” – twierdzi firma
W odpowiedzi na rosnące obawy, OpenAI podkreśliło, że nowa wersja modelu GPT-5 ma być znacznie bezpieczniejsza niż poprzednie. W wewnętrznej ewaluacji ponad tysiąca rozmów na temat samookaleczeń i samobójstwa nowy model uzyskał 91% zgodności z oczekiwanymi „pożądanymi zachowaniami”, wobec 77% w starszym modelu.
OpenAI podało, że do pracy nad tym obszarem zaangażowano 170 specjalistów z Global Physician Network – lekarzy, psycholożek i psychiatrów, którzy oceniali odpowiedzi modelu oraz współtworzyli odpowiedzi na pytania dotyczące zdrowia psychicznego.
Nie zmienia to jednak faktu, że poprzednia wersja – Chat GPT-4 – nadal jest dostępna i dopuszczona do użytku.
Kłopotliwa „sykofancja” i wciąż niejasna odpowiedzialność
Badacze AI i eksperci zdrowia psychicznego ostrzegają, że chatboty mają tendencję do bezkrytycznego potakiwania użytkownikowi – zjawiska znanego jako „sykofancja”. W praktyce może to oznaczać wzmacnianie szkodliwych przekonań, a nawet wspieranie zachowań prowadzących do autodestrukcji.
OpenAI zdaje się dystansować od potencjalnych związków przyczynowo-skutkowych między użyciem ChatGPT a kryzysami psychicznymi użytkowników. „Objawy zdrowia psychicznego i emocjonalne cierpienie są powszechne w każdej społeczności. Rosnąca liczba użytkowników oznacza, że pewna część rozmów będzie dotyczyć takich sytuacji” – czytamy w komunikacie.
Sam Altman, prezes OpenAI, odniósł się do tematu wcześniej w październiku, pisząc na platformie X (dawniej Twitter), że firma "bardzo ostrożnie" ograniczyła funkcje ChatGPT związane ze zdrowiem psychicznym. Zapowiedział jednak, że teraz – gdy mechanizmy bezpieczeństwa są bardziej dopracowane – planowane jest poluzowanie restrykcji, w tym również umożliwienie tworzenia treści erotycznych dla dorosłych.
Ostatecznie wpis OpenAI, mimo że brzmi jak gest przejrzystości, jest też próbą kontrolowania narracji. Firma przedstawia dane o kryzysach psychicznych jako statystyczną nieuchronność, a nie konsekwencję własnego produktu. Zamiast wziąć odpowiedzialność za to, że miliony ludzi zwracają się do sztucznej inteligencji z desperacją, OpenAI traktuje ten fakt jak naturalny efekt uboczny postępu technologicznego – wygodne, ale mało etyczne podejście.