Nie wyobrażasz sobie swojej pracy czy studiów bez zaglądania do ChataGPT? A może traktujesz go jak doradcę w sprawach osobistych? Pojawiły się badania, które najaktywniejszym użytkownikom tego narzędzia mogą napędzić stracha. Naukowcy odkryli, że tzw. „power users” – czyli osoby bardzo często korzystające z ChataGPT – stają się od niego emocjonalnie zależne i częściej określają go mianem swojego przyjaciela.
ChatGPT jest tak świeżym wynalazkiem, że skutki (nad)używania tej aplikacji są jeszcze nieznane. Najbardziej pesymistyczni badacze sugerują, że narzędzie, które potrafi wyręczyć człowieka w większości wyzwań umysłowych może prowadzić do stopniowego spadku kompetencji intelektualnych całej ludzkości. W najgorszym scenariuszu ma to skutkować zagładą naszego gatunku, który zaczął dominować nad światem właśnie dzięki przewadze swojego rozumu (nie bez przyczyny jesteśmy homo sapiens).
Są też i tacy, którzy tonują katastroficzne nastroje. ChatGPT jest w końcu narzędziem jak każde inne – można używać go z głową, ale można i w nadmiarze. Tylko w tym drugim przypadku czekają nas negatywne konsekwencje. Jakie? Temu zagadnieniu przyjrzał się zespół badaczy z Open AI i MIT Media Lab.
Badacze postanowili sprawdzić, jak interakcje z chatbotem typu ChatGPT wpływają na społeczne i emocjonalne samopoczucie użytkowników. Podkreślili, że ludzie decydują się na korzystanie z tego narzędzia na różne sposoby – nie tylko te przewidziane przez twórców jako „modelowe”, co może pociągać za sobą nieprzewidziane konsekwencje.
„ChatGPT nie został zaprojektowany tak, aby zastąpić lub naśladować relacje międzyludzkie, ale ludzie mogą zdecydować się na jego używanie w ten sposób ze względu na jego styl konwersacyjny i wciąż zwiększające się możliwości” – można przeczytać we wstępie do raportu.
Autorom badania zależało głównie na tym, by przeanalizować, jak interakcje z chatbotem odbijają się na samopoczuciu użytkowników, ich stanie psychicznym, kontaktach z realnymi ludźmi oraz czy wywołują w nich rodzaj uzależnienia.
W wyniku przeprowadzonych testów ustalono, że większość codziennych interakcji użytkowników z chatbotem nie nosiła śladów zaangażowania emocjonalnego. Inaczej było jednak w przypadku tych osób, które kontaktowały się z chatem poprzez wiadomości głosowe. W tej grupie badanych rozmowy były w dużo większym stopniu ekspresyjne i emocjonalne, a sami użytkownicy porozumiewający się z ChatGPT głosowo chętniej zgadzali się z tezą, że uważają go za swojego przyjaciela. Co więcej, dłuższe i bardziej intensywne korzystanie z chata poprzez głos wiązało się z gorszym samopoczuciem psychicznym użytkowników.
Ale to dopiero początek niepokojących ustaleń. Zbadano też wpływ ChataGPT na tych, którzy wykorzystywali go do rozmów o charakterze prywatnym – na przykład, aby prosić go o radę w sprawach osobistych. Tacy użytkownicy przyznawali, że odczuwają większą samotność, choć z drugiej strony nie wykazywali objawów uzależnienia emocjonalnego od czata. Uzależnienie to było bardziej widoczne u osób, które wykorzystywały go do konwersacji o pozaprywatnym charakterze (np. w celu odpowiedzi na pytania związane z pracą czy dostarczenia im nowych pomysłów).
Jak przyznali sami badacze: „Osoby z tendencją do łatwego przywiązywania się w relacjach oraz te, które postrzegały AI jako przyjaciela dobrze wpisującego się w ich realne życie, były bardziej narażone na negatywne skutki korzystania z chatbota. Długie i codzienne użytkowanie ChataGPT również wiązało się z gorszymi skutkami dla ich psychiki”.
Jedną z najważniejszych konkluzji całego badania było to, że długie i częste korzystanie z chata wiązało się z gorszym samopoczuciem psychicznym – niezależnie od tematu rozmowy z czatem czy jej formy (głosowa lub tekstowa). Istnieją więc podstawy do tego, aby uznać, że nadużywanie technologii AI w życiu codziennym nas unieszczęśliwia.
Czytaj także: Sam Altman i jego 12 życiowych lekcji. Jak odnieść sukces w dobie rozwoju AI?
Twórcy ChataGPT zdają się rozumieć narastający problem i dlatego zainicjowali badania na temat wpływu AI na stan psychiczny jego użytkowników. Wyrazili nadzieję, że temat zostanie podjęty przez środowiska akademickie i te związane z branżą nowych technologii, aby w jeszcze bardziej pogłębiony i zniuansowany sposób badać zależności zachodzące na linii człowiek – AI. „Koncentrujemy się na tworzeniu AI, które maksymalizuje korzyści dla użytkowników, jednocześnie minimalizując potencjalne szkody, zwłaszcza w zakresie dobrostanu psychicznego i nadmiernego uzależnienia od technologii. Przeprowadziliśmy te badania, aby zawczasu odpowiedzieć na pojawiające się wyzwania – zarówno dla OpenAI, jak i dla całej branży” – podsumowali autorzy raportu.
Artykuł opracowany na podstawie: „Early methods for studying affective use and emotional well-being on ChatGPT”, https://openai.com/index/affective-use-study/ [dostęp 25.03.2025].