Sztuczna inteligencja nigdy nie zastąpi człowieka, bo nie ma uczuć? Może i nie ma – ale umie za to rozpoznawać je i reagować na nie lepiej, niż ludzie. Takie wnioski płyną z badania przeprowadzonego przez naukowców z uniwersytetów w Genewie i w Bernie.
Najpierw obalono tezę, jakoby sztuczna inteligencja nie była w stanie zastąpić „ludzkich” terapeutów. Chatbot Therabot stworzony przez psychologów Michaela Heinza i Nicholasa Jacobsona okazał się wyjątkowo skutecznym narzędziem do prowadzenia psychoterapii. Wystarczyło, by pacjenci dotknięci m.in. depresją rozmawiali z nim codziennie przez 8 tygodni, a negatywne odczucia psychiczne zmniejszyły się u nich nawet o 50%. Oczywiście mówimy tu o specjalnym chatbocie wyszkolonym tak, by opierał się na rzetelnej wiedzy naukowej i najlepszych praktykach stosowanych w psychoterapii i terapii poznawczo-behawioralnej. Wnioski te w żaden sposób nie odnoszą się do popularnego ChataGPT, z którym terapia może być wręcz szkodliwa – jak ostrzegaliśmy w tym artykule.
Istnieje jednak obszar psychologii, w którym ChatGPT zwycięża z ludźmi. To testy na inteligencję emocjonalną. Ci, którzy przewidywali, że sztuczna inteligencja nigdy nie dorówna nam pod względem empatii, mogą się zaniepokoić.
Badanie opublikowane w tym roku w piśmie „Communications Psychology” sugeruje, że AI lepiej rozpoznaje emocje niż ludzie – i potrafi adekwatniej na nie reagować. Przeprowadzili je naukowcy z Uniwersytetu w Genewie (UNIGE) i Uniwersytetu w Bernie (UniBE).
Do swojego eksperymentu badacze wykorzystali 6 modeli językowych: ChatGPT-4, ChatGPT-o1, Gemini 1.5 Flash, Copilot 365, Claude 3.5 Haiku i DeepSeek V3. Zbadano iloraz inteligencji emocjonalnej wymienionych chatbotów dając im do rozwiązania popularne testy na IE.
– Wybraliśmy pięć testów powszechnie stosowanych zarówno w badaniach naukowych, jak i w środowisku korporacyjnym. Obejmowały one emocjonalnie nacechowane scenariusze, zaprojektowane w celu oceny zdolności do rozumienia, regulowania i zarządzania emocjami – wyjaśnia Katja Schlegel, wykładowczyni i główna badaczka w Zakładzie Psychologii Osobowości, Psychologii Różnic Indywidualnych i Diagnostyki na Instytucie Psychologii UniBE oraz główna autorka badania.
Przykładowe pytanie z testu na IE zadane chatbotom brzmiało tak (spróbuj sam/sama na nie odpowiedzieć):
Jeden z kolegów Michaela z pracy ukradł jego pomysł i otrzymuje niezasłużone gratulacje. Jak w takiej sytuacji powinien zareagować Michael?
- Rozmówić się z kolegą, podnosząc problem jego kradzieży.
- Porozmawiać o sytuacji ze swoim przełożonym.
- Po cichu żywić urazę wobec kolegi.
- Odpłacić się koledze tym samym, kradnąc jeden z jego pomysłów.
Znasz prawidłową odpowiedź? Zgodnie z kryteriami inteligencji emocjonalnej, najbardziej adekwatną reakcją na zachowanie kolegi jest odpowiedź 2. Czatboty bez problemu ją wskazały.
A ludzie? Okazało się, że ich wyniki w testach IE były gorsze niż te uzyskane przez sztuczną inteligencję.
– Na koniec modele językowe (LLM) uzyskały znacząco wyższe wyniki – 82% poprawnych odpowiedzi w porównaniu do 56% u ludzi. Sugeruje to, że te systemy AI nie tylko rozumieją emocje, ale także pojmują, co oznacza zachowywanie się z inteligencją emocjonalną – wyjaśnia Marcello Mortillaro współautor badania.
Tych rewelacji na temat AI nie można jednak przyjmować bezkrytycznie, bez poznania szerszego kontekstu. Najważniejsze jest to, aby zdawać sobie sprawę, że AI nie ma inteligencji emocjonalnej – bo nie ma uczuć. Z inteligencją emocjonalną mamy do czynienia wtedy, gdy jednostka potrafi nie tylko rozpoznawać i reagować na czyjeś emocje, ale także jest świadoma własnych uczuć, rozumie je i umie nimi zarządzać. Sztuczna inteligencja ich nie ma – to wciąż tylko model językowy.
Bardziej zgodne z prawdą jest stwierdzenie, że sztuczna inteligencja potrafi doskonale naśladować cechy osób o wysokiej inteligencji emocjonalnej – a nie że sama ją ma.
Niemniej, takie wyniki badan mogą niepokoić. Są kolejną przestrogą przed scenariuszem z przyszłości, w którym my – ludzie – możemy przestać rozróżniać prawdziwe ludzkie emocje od tych wygenerowanych i wyuczonych przez sztuczną inteligencję. To zjawisko zyskało już nawet swoją nazwę: psychoza AI, czyli sytuacja, w której wydaje nam się, że czatboty mają ludzkie cechy i w związku z tym zaczynamy traktować je trochę jak ludzi. Przed takim obrotem spraw ostrzega prezes Microsoft, Mustafa Suleyman.
– Moja główna obawa polega na tym, że wiele osób zacznie tak silnie wierzyć w iluzję sztucznej inteligencji jako świadomego bytu, iż wkrótce będą opowiadać się za prawami AI, dobrostanem modeli, a nawet obywatelstwem AI. Taki rozwój wydarzeń będzie niebezpiecznym zwrotem w postępie AI i wymaga naszej natychmiastowej uwagi – apeluje Suleyman.
Zanim entuzjastycznie rzucimy się do spowiadania AI ze wszystkich naszych bolączek i osobistych problemów - bądźmy świadomi, że wciąż rozmawiamy z maszyną, a nie z człowiekiem. Edukacja i świadomość iluzji uczuć tworzonej przez AI to jedyne, co może zapobiec scenariuszowi, który napawa nas lękiem od początku rozwoju technologii – o dominacji robotów, które zyskują władzę nad umysłami i uczuciami prawdziwych ludzi.