1. Zwierciadlo.pl
  2. >
  3. Psychologia
  4. >
  5. Nie mów drugiemu, co jemu niemiłe. Słowa niosą emocje

Nie mów drugiemu, co jemu niemiłe. Słowa niosą emocje

Byłoby dobrze, żebyśmy nie wchodzili w interakcję z innymi ludźmi w taki sposób jak z botem czy z odkurzaczem automatycznym. Ważne, żeby została w nas zdolność do empatyzowania, wczuwania się w innych. (Fot. iStock)
Byłoby dobrze, żebyśmy nie wchodzili w interakcję z innymi ludźmi w taki sposób jak z botem czy z odkurzaczem automatycznym. Ważne, żeby została w nas zdolność do empatyzowania, wczuwania się w innych. (Fot. iStock)
Kontakt z maszynami zamiast ludzi w wielu miejscach jest już codziennością. W niedalekiej przyszłości będziemy je spotykać jeszcze częściej. O to, jak kontakt ze sztuczną inteligencją, która nie odczuwa emocji, wpłynie na naszą relacyjną emocjonalność – pytamy kognitywistkę dr Barbarę Konat z UAM.

Czytając opisy pani badań, uświadomiłam sobie, że emocje możemy przekazywać czy wzbudzać nie tylko za pomocą mowy ciała, ale także samych słów.
Rzeczywiście, potocznie wydaje nam się, że emocje przekazujemy w mimice, w geście czy w tonie głosu. I to jest oczywiście prawda, znaczna część emocji jest w ten sposób przekazywana. Natomiast same słowa, sama komunikacja werbalna również zawierają emocje. Mniej więcej od lat 90. XX wieku w psychologii zaczęto prowadzić badania nad tym, jak oddziaływują na nas same słowa; od tego czasu robi się listy słów emocjonalnych. (Wcześniej trzeba zebrać dużo ocen: 20, 25 na słowo – żeby mieć uśrednioną ocenę, bo emocje każdy odbiera inaczej). Dzięki tym listom wiemy, że jeśli przeciętnej osobie powiemy słowo: „wymioty” czy „śluz” – to wzbudzi to wstręt, a „lato” czy „wakacje” wywołają emocje pozytywne. Są też oczywiście słowa ambiwalentne, jak „seks” – dla jednych pozytywne, dla drugich neutralne, a jeszcze w innych budzi niepokój.

A czy nasze nastawienie do tej osoby wpływa na to, jak odbieramy jej słowa?
Z pewnością tak jest, ale mnie badawczo nie interesuje, kto mówi, ale co jest mówione. Obecnie prowadzimy badania, żeby dowiedzieć się, co sprawia, że coś jest przekonujące. Jeden z trzech eksperymentów w ramach tych badań polegał na sprawdzeniu, jak można przekonać studenta do trudnych rzeczy.

Moja współpracowniczka, psycholingwistka prof. Monika Obrębska, poszła na zajęcia dla osób studiujących psychologię i powiedziała, że na koniec roku będzie wprowadzony nowy egzamin, z całości materiału. Mamy w tej sprawie trzy komunikaty i chcemy, żeby studenci pomogli nam wybrać, który będzie dla nich najlepszy. Komunikat neutralny opierał się na procentach i pokazywał, dlaczego warto przeprowadzić egzamin. Komunikat negatywny mówił, że poznańska psychologia jest w strasznym stanie, absolwenci są nieszanowani na rynku pracy i dlatego trzeba wprowadzić ten egzamin, a pozytywny akcentował, że taki egzamin jest super, że będą lepiej postrzegani na rynku pracy. Na końcu pytaliśmy, który argument jest przekonujący, a po wszystkim wyjaśniłyśmy, że egzaminu nie będzie i był to tylko eksperyment.

Okazało się, że czynnikiem najbardziej wpływającym jest osobiste zaangażowanie, czyli jeśli coś jest dla mnie ważne, to właściwie każdy argument uważam za przekonujący. Drugim równie ważnym czynnikiem jest mój nastrój – im lepszy, tym chętniej dam się przekonać. Kolejny to fakt, czy bodziec jest pozytywny. Wniosek z tych badań jest taki, że w perswazji warto jednak odwoływać się do pozytywnych argumentów.

Myślę, że większość z nas nie zdaje sobie sprawy, jakie emocje wzbudzają wypowiadane przez nas słowa. Jak rozwijać świadomosć w tym zakresie?
Nasz język ma znaczenie zarówno dla emocji naszych, jak i innych osób. I to dwóch obszarach: to, jakich używamy słów, i to, jakich używamy konstrukcji. Zastanawiajmy się zatem jak najczęściej, co czynią nasze słowa i jakie obrazy mogą budować w naszym rozmówcy czy naszej rozmówczyni. Lepiej nie używać języka, który może być raniący dla innych. Nie udawajmy, że to nie ma znaczenia albo że język jest obiektywny: „Przecież tylko coś powiedziałam, nie miałam niczego złego na myśli”.

Kolejna zasada to: mówmy do innych ludzi tak, jak oni chcą, żeby do nich mówić. Jeśli osoba prosi, żeby mówić do niej w formie żeńskiej, męskiej lub neutralnej, to uszanujmy ten fakt. Jeśli ktoś nam mówi, że konkretne słowa mają dla niego znaczenie, to nie bagatelizujmy tego. To, jakie emocje dane słowo w kimś wzbudza, nie podlega naszej ocenie, tylko ocenie tej osoby.

Już Arystoteles pisał, że w mowie możemy poruszyć a to litość, a to radość, jeśli użyjemy odpowiedniego języka. Warto to sobie uprzytomnić.

A co z emocjami w komunikacji ze sztuczną inteligencją? Czy jest szansa, że sztuczna inteligencja będzie czuć?
Moim zdaniem nie. To są mechanizmy, które udają człowieka, naśladują ludzkie zachowania. Działanie SI jest nieskomplikowane: na początku jest pusty algorytm uczący się, który niczego nie wie. Ma prostą regułę: wychwytuj wzorce i powtarzaj. Korzystając z niej, SI obserwuje wiele wzorców i potrafi je powtórzyć, a robi to miliardy razy szybciej niż człowiek. ChatGPT opiera się na tym, że widział mnóstwo ludzkich tekstów, ogrom danych, na których nauczył się wzorców, i udaje człowieka. Jeśli mówi o uczuciach, to dlatego, że widział miliony przykładów zachowania człowieka w określonej sytuacji.

SI potrafi być bardzo dobrym diagnostą w rozpoznawaniu depresji. Czy to także efekt dostępu do milionów przykładów, w których na przykład pacjent używa określonych słów?
Z Uniwersytetem SWPS w Poznaniu pracowałam przy projekcie, który nazywał się Fido, pod kierunkiem prof. Jarosława Michałowskiego i Stanisława Karkosza. Naszym celem było stworzenie chatbota Fido, który będzie rozpoznawał konkretne zniekształcenia poznawcze – kiedy na przykład osoba badana mówi: „wszyscy mnie nienawidzą” (nazywamy to czytaniem w myślach) czy „nic mi się nie udaje” (uogólnienie). Przypomnę, że sztuczna inteligencja to modele statystyczne, które są w swojej istocie bardzo proste. Mieliśmy nagrania treningowych sesji terapeutycznych, spisaliśmy je, podzieliliśmy na kawałki i trenowaliśmy tego chatbota, pokazując mu na wielu przykładach, jak wyglądają takie zniekształcenia – żeby mógł sam rozpoznać podobne w przyszłości.

Tak samo działają wszystkie inne modele diagnostyczne. Dlatego nie oznacza to, że psychoterapeuci stracą pracę. Maszyna potrafi klasyfikować, rozpoznać, można jej zaprogramować wachlarz reakcji, ale ponieważ sama nie czuje, nie ma uwagi, nie ma doświadczenia życiowego, to nie jest w stanie samodzielnie poprowadzić terapii. Tymczasem terapeuta może indywidualnie rozumieć emocje, kiedy spotyka pacjenta; już po pierwszym spotkaniu wie, w którą stronę powinna pójść terapia, a to jest zupełnie poza możliwościami modelu. Dlatego coraz częściej mówi się o tzw. metrykach personalizowanych, czyli żeby tworzyć malutkie modele wytrenowane pod konkretną społeczność – na ten temat opublikowałyśmy pracę z moją magistrantką Eweliną Gajewską. Przyszłość to modele personalizowane pod konkretny typ osobowości, po to, żeby reprezentowały konkretnych ludzi.

W wielu nurtach terapeutycznych mówi się, że terapeuta musi być jak lustro: nie może ujawniać swoich emocji czy opowiadać o sobie. Jeśli ChatGPT potrafi rozpoznać stan emocjonalny pacjenta i będzie potrafił werbalnie, używając odpowiednich słów, wspierać go, to może się wydawać, że będzie idealnym terapeutą. Do którego na dodatek – to wielki plus – pacjent będzie miał dostęp w dowolnym momencie, po wykupieniu całodobowego abonamentu.
To jest wielka przewaga wszystkich systemów automatycznych nad człowiekiem, że one nie mają limitu, rzeczywiście mogą być dostępne o dowolnej porze dnia i nocy. Uczą się szybciej od człowieka – za chwilę będziemy mieć być może aplikacje, które podglądając nas przez kamerkę w komputerze, będą obserwować również naszą mowę ciała i dzięki temu rozpoznawać nasz stan. Ale wszystkie osoby eksperckie twierdzą, że to i tak będą role bardziej asystenckie niż zastępujące człowieka. Przecież w przeglądarkach internetowych od dawna można znaleźć wszystkie objawy chorób, a mimo to większość z nas i tak korzysta z pomocy lekarza i nie leczy się samodzielnie.

Wiedza ekspercka psychoterapeuty z lat prowadzenia terapii nie jest dostępna dla maszyny. ChatGPT może pełnić funkcję pani asystentki na poziomie studenta psychologii V roku: rozmawiać z pacjentem, pytać, jak się czuje, ale jeśli coś będzie nie tak, to zgłosi się do pani – człowieka z doświadczeniem terapeutycznym i empatią.

Zatem pani zdaniem uczeń nie przerośnie mistrza?
Uważam, że nie. Każda technologia, która do tej pory się pojawiała, szła w kierunku roli asystenckiej, a nie zastępującej. Myślę, że dzięki roli SI terapia będzie skuteczniejsza. Rola terapeutów zmienia się na bardziej reaktywną, na przykład żeby analizować sygnały od systemów automatycznych, że być może pacjent potrzebuje wsparcia pomiędzy wyznaczonymi godzinami terapii. Na podobnej zasadzie jak lekarz czy osoba opiekująca się dzięki danym ze smartwatcha może się dowiedzieć, że osoba podopieczna się przewróciła i właśnie teraz wymaga pomocy.

Czy SI, która nie czuje, jest w stanie napisać poruszającą książkę, tzw. wyciskacz łez?
Tak, bo będzie udawać wszystkie wyciskacze łez, które ma w swojej bazie. To, że nie ma swoich emocji, to nie znaczy, że w nas ich nie może wzbudzić. Jednak dla prawdziwie wartościowej twórczości niezbędny pozostaje wkład człowieka. Dlatego pani może z pomocą GPT napisać dobrą książkę na przykład o traumie, ale ja nie mogę przy pomocy GPT takiej książki napisać, bo brak mi wystarczającej wiedzy. Natomiast mogę napisać dobrą książkę o roli emocji w perswazji, a pani prawdopodobnie nie. Tu ponownie widać rolę asystencką, jaką może przyjąć SI, a nie zastępującą.

W niedalekiej przyszłości w wielu miejscach, do których zwykle chodzimy, w recepcji zobaczymy maszynę, która beznamiętnym głosem zapyta każdego dokładnie tak samo: ,,Jak się masz? W czym mogę ci pomóc?”. Czy coraz częstszy i bardziej powszechny kontakt z maszynami, które potrafią rozpoznawać emocje, ale same nie czują, wpłynie na rolę emocji w kontaktach międzyludzkich?
Myślę, że ta kwestia jest otwarta, ale zacznę od zagrożenia, które już istnieje. Wielkie modele językowe, takie jak ChatGPT, są trenowane na ogólnej, dużej bazie tekstów, czyli jeśli rozpoznają emocje, to próbują ustalić, jaka jest wartość emocjonalna słowa lub tekstu dla ogółu społeczeństwa – podobnie jak w listach słów, o których mówiłam na początku rozmowy. I kogo właściwie reprezentują tworzone modele emocji? Na przykład my obydwie jesteśmy kobietami w Polsce, podobnie wyglądającymi, ale różnimy się doświadczeniem i tym, jak będziemy na różne emocje reagować. Ten fakt nie jest uwzględniany w wielkich modelach. Czyli tak naprawdę one reprezentują zwykle białego mężczyznę z Doliny Krzemowej.

Jeśli chodzi o przenoszenie relacji z SI na relacje człowieka z człowiekiem, to w interakcji z modelem możemy być niegrzeczni – kiedy na przykład rozmawiam z asystentką ludzką i zlecam jej jakieś zadanie, to muszę jej wszystko wytłumaczyć, dokładnie tak samo jak modelowi, ale potem mówię jeszcze: „Dziękuję, bardzo dobrze ci poszło, bardzo fajnie, że to wspólnie zrobiłyśmy”. A takiemu ChatGPT nawet nie muszę powiedzieć: „Dziękuję”.

Chyba dobrze byłoby, żebyśmy nie wchodzili w interakcje z innymi ludźmi w taki sposób jak z botem czy z odkurzaczem automatycznym. Ważne, żeby została w nas zdolność do empatyzowania, wczuwania się w inne osoby.

Barbara Konat, dr nauk humanistycznych, językoznawczyni, filozofka, wykładowczyni na Uniwersytecie im. Adama Mickiewicza w Poznaniu, w Laboratorium Badania Rozumowań Zakładu Logiki i Kognitywistyki prowadzi badania nad argumentacją i emocjami w języku

Share on Facebook Send on Messenger Share by email
Autopromocja
Autopromocja

ZAMÓW

WYDANIE DRUKOWANE E-WYDANIE
  • Polecane
  • Popularne
  • Najnowsze