fbpx

Ile bajki w bajkach o robotach? Nadzieje i lęki związane ze sztuczną inteligencją

Ile bajki w bajkach o robotach? Nadzieje i lęki związane ze sztuczną inteligencją
Maszynę można nauczyć rozpoznawania emocji na podstawie wyrazu twarzy, ale nie jest ona w stanie odpowiedzieć emocjami. Nie jest też w stanie uchwycić niuansów w komunikacji, bo nie rozumie metafory, tekst traktuje dosłownie. (Fot. iStock)

Nie wyobrażamy sobie życia bez wielozadaniowego smartfona, a zarazem przeraża nas wizja robota, który z czasem przejmie kontrolę nad światem. Stephen Hawking stwierdził, że sukces sztucznej inteligencji może być ostatnim wydarzeniem w historii ludzkości. O nadzieje i lęki związane z robotyką – pytamy dr. Marcina Jaworskiego z Uniwersytetu SWPS.

Nauka o duszy i nauka o programowaniu to dla mnie dwie różne bajki. Skąd pomysł, żeby połączyć psychologię i informatykę?
To prawda, że jest to całkiem nowe połączenie dwóch dobrze skrystalizowanych dyscyplin naukowych. Sztuczna inteligencja to praktyka badawcza i inżynierska, której celem jest stworzenie układów złożonych, maszyn realizujących cele wyznaczone przez konstruktora. Psychologia zajmuje się funkcjami poznawczymi, które sprawiają, że zachowanie człowieka uznajemy za inteligentne, a praktyka badawcza w obszarze sztucznej inteligencji dąży do tego, żeby konstrukty inżynierskie potrafiły realizować zadania typowo ludzkie. Owe zadania mogą być bardzo różne: od prostych, jak samodzielne poruszanie się po nierównym terenie, po bardziej złożone, jak klasyfikacja obiektów na zdjęciach czy wreszcie specjalistyczne – choćby diagnoza medyczna. Punktem przecięcia psychologii i sztucznej inteligencji są zachowania inteligentne, czyli takie, które prowadzą do realizacji konkretnych celów. W przypadku robotów humanoidalnych te cele wyznaczane są przez konstruktora, stąd słowo „sztuczna”, a „inteligencja” – ponieważ są one w stanie adaptować się do zmieniających się warunków i sytuacji.

Na jakich zasadach przebiega ta adaptacja? Czy to znaczy, że robot myśli?
Układy złożone konstruowane przez człowieka najczęściej bazują na wielowarstwowych sieciach neuronowych i składają się z systemów, które uwzględniają również psycholodzy mówiący o umyśle, takich jak uwaga, pamięć, przetwarzanie języka czy uczenie się. Pewne elementy przetwarzania w układach złożonych i w układzie nerwowym są do siebie zbliżone. Jeśli chodzi o myślenie w znaczeniu przetwarzania informacji, układy złożone to potrafią, ale celem badań konstruktorskich nie jest zrozumienie czy naśladowanie ludzkiej psychiki, tylko automatyzacja zadań, w których liczy się szybkość i precyzja. Pamiętajmy, że to człowiek tworzy algorytmy i dotychczas ma nad nimi kontrolę.

A czy w niedalekiej przyszłości to może się zmienić i sztuczna inteligencja przejmie kontrolę? Tego chyba – jako ludzie – najbardziej się obawiamy.
Ale co to znaczy „przejąć kontrolę”? Ja na przykład nie mam nic przeciwko temu, żeby jakaś maszyna przejęła kontrolę nad czynnościami rutynowymi, takimi jak sprzątanie, gotowanie, a nawet prowadzenie samochodu, ale też stawianie diagnozy na podstawie analizy zdjęcia RTG. Jeśli boimy się, że maszyna się usamodzielni, to istotnie warto to kontrolować, dopóki jednak realizuje zadania wyznaczone przez konstruktora, to należy się tylko cieszyć ze wzrostu jej samodzielności w różnych obszarach. To prawda, że coraz częściej sztuczna inteligencja jest w stanie wykonywać zadania lepiej niż człowiek – zarówno jeśli chodzi o szybkość, jak i precyzję, ale podstawą zawsze będzie poziom wykonania człowieka. Sposób, w jaki maszyna przyswaja i przetwarza informację, jest dokładnie monitorowany i odchylenia od przewidywalnych rezultatów są traktowane jako błędy. Jeśli na przykład maszyna prowadząca samochód pomyli rowerzystę z poruszanym przez wiatr krzakiem, to będzie błąd człowieka, a nie sztucznej inteligencji.

Przyznaję, że trochę zaniepokoiło mnie, kiedy przeczytałam, że jedynie za pierwszym razem człowiek wygrał z maszyną w szachy, a już w kolejnej rozgrywce górą była sztuczna inteligencja. Jak udało się jej tak szybko nauczyć tak skomplikowanej gry?
Ale co szkodliwego jest w detronizacji człowieka w grze w szachy czy w jakiejkolwiek innej grze? Kiedy pomyślę, że Albert Einstein był ode mnie lepszy w rozwiązywaniu równań, to mnie to cieszy. Jeśli maszyna będzie lepsza w rozwiązywaniu równań, grach, prowadzeniu samochodu czy diagnozie medycznej, to też doskonale. Ale nie ma na razie możliwości, żeby maszyna się „usamodzielniła”, bo gdyby się tak stało, pierwszy zauważyłby to konstruktor, przez cały czas monitorujący jej poczynania. Te poczynania są wyrażalne ilościowo, a ich odstępstwa od założonych celów da się precyzyjnie wyliczyć. Istnieją również mechanizmy prawne, które to kontrolują. Jeśli chodzi o sposób uczenia się sztucznej inteligencji, to istnieją dwa modele; pierwszy to uczenie nadzorowane, gdzie zadaniem układu złożonego opartego na sztucznej inteligencji jest nauczenie się definiowania obiektów, by później, kiedy pojawi się nowy obiekt należący do określonej klasy, został on rozpoznany. Ten sposób uczenia maszyny odbywa się na zasadzie pokazywania jej dużej liczby egzemplarzy danej klasy oraz nadania etykietki czy nazwy, na przykład: „to jest kot, a to jest pies”. Maszyna ma za zadanie nauczyć się kojarzyć obiekt z etykietką, czyli rozpoznawać kluczowe cechy, które składają się na kota, na psa i tak dalej − podobnie jak uczy się małe dziecko.

Drugi, bardziej owocny sposób uczenia, to uczenie ze wzmocnieniem – układ złożony zostaje postawiony w jakimś środowisku, a podstawą nauki jest tu działanie, na przykład gra – odbijanie piłeczki od muru. Maszyna nie wie, że takie jest jej zadanie, wykonuje pewne, zupełnie przypadkowe, losowe działania i nie trafia w piłkę. Wtedy dostaje komunikat: źle – i robi kolejne ruchy aż do momentu, kiedy trafi w piłkę w taki sposób, że piłka odbije się od muru. Dostaje wtedy komunikat: dobrze – który jest wzmocnieniem (feedback informacyjny). I po etapie chaotycznych prób zostają wzmocnione działania, których oczekuje konstruktor. Po pewnym czasie układ złożony zaczyna się w pewnym stopniu usamodzielniać, podobnie jak dziecko, które eksploruje otoczenie i doświadcza na przykład tego, że ogień parzy. Jednak nadal działania sztucznej inteligencji to jedynie funkcje matematyczne, wdrożone w konkretnych językach programowania. Maszyna nie ma potrzeb, poza koniecznością zasilania, nie odczuwa emocji, wszystko dzieje się na poziomie poznawczym modelowanym poprzez algorytmy. Adaptacja do zmieniających się warunków – jako istota inteligencji – przejawia się na przykład wtedy, gdy sztuczna inteligencja, nie widząc nigdy wróbelka z jednym skrzydełkiem, trafnie klasyfikuje go do grupy ptaków, czyli wychodzi poza dostarczone jej informacje i generalizuje wiedzę: wróbelek bez skrzydełka w 98 proc. pasuje do zbioru „ptaki”. Maszyny są również w stanie dostarczać sobie bodźców uczących, na przykład same ze sobą grać w grę po to, by doskonalić umiejętności. Ale i w tym przypadku to konstruktor określa ramy tej interakcji, programując komendy: „przełącz się na pozycję A i wykonaj ruch, a teraz przełącz się na pozycję B i wykonaj ruch”.

Jednym z naszych podstawowych lęków jest ten, że sztuczna inteligencja odbierze nam pracę. Długo wydawało mi się, że mojego zawodu to nie dotyczy… Ostatnio jednak zastanawiam się, czy coraz bardziej powszechna psychoterapia online nie jest pierwszym krokiem do zastąpienia terapeutów wirtualnym psychologiem?
Proszę podkreślić to grubą kreską, że w sztucznej inteligencji nie ma nic wirtualnego. To matematyka, fizyka, układy scalone i równania. Jak najbardziej fizyczna rzeczywistość. Jeśli zaś chodzi o rolę psychoterapeuty, to kluczem psychoterapii jest interwencja, klient przychodzi na sesje po to, by zmienić swoje zachowanie. Maszyna nie jest w stanie podążać za klientem w relacji. Można ją nauczyć rozpoznawania emocji na przykład na podstawie wyrazu twarzy, ale nie jest ona w stanie odpowiadać emocjami na emocję. Można zaimplementować słuchanie ze zrozumieniem, ale nie ma możliwości dialogu pozawerbalnego. Maszyna nie jest w stanie uchwycić pewnych niuansów w komunikacji, nie rozumie metafory, tekst traktuje dosłownie.

Co prawda podjęto pewne próby stworzenia systemu, który na podstawie rozmowy telefonicznej czy na czacie zdiagnozuje – bazując na słowach oraz tonie głosu, i to w przeciągu kilku sekund – czy pacjent ma skłonności samobójcze, i przekieruje go do specjalisty. Ale sam nie zdecydowałbym się pójść do terapeuty, nawet będącego połączeniem mózgów najwybitniejszych przedstawicieli tego zawodu, który nie byłby człowiekiem. Przez cały czas miałbym świadomość, że ów terapeuta co prawda działa superszybko, supersprawnie i superwydajnie (jest w stanie przeanalizować 10 milionów sesji w ciągu dwóch dni), ale nie mogę się odwołać choćby do jego doświadczeń życiowych.

I do empatii − trudno oczekiwać, że maszyna zrozumie, co czuję, a przecież relacja terapeutyczna to słuchanie ze zrozumieniem, właśnie ta empatia, ale też zaufanie.
Jeśli chodzi o relację ze sztuczną inteligencją, polecam doskonały film „Ona” z 2013 roku, w którym główny bohater, mężczyzna niedawno porzucony przez żonę, samotny i zagubiony, wchodzi w relację z systemem operacyjnym (głosem w słuchawkach dousznych) – asystentką o imieniu Samantha, która jest miła, mądra, uważna, ma intuicję i nie tylko rozpoznaje jego emocje, ale także rozumie potrzeby. Mężczyzna zaczyna traktować ją jak swoją dziewczynę i staje się szczęśliwym facetem aż do momentu, kiedy… dowiaduje się, że jego „ukochana” obsługuje jeszcze około 200 innych osób. Potrzeba wyłączności w bliskiej relacji jest kluczowa, co potrafi zrozumieć tylko psycholog, który zna się na emocjach, a nie korporacja, która produkuje wydajne sensory i interpretatory zachowań. Stąd pomysł na specjalizację na naszym kierunku. Zamierzamy kształcić psychologów, którzy będą brać aktywny udział w przygotowywaniu celów i zadań dla sztucznej inteligencji.

Rozumiem, że chwilowo maszyna nie jest w stanie zastąpić mnie w czasie sesji, ale w diagnostyce jest to bardzo prawdopodobne. Możliwe, że w tej ostatniej będzie skuteczniejsza ode mnie?
Z pewnością będzie szybsza. Poza tym zależy, co jest narzędziem, a co przedmiotem diagnozy. Na przykład test inteligencji Wechslera jest obiektywny, co oznacza, że teoretycznie nie powinno mieć znaczenia, kto przeprowadza badanie – psycholog czy maszyna. Ale na przykład jeśli chodzi o badania radiologiczne, to okazało się, że sztuczna inteligencja, analizując zdjęcia, trafniej rozpoznawała problemy skórne niż człowiek.

Czyli wszystko jest w rękach człowieka. To od konstruktorów, ale też od regulacji prawnych zależy dalszy rozwój sztucznej inteligencji. Lęki społeczne nie mają tu większego uzasadnienia. Co w takim razie będzie dalej?
Nie demonizujmy sztucznej inteligencji. Zamiast się obawiać, warto czuć dumę, że potrafimy konstruować coraz doskonalsze i coraz bardziej użyteczne maszyny. Dzięki temu, że rutynowe, proste i powtarzalne czynności przejmą maszyny, które będą wspomagały decyzję człowieka, nasz komfort życia będzie się zwiększał. Ale nie stanie się tak, że nagle połowa ludzi straci pracę – zmieni się po prostu struktura tej pracy. Wszystko jest w naszych rękach. Sztuczna inteligencja to nadal obszar badań i działalności inżynierskiej, które mają na celu realizację zadań wyznaczonych przez konstruktora. Maszyna robi to, czego nauczył ją człowiek. Jeśli konstruktorzy będą chcieli symulować emocje i jeśli uznają, że ten komponent układu złożonego mógłby wprowadzić do systemu poprawę wyników w zadaniu, to być może za jakiś czas maszyny będą w stanie zachowywać się w taki sposób, że obserwator zacznie im przypisywać określone stany emocjonalne, co przecież jest zgodne z naszą skłonnością do antropomorfizacji.

Dr Marcin Jaworski, współtwórca kierunku Psychologia i Informatyka na Uniwersytecie SWPS, Business Development Manager w Linux Polska odpowiedzialny za rozwój rozwiązań z obszaru Data Science opartych na sztucznej inteligencji.

  • Polecane
  • Popularne
  • Najnowsze