1. Zwierciadlo.pl
  2. >
  3. Styl Życia

Mój przyjaciel robot. O sztucznej inteligencji rozmawiamy z kognitywistą prof. Piotrem Przybyszem

Specjaliści od SI zwykle przyjmują, że wszystkie procesy umysłu związane z myśleniem, językiem, wyobraźnią czy kreatywnością są na głębokim poziomie dyskretnymi operacjami obliczeniowymi. (Ilustracja: iStock)
Specjaliści od SI zwykle przyjmują, że wszystkie procesy umysłu związane z myśleniem, językiem, wyobraźnią czy kreatywnością są na głębokim poziomie dyskretnymi operacjami obliczeniowymi. (Ilustracja: iStock)
Jakie IQ ma sztuczna inteligencja? Gdzie leżą granice wirtualnej rzeczywistości? Czy maszyny są kreatywne? Kto skontroluje rozwój technologii? O odpowiedź na mnożące się pytania o to, jak w przyszłości będą kształtować się nasze relacje z komputerami – poprosiliśmy filozofa i kognitywistę, prof. Piotra Przybysza.

Czy dyskusje, które toczą się w mediach w związku z pojawieniem się programu ChatGPT – który łączy funkcje zaawansowanego komunikatora, wyszukiwarki internetowej i bazy wiedzy – mają znaczenie dla tzw. zwykłych ludzi? Czy sztuczna inteligencja to na razie temat dla specjalistów?
Zainteresowanie szeroko rozumianej opinii publicznej sprawami sztucznej inteligencji, SI, powraca falami, a każda taka fala wywoływana jest zazwyczaj jakimś spektakularnym osiągnięciem inżynierów i programistów. Tak było np., gdy komputer Deep Blue pokonał mistrza szachowego Garrija Kasparowa. I tak jest teraz – możliwość tekstowej konwersacji, również w języku polskim, ze sztuczną inteligencją poprzez ChatGPT robi duże wrażenie na użytkownikach.

Uważam, że w całym tym zgiełku wokół ChatGPT, poza dawką technologicznej ekscytacji, zaczęły pojawiać się pytania, które mogą zainteresować nie tylko ekspertów z branży IT, ale również zwykłych zjadaczy chleba.

Jakie na przykład?
Po pierwsze, wielu z nas zastanawia się, dokąd to wszystko nas doprowadzi, czyli jak będą w przyszłości kształtowały się nasze relacje z komputerami i smartfonami. Jaka będzie rola technologii sterujących i kontrolujących nasze życie? Na ile zatopimy się w alternatywnym świecie cyfrowej rozrywki, gier, portali społecznościowych i wirtualnej rzeczywistości? Czy sztuczna inteligencja zabierze nam pracę?

Drugi zestaw pytań dotyczy tego, jak działa ta mityczna sztuczna inteligencja oraz jakie są jej przewagi, podobieństwa i różnice względem inteligencji ludzkiej. To porównywanie własnych możliwości z umiejętnościami cyfrowych awatarów nie jest nowe i jest obecne cały czas w naszym myśleniu i w kulturze.

Po trzecie, ludzi interesuje również to, czy te programy i urządzenia są faktycznie inteligentne i kreatywne, czy to tylko skomplikowane obliczenia i zaawansowana komputerowa symulacja. No i po czwarte, w jaki sposób będzie można kontrolować rozwój SI?

Sądzę, że te cztery problemy mogą okazać się krytyczne dla naszego życia w dłuższej perspektywie. Mają też liczne konsekwencje psychologiczne, kulturowe, społeczne, technologiczno-cywilizacyjne, a nawet filozoficzne. I dlatego nie dziwię się, że zwykli ludzie z otwartymi głowami też czasami o tym myślą i o to pytają.

Rozpocznijmy od tego skąd wiemy, że SI jest rzeczywiście inteligentna i jak to mierzyć. Legendarny nieżyjący już fizyk Stephen Hawking miał IQ w wysokości 160. A jaki IQ miałaby sztuczna inteligencja?
Badanie SI za pomocą standardowych testów na inteligencję nie jest dobrym pomysłem. Faktycznie, próbowano to robić, ale wyniki osiągane przez maszyny nie były wtedy jakieś nadzwyczajne.

Problem polega na tym, że testy na inteligencję są skrojone na ludzką miarę i w zastosowaniu do inteligentnych maszyn użyteczność takich testów jest ograniczona. Nie tylko dlatego, że są wyskalowane dla pomiaru ludzkiej inteligencji, ale też dlatego, że nie można po prostu podejść do urządzenia z SI i przebadać jego inteligencji. Należy napisać w tym celu specjalistyczny program, który jednak poza zdawaniem testów na inteligencję do niczego innego już się nie nada.

To zresztą pokazuje kluczowe ograniczenie obecnej sztucznej inteligencji, a mianowicie to, że jest to tzw. wąska sztuczna inteligencja (ang. narrow artificial intelligence). Jest ona ciągle mało elastyczna, sprawnie realizuje cele tylko w określonym, wąskim zakresie i jest niezdolna wyjść poza zadania, do których została zaprojektowana. To ją różni od człowieka, którego siłą jest z kolei inteligencja ogólna, czyli taka, która funkcjonuje w wielu domenach i kontekstach, a także potrafi przenosić rozwiązania z jednej dziedziny do drugiej. I do tego właśnie dążą dziś programiści i inżynierowie – chcą zbudować ogólną sztuczną inteligencję (ang. general artificial intelligence), która byłaby też zarazem autonomiczna i samoucząca się, i w rezultacie mogłaby wyjść poza wąskie zakresy jej zastosowań. To byłaby rzeczywiście rewolucja, choć do tego chyba jeszcze daleko.

A kiedy mogłaby pojawić się taka ogólna sztuczna inteligencja?
Badacze SI snują różne spekulacje na ten temat. Wielu z nich przypuszcza, że może się to stać już do 2030 roku, ale są też głosy bardziej sceptyczne, według których ogólna sztuczna inteligencja pojawi się dopiero pod koniec XXI wieku. Ze swojej strony zwrócę jedynie uwagę na to, że nie musi to być jednorazowe wydarzenie, ale długotrwały stopniowy proces.

Weźmy np. wspomniany na początku ChatGPT. Jeśli chodzi o komunikowanie się z człowiekiem, to ten chatbot jest dość elastyczny i wielozadaniowy: potrafi sensownie odpowiadać na pytania, dokończyć zdanie lub nawet całą opowieść, napisze streszczenie trudnego tekstu, przetłumaczy go, zaproponuje przepis na dobry obiad, sprawdzi skrypt programu i przeanalizuje dane albo zapamięta naszą wcześniejszą konwersację. Sądzę więc, że program ten już dziś jest pewnym krokiem w stronę inteligencji wielozadaniowej i ogólnej.

Jeszcze wrócę do kwestii poziomu inteligencji SI. Skoro nie nadają się do tego standardowe testy, to co ma nas przekonać, że naprawdę mówimy o inteligencji na zaawansowanym poziomie?
Wydaje się, że na dziś dysponujemy dwiema takimi metodami. Pierwsza z nich, w największym stopniu kształtująca nasze wyobrażenia o relacjach człowiek-komputer, opiera się na tzw. teście Turinga. Pytamy wtedy, czy maszyna radzi sobie z tym wszystkim, co robią ludzie, czy umiejętnie naśladuje i symuluje ona ludzkie zachowania, np. podczas konwersacji z człowiekiem. Jeśli maszyna sprawnie się z nami komunikuje, rozwiązuje problemy czy zachowuje się podobnie jak ludzie – do tego stopnia, że mamy kłopot z odróżnieniem, czy robi to człowiek, czy maszyna – to będziemy skłonni uznać, że osiągnęła ona wysoki poziom inteligencji.

Druga metoda jest bardziej radykalna. Schemat testu Turinga posiada bowiem tę kluczową cechę, że ocena, czy rozmawiamy z maszyną, czy z inteligentną osobą pozostawiona jest nadal ludziom. Wielu inżynierów i programistów traktuje to jako ograniczenie, i próbuje eliminować z tego ciągu człowieka jako „słabe ogniwo”. Przykładowo ulepszona wersja słynnego programu AlphaGo Zero, który pokonał mistrzów go, uczyła się tej gry poprzez symulację rozgrywek sama ze sobą. Trzy dni takiego treningu wystarczyły jej, aby osiągnąć poziom arcymistrzowski i wygrać rozgrywkę z wcześniejszą wersją AlphaGo, która ograła człowieka. A zatem ucząc się, tym razem bez udziału człowieka, maszyna przekroczyła znacznie poziom ludzkich graczy. Zgodnie z tą logiką SI miałyby się uczyć w ramach własnych symulacji lub poprzez testowanie jej przez inne programy.

Chyba w tym kontekście niektórzy analitycy mówią, że SI różni się od wcześniejszych znanych nam narzędzi – które można wykorzystać w dobrym albo złym celu – tym, że nie do końca znamy granice uczenia maszynowego.
Zgadza się. Dotyczy to szczególnie rodzaju uczenia maszynowego zwanego uczeniem głębokim. Polega ono na tym, że w określonym stopniu rezygnuje się z nadzorowania przez człowieka procesu uczenia się maszyny i pozostawia się jej sporo swobody w rozwijaniu kolejnych umiejętności. Jednak ceną, jaką za to płacimy, jest nieprzejrzystość tego, co maszyna robi.

Anegdotą w środowisku programistów i badaczy SI jest do dziś historia, jaka wydarzyła się kilka lat temu, gdy Facebook testował zdolności konwersacyjne swoich chatbotów. Podczas trenowania umiejętności rozmowy, zaczęły one porozumiewać się między sobą niezrozumiałym dla człowieka tekstowym slangiem. Do dzisiaj nie wiadomo, czy same wytworzyły w trakcie rozmowy jedynie sobie zrozumiały język komunikacji, czy tylko bełkotały… Ale też nie popadajmy w przesadę. Ta wizja masowego uczenia maszyn przez inne maszyny to obecnie jeszcze tzw. pieśń przyszłości.

W praktyce uczenie głębokie łączy się najczęściej z technikami uzupełniającymi, które umożliwiają jakąś formę kontroli nad maszyną. Przykładowo, w przypadku ChatGPT stosuje się tzw. uczenie ze wzmacnianiem. Można w ten sposób wpływać na preferowane ścieżki wyborów dokonywanych przez ten program. Jakiś czas temu jeden z profesorów przyznał na Twitterze, że firma OpenAI, czyli właściciel ChatGPT, próbowała zatrudnić go tylko po to, aby SI obserwowała jego sposób odpowiadania na pytania i w ten sposób się uczyła. A na początku tego roku tygodnik „Time” opublikował artykuł pokazujący, że OpenAI zatrudniało masę nisko opłacanych ludzi do tzw. anotowania danych (opisywania, co dokładnie przedstawia dany obraz, jakie emocje wyrażają bohaterowie itd. – red.), na których następnie odbywał się trening tego programu. Jak zatem widać, nie daje się tak prosto wyeliminować z procesu uczenia maszyn tego ogniwa, którym jest człowiek. Gdyby to się udało, w dłuższej perspektywie skutki mogłyby być dla nas opłakane. I groźne.

Wyobrażam sobie, że w zadaniach matematyczno-logicznych czy w grach logiczno-strategicznych SI wygrywa z człowiekiem. Co jednak z pozostałymi typami inteligencji, choćby inteligencją wizualno-przestrzenną, językową czy muzyczną, która, owszem, polega w dużej mierze na zapamiętywaniu i przetwarzaniu tego, co się widzi i słyszy, ale i wymaga tworzenia czegoś „z niczego”?
Na pierwszy rzut oka takie rozdzielenie u człowieka kompetencji logiczno-matematycznych z jednej strony oraz językowych, emocjonalnych czy muzycznych z drugiej – brzmi przekonująco i sensownie. Jednak specjaliści od SI podążają w innym kierunku. Zwykle przyjmują oni dość radykalne filozoficzne założenie na temat ludzkiego umysłu i myślenia, języka, wyobraźni czy kreatywności. A mianowicie – że wszystkie te procesy są na głębokim poziomie dyskretnymi operacjami obliczeniowymi.

Konsekwencje przyjęcia tego, wydawałoby się niewinnego, założenia są olbrzymie. Jeśli bowiem te kluczowe procesy u ludzi byłyby dyskretnymi obliczeniami, to nic w zasadzie nie stoi na przeszkodzie, żeby również inteligentne maszyny, specjalizujące się przecież w obliczeniach – na odpowiednio zaawansowanym etapie rozwoju, i odpowiednio zaprogramowane – zaczęły myśleć, widzieć, posługiwać się językiem i wyobraźnią; żeby zaczęły być kreatywne, a nawet świadome tak jak my. Wtedy różnica między kompetencjami logiczno-matematycznymi a tworzeniem zdań czy uprawianiem muzyki przestaje być aż tak istotna.

Długo odmawiano SI umiejętności myślenia. Ponad 10 lat temu komputer IBM wygrał jednak w amerykańskim teleturnieju Jeopardy, którego formuła polega na tym, że trzeba podać rozwiązanie w postaci pytania dopasowanego do podanej przez prowadzącego wskazówki – tak jak w emitowanym w Polsce Va Banque. Czyli trzeba wykonać bardziej skomplikowany proces myślowy niż znalezienie poprawnej odpowiedzi po przeanalizowaniu nawet olbrzymiej bazy danych. Czy można powiedzieć, że maszyna wykazała się pewną kreatywnością?
Nie chcę pani rozczarować, ale nie było to efektem myślenia i kreatywności, przynajmniej tak jak my, ludzie, je rozumiemy. Komputer o nazwie Watson został wyposażony w tym przypadku w architekturę DeepQA, dzięki której był w stanie przeprowadzić analizę wskazówki podanej przez prowadzącego na podstawie analizy języka naturalnego. Potrafił także wygenerować zbiór możliwych odpowiedzi, korzystając z dostępu do wielkich zbiorów danych tekstowych, zaczerpniętych np. z Wikipedii, jak również niezwykle szybko wyselekcjonować z tego zbioru najlepszą odpowiedź oparty na analizie statystycznej. Nawet udzielenie odpowiedzi w formie pytania – co wymuszała ta nieco dziwaczna konwencja teleturnieju – było sprawą mechanicznych przekształceń języka, a nie jego rozumienia przez maszynę. A zatem, jeśli wejrzeć „pod podszewkę” i przeanalizować pracę komputera, trudno dopatrzeć się tutaj efektu „eureka!”, którego doszukujemy się w przypadku działań kreatywnych. No chyba że uznamy – tak jak wspomniałem poprzednio – że kreatywność opiera się na dyskretnie przeprowadzanych obliczeniach.

Ów efekt „eureka” często wiąże się z tym, że wcześniej pojawia się jakiś błąd, na który w określony sposób zareagujemy. Tak powstało wiele wynalazków, doszło do odkryć naukowych. Skoro maszyna jest zaprogramowana do określonego celu, to wydaje się, że w przypadku wystąpienia usterki, system będzie chciał to jak najszybciej naprawić. Czy jest tu w ogóle miejsce na twórcze wykorzystanie błędu?
To niezwykle ciekawa sprawa. Jest takie powiedzenie, że ludzie uczą się na błędach lub że uczą się metodą prób i błędów. I wydaje się, że tego samego oczekujemy od sztucznej inteligencji. Standardowo jeśli SI popełnia błędy i pomyłki, to w fazie nauki po prostu dotrenowuje się ją np. na jeszcze większych porcjach danych lub w ramach uczenia się ze wzmacnianiem. W ten sposób zmusza się ją do optymalizacji wykonania zadania i do pomniejszania marginesu błędu w przyszłości. Tak jak obecnie w przypadku ChatGPT, gdzie zespoły analityków dbają o to, aby model języka mógł przechodzić trening na ciągle ulepszanych i skorygowanych zbiorach danych.

Ale co by było, gdybyśmy pozostawili SI więcej swobody? Czy jest ona zdolna – jak pani mówi – do twórczego wykorzystania błędu? Na pierwszy rzut oka wydaje się to przeczyć naszemu racjonalistyczemu przekonaniu, że z błędu czy fałszu nic dobrego nie może wyniknąć. Ale w działaniach twórczych – lub nawet podczas rozmowy z drugim człowiekiem – pomyłka czy błąd mogą przynieść zabawne, inspirujące rozwiązania.

Ciekawe na przykład, że podczas konwersacji z modelami językowymi z rodziny GPT-3, z których wyrósł także ChatGPT, użytkownik może samodzielnie określić poziom kreatywności. I wtedy przy jednych ustawieniach odpowiedzi programu bedą bardziej ścisłe i deterministyczne, a przy innych – bardziej losowe i elastyczne. Ale czy można nazwać to ostatnie „improwizacją” lub „twórczym wykorzystaniem błędu”? Mam wątpliwości. Sądzę, że bardziej wiąże się to ze zwiększeniem losowości i przypadkowości tego „kalkulatora tekstów”, tej „stochastycznej papugi” – jak z rezerwą nazywany jest ChatGPT – co w tym przypadku oznacza jedynie, że program uwzględni mniej standardowe zbitki słów. Zapewne za cenę większego ryzyka błędu lub nieporozumienia w konwersacji z człowiekiem.

Czy zatem sztuczna inteligencja może być w ogóle kreatywna?
Sądzę, że w przypadku programów takich jak ChatGPT lub np. Midjourney, który służy do generowania obrazów na podstawie wskazówek tekstowych, mamy do czynienia z dość wąskim rozumieniem kreatywności zwanym niekiedy „kreatywnością kombinacyjną”. Polega ona na tym, że coś nowego powstaje na podstawie czegoś już istniejącego, poprzez nowe zestawienia i połączenia dostępnych wcześniej elementów. ChatGPT czy Midjourney generują odpowiedzi tekstowe lub grafikę na podstawie olbrzymich zbiów danych – np. dostępnych poprzez internet książek, encyklopedii, stron internetowych, czatów programów społecznościowych, zbiorów zdjęć i grafik, itd. – na których zostały wytrenowane. Mimo że generowane w ten sposób zdania są sensowne i poprawne, a obrazy bywają atrakcyjne wizualnie i oryginalne, to sądzę, że są one przykładem dość ograniczonego i ciągle odtwórczego rozumienia kreatywności. Dopiero przyszłość pokaże, czy SI stać na więcej.

Prof. Piotr Przybysz, filozof i kognitywista; na Wydziale Filozoficznym UAM zajmuje się neurokognitywistyką społeczną i neuroestetyką; zainteresowany problemami SI.

Share on Facebook Send on Messenger Share by email
Autopromocja
Autopromocja

ZAMÓW

WYDANIE DRUKOWANE E-WYDANIE
  • Polecane
  • Popularne
  • Najnowsze