1. Zwierciadlo.pl
  2. >
  3. Styl Życia
  4. >
  5. Sztuczna inteligencja – umysł psychopaty czy urządzenie elektryczne? Rozmowa z prof. Jarosławem Gryzem

Sztuczna inteligencja – umysł psychopaty czy urządzenie elektryczne? Rozmowa z prof. Jarosławem Gryzem

Nasza podstawowa przewaga nad maszyną jest taka, że mamy wiedzę wrodzoną. Człowiek od urodzenia potrafi chociażby  rozpoznawać twarze, a sztuczna inteligencja wszystkiego musi uczyć się od zera. (Ilustracja: iStock)
Nasza podstawowa przewaga nad maszyną jest taka, że mamy wiedzę wrodzoną. Człowiek od urodzenia potrafi chociażby rozpoznawać twarze, a sztuczna inteligencja wszystkiego musi uczyć się od zera. (Ilustracja: iStock)
Robot w dziale obsługi klienta, artykuł napisany przez ChatGPT, wirtualna DJ-ka – to już się dzieje. A sztuczna inteligencja tak przyspiesza, że maszyny będą coraz śmielej przejmować nasze zadania. Na czym zatem może polegać przewaga człowieka? – pytamy profesora informatyki i filozofii na York University w Toronto Jarosława Gryza.

Czy naprawdę powinniśmy bać się sztucznej inteligencji?
Ludzie byli przerażeni, kiedy pojawiły się pociągi, a potem samoloty. Nigdy nie wiemy, co będzie dalej, a przy wprowadzaniu każdej nowej technologii są panikarze i – entuzjaści. W przypadku sztucznej inteligencji panikarze wieszczą, że ona opanuje świat, a entuzjaści twierdzą, że dzięki niej znacznie podwyższy się nam poziom życia, np. nie będziemy musieli tak dużo pracować. Myślę, że ani jedno, ani drugie nie jest prawdą; z pewnością jednak jakoś się dostosujemy.

Zdaniem wielu psychologów sztuczna inteligencja to umysł psychopaty, czyli supersprawność bez ducha i sumienia. Brzmi złowieszczo. Niektórzy prognozują, że jeżeli damy sztucznej inteligencji decyzyjność i zapytamy np. jak zmniejszyć zużycie energii na świecie, to boty pozabijają ludzi.
Kiedy człowiek dostaje jakieś zadanie, wie, jakie są ograniczenia, np. moralne. Sztuczna inteligencja nie ma tego rodzaju barier, bo nikt jej tego nie nauczył. Jeżeli robot otrzyma komendę: „Wyprodukuj ze wszystkiego zszywacze biurowe” i nie dostanie żadnego zastrzeżenia, że ma coś czy kogoś chronić – to faktycznie będzie ze wszystkiego próbował robić zszywacze biurowe.

Żadne komisje, przepisy nie nakładają obowiązku takich ograniczeń?
Jest ich bez liku. Nawet w RODO jest np. klauzula mówiąca o tym, że jeżeli jakakolwiek decyzja dotycząca człowieka podejmowana jest przez system softwerów, to człowiek ma prawo wiedzieć, czym się kierował ten system, podejmując decyzję. Jednak tak naprawdę to niemożliwe do wyśledzenia, bo znakomita większość systemów, które te decyzje podejmują – tak zwanych systemów klasyfikacyjnych – zbudowana jest na bazie sieci neuronowych, które działają tak jak nasz mózg: dane na wejściu przesuwają się przez kolejne warstwy, są regulowane różnymi wagami – co osiąga się za pomocą algorytmu – i na koniec wychodzi np. odpowiedź tak/nie. I podobnie jak w mózgu: to, co się dzieje w środku, jest niewiarygodnie skomplikowane i praktycznie niemożliwe do wytłumaczenia.

Upraszczając, chodzi o to, że algorytm stopniowo redukuje liczbę danych, aby otrzymać odpowiedź tak/nie, jednak nie sposób opisać, jak dokładnie odbywa się to na poszczególnych etapach, stąd porównanie do funkcjonowania mózgu, gdzie wiemy, że pewne efekty są skorelowane z określonymi okolicznościami, choć nie umiemy opisać procesu.
Sieci neuronowe, wykorzystane do budowy ChatGPT 3 (jest już 4) to 175 mld wag, co można z grubsza porównać do liczby neuronów w mózgu. Przy czym mózg człowieka zbudowany jest z organicznej materii i przesyłanie sygnałów jest powolniejsze niż w sieciach neuronowych maszyny. Poza tym jako ludzie mamy ograniczoną liczbę neuronów, a maszyna może być zbudowana z niemal dowolnie wielkiej sieci neuronowej. W rezultacie uczy się znacznie szybciej od człowieka.

Ale nie jest twórcza.
Zależy co mamy na myśli, mówiąc „twórcza”. Jeżeli uważamy że człowiek, który pisze książki, jest twórczy – to na Amazonie jest już prawie tysiąc książek, których współautorem jest ChatGPT. Najczęściej są to książki dla dzieci. I dobrze się sprzedają, co oznacza, że są na tyle dobre, że ludzie chcą je czytać.

Próbowałam wykorzystać ChatGPT do pisania krótkich tekstów i dostałam merytorycznie poprawną treść ale bez żadnych emocji.
Pamiętaj, że to twórcy nałożyli na ChatGPT wiele ograniczeń dotyczących tego, czego on nie może powiedzieć ani jak zareagować: nie może się złościć, nie może okazywać tzw. negatywnych emocji – nie da się go zirytować czy wyprowadzić z równowagi. ChatGPT jest bardzo grzeczny – jest tak nauczony i nie może tego zmienić, nie da się nadać mu osobowości. On zbiera dane zapisane w Internecie.

Zgodzisz się zatem z tym, że spośród zawodów, w których boty zastąpią człowieka, najbardziej zagrożony jest zawód dziennikarza czy może raczej powinnam powiedzieć: pracownika mediów?
Jestem o tym przekonany. Odkąd gazety przeniosły się do Internetu, ludzie przestali czytać długie, skomplikowane teksty. Poszukują głównie informacji, a tych sztuczna inteligencja spokojnie może im dostarczyć.

Kelsey Piper, amerykańska dziennikarka pisząca o nowych technologiach, zaproponowała uniwersalną formułę opisującą zawody, w których ludzie stracą pracę na rzecz sztucznej inteligencji w ciągu najbliższych 10 lat. I zgodnie z tą formułą będzie to każda aktywność, którą można wykonywać zdalnie i która nie ma bezpośrednich efektów w świecie fizycznym. Jeśli jest to praca wykonywana zdalnie, to znaczy, że jej wynik to tylko bity przechowywane w komputerze i teoretycznie mogą być generowane przez system taki jak GPT. Ograniczenie, jakie nakładamy tu na brak efektów w świecie fizycznym, to w pewnym sensie zabezpieczenie przed przejęciem kontroli nad światem fizycznym przez maszyny.

Kogo zatem obejmuje ta definicja? Gdyby nie pandemia, musielibyśmy spekulować, co się da, a czego nie da się robić zdalnie. Teraz możemy z dużą dozą pewności powiedzieć: jeśli przez całą drugą połowę 2020 roku pracowałeś z domu, to za 10 lat nie będziesz pracował wcale.

Sztuczna inteligencja wywraca do góry nogami także system edukacji, zwłaszcza w dziedzinie pisania prac licencjackich czy magisterskich. Przeprowadzono niedawno dwa eksperymenty: wygenerowano naukowe teksty medyczne i z dziedziny finansów, a następnie dano do oceny miks tych tekstów, napisanych odpowiednio przez ChatGPT i przez człowieka. Wśród prac medycznych recenzenci zidentyfikowali 68 proc. tekstów sztucznych jako sztuczne, ale za takie uznali również 11 proc. tych pisanych przez ludzi. Jeśli zaś chodzi o prace z dziedziny finansów – w których najwyraźniej jest łatwiej oszukać – w jednym przypadku pod kątem kreatywności idei badacze wyżej ocenili teksty GPT niż tekst pisany przez człowieka. To stanowi ogromne zagrożenie dla uniwersytetów, bo dziś to, czy ktoś jest naukowcem, weryfikujemy na podstawie pisanych prac. Jeśli będą je pisać boty, to przyszłość nauki stoi pod znakiem zapytania. Niestety nikt nie zdaje sobie sprawy z tego problemu.

Właściwie cały system edukacji może się zawalić.
„Koniec z językiem angielskim w szkołach średnich”, „Uniwersytecki esej jest martwy” – to typowe katastroficzne nagłówki z ostatnich miesięcy w Stanach Zjednoczonych. Wśród nauczycieli przedmiotów humanistycznych wielu szkół i uczelni amerykańskich panuje nastrój paniki bądź rezygnacji. Umiejętność pisania, w szczególności pisania wypracowań, była od pokoleń fundamentem humanistycznej pedagogiki. To w ten sposób uczono dzieci dociekania, argumentacji, klarowności wypowiedzi – czyli po prostu myślenia. Powszechnie dostępny ChatGPT zakwestionował tę tradycję: tak jak kalkulator uwolnił nas od konieczności liczenia, tak algorytm generujący teksty uwolni nas od konieczności pisania – mówią jego entuzjaści.

Swoją drogą symptomatyczne jest, że pojawienie się kalkulatorów wywołało początkowe obawy, że ludzie przestaną umieć liczyć, a ostatecznie okazało się, że samo liczenie nie jest nam do niczego potrzebne. Jednak pisanie to zupełnie co innego – kiedy piszesz, formułujesz myśli, uświadamiasz sobie, co czujesz. Jeśli nie będziesz tego robić przez całą edukację, to będzie to dużo większa strata niż strata umiejętności liczenia.

Jakie potencjalne zagrożenia z tego wynikają?
Kilka lat temu Microsoft opatentował chatbot, który umożliwia prowadzenie rozmowy z osobą zmarłą. Urządzenie to najpierw zbiera informacje o zmarłym z jego listów, nagrań głosu, zdjęć czy wpisów w mediach społecznościowych. Dane te służą do „nauki” osobowości konkretnej osoby, w szczególności tonu głosu, dykcji, stylu mówienia, długości i złożoności zdań czy wreszcie tematów rozmów. Przy odpowiedniej ilości danych chatbot może wygenerować dwu– a nawet trójwymiarowy model zmarłego. Microsoft nigdy jednak nie zdecydował się na komercjalizację tego patentu, a cały pomysł wydaje się dość makabryczny, bo chatbot wpada w tzw. dolinę niesamowitości. Termin ten stworzył w 1970 roku japoński profesor robotyki Masahiro Mori, który zauważył, że nasza empatia w stosunku do robota rośnie w miarę jego rosnącego podobieństwa do człowieka. Ale tylko do pewnego momentu, bo kiedy robot zaczyna przypominać człowieka zewnętrznie – tak jak zombi czy nieboszczyk – empatia zamienia się w odrazę i strach. Co ciekawe, ponownie przekształca się w empatię, kiedy robot jest praktycznie nieodróżnialny od człowieka – stąd „dolina” w krzywej poziomu empatii. Zatem jeśli rozmowa z chatbotem jest zbyt realistyczna, spodziewamy się zobaczyć prawdziwego człowieka, a tego tu nie ma...

Rzeczywiście to brzmi makabrycznie.
Ale może też być niebezpieczne. Wyobraź sobie, że dzwoni do ciebie ktoś, kto podaje się za twojego syna i prosi o przesłanie mu jakiejś sumy pieniędzy. Nie masz wątpliwości, że to głos tej osoby, idziesz do komputera i robisz przelew. A można wykorzystać nie tylko głos, ale także wygląd konkretnej osoby np. stosując hologram. Myślę, że to jest kwestia czasu – za dwa, trzy lata stanie się to realne. I to jest moim zdaniem największe zagrożenie, na które kompletnie nie jesteśmy przygotowani.

Maszyna myśli znacznie szybciej od człowieka i znacznie szybciej również się uczy, może więc lęk o to, że roboty w pełni nas zastąpią, wcale nie jest taki nieuzasadniony. W czym dziś mamy przewagę nad SI?
Podstawową przewagą człowieka nad maszyną jest to, że ma on wiedzę wrodzoną – np. od urodzenia potrafimy rozpoznawać twarze a sztuczna inteligencja musi wszystkiego nauczyć się od zera. Psycholog dziecięca Alison Gopnik zrobiła eksperyment, w którym badano kilkutygodniowe niemowlęta: patrzyły na ekran, za którym puszczano piłkę – przez chwilę nie było jej widać, a następnie pojawiała się po drugiej stronie. Za którymś razem piłkę zatrzymano tak, że się nie pojawiła, a wtedy dziecko wydawało się zaskoczone, bo dłużej patrzyło na ekran. To jest właśnie wiedza wrodzona – a nie nabyta – o tym, że przedmioty tak po prostu nie znikają. Kolejną przewagą człowieka są emocje, przy pomocy których m.in. podejmujemy swoje decyzje. SI emocji nie ma.

Maszyny nie będą dla nas zagrożeniem dopóki nie będą autonomiczne. W tej chwili sztuczna inteligencja jest zamknięta w maszynie – wystarczy wyjąć wtyczkę z kontaktu.

Jarosław Gryz, profesor informatyki i filozofii na York University w Toronto, zajmuje się zagadnieniami związanymi z analizą i wizualizacją danych. Jego popularnonaukowe i publicystyczne teksty ukazywały się m.in. w „Tygodniku Powszechnym”.

Share on Facebook Send on Messenger Share by email
Autopromocja
Autopromocja

ZAMÓW

WYDANIE DRUKOWANE E-WYDANIE
  • Polecane
  • Popularne
  • Najnowsze