Inteligencja naszych czasów

Inteligencja naszych czasów
(Fot. iStock)

Sztuczna inteligencja, roboty i humanoidy zawładną światem? Nie. Samochody autonomiczne, zakupy spadające z dronów – tak. Bać się sztucznej inteligencji? Nie. To dzisiaj tylko narzędzie człowieka – mówi dr Aleksandra Przegalińska.

Sztuczna inteligencja to, sztuczna inteligencja tamto, armagedon, szansa, inwigilacja, zagrożenie, bunt robotów, zbawienie… – a właściwie co to takiego? Czy jest jedna definicja sztucznej inteligencji?
Definicji jest bardzo dużo, różnych, ale rzeczą, na którą wszyscy zdają się zwracać uwagę, kiedy myślą o odróżnieniu sztucznej inteligencji od innych systemów technicznych i informatycznych, to zdolność do adaptacji, możliwość samodzielnej zmiany związanej ze zmianami w środowisku, w jakim system sztucznej inteligencji funkcjonuje.

System sam się uczy.
Tak. Systemy sztucznej inteligencji są w stanie odpowiadać na zmienne bodźce. Nie są przystosowane jedynie do wykonywania stałej, niezmiennej, choćby nawet skomplikowanej czynności, ale mogą się rzeczywiście „uczyć”. Przykładem może być mowa: system AI (sztucznej inteligencji – artificial intelligence) przygotowuje się, uczy, a potem, kiedy zaczyna „mówić” ludzkim językiem, wciąż się ulepsza na podstawie doświadczenia zdobywanego podczas funkcjonowania.

Systemy AI są już w naszym życiu obecne. Gdzie spotykamy się z nimi najczęściej?
Są wszędzie. Gdziekolwiek się człowiek obejrzy.

Rozglądam się – tutaj w kawiarni nie widzę.
W wielu codziennych aktywnościach sztuczna inteligencja jest już obecna, od nawigacji w samochodzie, do dość rzadkich jeszcze systemów zarządzania domem. Wszystkie osoby, które wieczorami serwują sobie seriale np. w Netflixie, stykają się ze sztuczną inteligencją, nie tylko w fabułach filmów: platforma ma system rekomendacyjny, który uczy się naszych zachowań i upodobań. Każdego użytkownika wrzuca się w tzw. klastry preferencji, mogą ich być tysiące. System analizuje na przykład to, w którym momencie przerwaliśmy oglądanie danego filmu.

To jest właściwie ciągła analiza danych, jakie – chcąc lub nie – przekazujemy urządzeniom, programom, sieci.
Tak.

I tutaj pojawia się standardowe pytanie: Czy te dane nie będą kiedyś użyte przez system przeciw człowiekowi? Wiemy, że są boty, wirusy inwigilujące, są fake newsy, afera Cambridge Analytica, czyli wyciek danych z Facebooka użytych do kształtowania kampanii politycznych… Przypuśćmy, że jestem osobą obsesyjnie kochającą koty i regularnie zamawiam w sieci jedzenie dla mojego kota, udzielam się na forach itd. W kampanii wyborczej w sieci będę zasypany zdjęciami i filmami lidera politycznego z kotem na rękach, w dodatku jego kot może być sztucznie upodobniony do mojego kota…
Te dane wykorzystuje „ktoś”, a nie „coś”, prawda? Nikt z nas nie może wykluczyć, że kiedyś, za ileś lat, systemy sztucznej inteligencji będą na tyle autonomiczne, że będzie nam trudno je kontrolować. Ale dzisiaj, warto to podkreślić, to ludzie sobie nawzajem to robią: tworzą narzędzia podporządkowane im w stu procentach i wykorzystują je do złych celów. Cambridge Analytica jest tego najlepszym przykładem – narzędzie socjometryczne częściowo oparte na algorytmach sztucznej inteligencji, skonstruowane na podstawie kradzieży danych przez kilka długich lat. Ludzie, wypełniając banalne quizy na Facebooku, nie wiedzieli, komu udostępniają swoje dane. Dzisiaj nie ma mowy o jakiejkolwiek „wolnej woli” sztucznej inteligencji, choć seriale science fiction opowiadałyby co innego.

Dzisiaj. A jutro?
Na razie nikt nie zastanawia się nad tego typu autonomicznymi systemami, bo raczej nie mamy pomysłu, jak je zbudować. Sztuczna inteligencja działa na razie całkowicie inaczej niż my – organizmy żywe. Jeśli chodzi o przetwarzanie informacji, jest bardzo szybka, ale mocno ograniczona, wąsko wyspecjalizowana, nie wykazuje żadnych „odruchów” pozyskiwania nowej wiedzy.

A komputery neuronowe, działające na podobieństwo ludzkiego mózgu?
No właśnie ta zmiana może dotyczyć hardware’u, a nie software’u – może nastąpi w sytuacji, gdy podstawą budowy komputerów nie będzie krzem, tylko jakaś syntetyczna forma białkowa… neuromorficzna… – może wtedy. Ale to pieśń przyszłości. Na razie sztuczna inteligencja może wykazać się pewną inwencją, innowacyjnością, optymalizując się wewnętrznie, ale robić to może wciąż tylko w celach określonych przez człowieka i dzięki zasilaniu dostarczanemu przez człowieka.

(Fot. iStock)

Zatem zbieranie i analiza danych. System sztucznej inteligencji zbierający, analizujący i łączący dane zawsze będzie bystrzejszy od najlepszego lekarza – będzie miał w pamięci tysiąckrotnie więcej przypadków, dzięki którym poprzez analogię będzie mógł stawiać diagnozę.
To dobry przykład pozytywnego zastosowania sztucznej inteligencji. Możliwości obliczeniowe naszych mózgów nawet kolektywnie są o wiele mniejsze niż możliwości AI. Medycyna jest ciekawą dziedziną, bo pełna jest „czystych” danych, które, oczywiście, muszą być we właściwy, dokładny, precyzyjny i możliwie pełny sposób wprowadzane, by mogły podlegać analizie. I, oczywiście, lekarze będą mogli wykrywać rzadkie choroby na podstawie analizy wpisanych do systemu przypadków, dokonywanej przez systemy sztucznej inteligencji.

Te systemy będą nieomylne?
Muszą zostać przygotowane narzędzia kontroli algorytmów, które pozwolą weryfikować, czy rzeczywiście dana diagnoza była właściwa. Jakieś narzędzia, które będą tłumaczyły człowiekowi, jakie kroki wykonała sieć, by tę diagnozę postawić. Ślepe zaufanie technologii systemu algorytmicznemu nie jest wskazane ani bezpieczne.

Sztuczna inteligencja może być bystrzejsza od człowieka, ale nie będzie mądrzejsza.
Nie wiem, czy można powiedzieć, że jest bystrzejsza. Po prostu jest inna. Dla niej rzeczy, które ludzkiemu umysłowi przychodzą z wysiłkiem, są relatywnie proste. Człowiek, mając kilka sekund i wielką ilość danych, nie spostrzeże wzorca, a sztuczna inteligencja zrobi to w mig. Ale człowiek wejdzie tu, do kawiarni, usiądzie przy właściwym stoliku, zamówi kawę, odnajdzie się w ludzkim świecie. Kiedy spadnie ze stolika łyżeczka, to ją podniesie. Natomiast sztuczna inteligencja byłaby zupełnie zagubiona.

Kwestia ilości danych.
Nie do końca. Bo oprócz danych takie urządzenie musiałoby mieć jeszcze coś w stylu sprawnego ciała. Tego na razie jeszcze nie ma. Dzisiejsza robotyka jest w kłopocie. Aparat percepcyjny nie nadąża za algorytmami – mówiąc po ludzku, sztuczna inteligencja jako algorytmy nie ma ciała mogącego jej dostarczać danych. Sensory i roboty, sztuczne krowy, psy – te wytwarzane np. przez Boston Dynamics – to dopiero pierwsze kroki.

Widziałem taki francuski spot: mężczyzna mający inteligentny dom wraca ze zdrętwiałą szczęką od dentysty i nie może wejść do środka, bo system nie rozpoznaje jego głosu. Facet moknie na deszczu, gadając do drzwi.
Na razie sztuczna inteligencja wciąż ma problem z odróżnieniem psa chihuahua od ciastka – muffina z rodzynkami. Serio. Mój telefon ma funkcję rozpoznawania twarzy jako klucza do zdejmowania blokady, i bardzo mnie to bawi, bo jak tylko jestem w okularach, system totalnie się rozpada, głupieje, musi szukać innych form weryfikacji.

W Internecie można zobaczyć też filmik – Will Smith próbuje flirtować ze słynną lalką – robotem humanoidem o imieniu Sophia. Nie idzie mu najlepiej.
Śmieszne to było, ale akurat Sophia to przykład starego pomysłu, duża część architektury informatycznej Sophii ma ze 30 lat. To swoisty chat-bot ubrany w silikonową skórę. To właściwie jest technologiczna staruszka.

Dlatego sztubacki Smith nie bardzo mógł się z nią dogadać.
Michael Douglas czy Robert Redford nie poradziliby sobie lepiej. To coś innego niż np. Alexa – system Amazona, kontekstowo rozumiejący informację. Sophia jest gwiazdą, bo ludzie, oczywiście, reagują bardziej na coś, co przypomina ich samych niż na mówiące pudełko. Więc jest obwożona po gościńcu jako przykład sztucznej inteligencji, ale dla nas, praktyków, jest to przykład bardzo prosty.

Wchodzi pani do domu i mówi: „Cześć, Alexa, zapal światło, zrób w sieci zakupy, a w ogóle to jak się dziś miewasz?”.
Mąż nie chce, by działała w domu, nie pozwala mi jej za często włączać, bo uważa, że może być – powiedzmy – małym złodziejem danych. Ja ją wykorzystuję przede wszystkim właśnie do zakupów. Kiedy jestem w Massachusetts, to mówię: „Hej, Alexa, chciałabym chleb, cebulę, cytrynę i jeszcze ileś innych produktów”, potwierdzam i następnego dnia te zakupy przyjeżdżają.

Dron Amazona zrzuca je na trawnik przed domem?
Dzisiaj jeszcze nie zrzuca. Czekają w zielonej paczce pod drzwiami o ustalonej godzinie.

(Fot. iStock)

Słowo „inwigilacja”. Możliwość śledzenia tysiąca danych o tysiącach ludzi w mikrosekundę. W chińskich szkołach opaski elektroniczne podobno mierzą poziom skupienia uczniów, a komputery analizują to i mogą decydować, które dziecko powinno próbować kształcić się dalej, a które będzie robotnikiem, ludzie „dostają punkty” za zachowanie w pracy i na ulicy: przejdę na czerwonym świetle, system będzie to pamiętał za dziesięć lat, kiedy będzie wyceniał mi polisę ubezpieczeniową i tak dalej. Orwell: „bezkontekstowe”, czyli bezwzględne traktowanie człowieka.
Rozumiem te obawy, zgłaszane często w różnych mediach, ale jest jedno najważniejsze pytanie: Kto ten system wprowadzi i kto będzie mu w taki destrukcyjnie bezgraniczny sposób ufał?

Człowiek.
Oczywiście. Odnoszę wrażenie, że oprócz scenarzystów Netflixa już sporo osób zrobiło sobie z kreślenia takich technodystopijnych wizji zawód. Często są to ludzie, którzy nigdy nie napisali nawet linijki kodu programistycznego, na przykład historyk Yuval Harari, dzisiaj wielki ekspert od sztucznej inteligencji, obok której nawet nie stał.

O, nie lubi pani jednego z najpopularniejszych pisarzy futurologów na świecie.
Uważam, że jego książki są bardzo ciekawe, ale kreślone w nich wizje są szalenie proste, powiedziałabym nawet liniowe, snute na zasadzie: jak jest dzisiaj i co z tego, co jest dzisiaj, może dalej pójść źle. Bez żadnych niespodzianek. Moim zdaniem świat tak nie funkcjonuje, zaskoczenia są czymś normalnym. Widzę zagrożenia, postuluję pracę nad etycznymi rozwiązaniami i regulacjami w zakresie sztucznej inteligencji – łącznie z możliwościami inwigilacji, o których pan wspomniał, czy zasadami dla istniejących dzisiaj autonomicznych samochodów… Bo jak to będzie? Samochód w ekstremalnej sytuacji, gdy wypadek jest nie do uniknięcia, będzie oceniał i decydował, czy przejechać staruszkę, czy dziecko? Jestem ostatnią osobą, która chciałaby odsunąć te tematy na bok i zachwycać się tym, jaka to świetlana przyszłość przed nami i sztuczną inteligencją wokół. Ale wizje komputerowego piekła i bezwolnego człowieka nie wydają mi się dzisiaj sensowne. Ludzie mogą sobie tworzyć piekło i bez sztucznej inteligencji.

Aleksandra Przegalińska, doktor filozofii UW, specjalistka od sztucznej inteligencji i nowych technologii. Prowadziła badania w MIT w Bostonie, pracuje w Akademii Leona Koźmińskiego. Niedługo rozpocznie badania na Harvardzie.