1. Zwierciadlo.pl
  2. >
  3. Psychologia
  4. >
  5. AI też się myli, dlatego musimy ćwiczyć krytyczne myślenie. Rozmowa z prognostykiem innowacji Marcinem Maciejewskim

AI też się myli, dlatego musimy ćwiczyć krytyczne myślenie. Rozmowa z prognostykiem innowacji Marcinem Maciejewskim

Marcin Maciejewski (Fot. Kachna Baraniewicz)
Marcin Maciejewski (Fot. Kachna Baraniewicz)
Jeśli mamy uczyć się na błędach, to na pewno nie tylko na swoich, bo życia nie starczy, żeby samodzielnie spróbować wszystkiego. Jak zatem wynieść lekcję z pomyłek, które popełnia sztuczna inteligencja? O odpowiedź poprosiliśmy prognostyka innowacji cyfrowych Marcina Maciejewskiego.

Sztuczna inteligencja poczyna sobie coraz śmielej. Wielu z nas zaprzyjaźnia się z ChatemGPT i korzysta z niego na co dzień. Humanoidalne roboty, w tym najsłynniejsza Sophie, są coraz bardziej podobne do ludzi. Ale nadal niedoskonałe.
W tym drugim wypadku uwagę zwraca szczególnie wątek budowania relacji z robotem, który ma jakieś cechy ludzkie. Co ciekawe, im robot bardziej podobny do człowieka, tym nasz dyskomfort większy, bo jednak nie jest to replika jeden do jednego. To zjawisko zostało nawet nazwane Uncanny Valley, czyli Dolina Niesamowitości. Dostrzegamy drobne niedociągnięcia, błędy w wyglądzie, które wskazują na „nieludzkość” robota, jego „niesamowitość”. Pierwowzorem Uncanny Valley był efekt Elizy. W 1966 roku powstał program Eliza, który analizował wzorce w różnych zdaniach i miał naśladować prawdziwą konwersację. Miał wgrane pewne zwroty, które łączył z wypowiedziami ludzi, tworząc tym samym własne konstrukcje w formie bardzo intrygujących, zmuszających do refleksji pytań. Ludzie chętnie prowadzili z Elizą dyskusje! Okazało się, że jest nas stosunkowo łatwo przekonać, że maszyna myśli, choć tylko do czasu, gdy nie wiemy, że rozmawiamy z maszyną.

W przypadku Sophie, która ma całkiem mimiczną twarz i podobną do ludzkiej skórę, zrobiono więc taki zabieg, że nie ma ona włosów, za to odsłoniętą czaszkę z całym oprogramowaniem. Właśnie po to, byśmy za bardzo się do niej nie przywiązywali jako do humanoida. Dodatkowo Sophie została zaprogramowana w taki sposób, by dogryzać samej sobie, że jest robotem, co łagodzi element strachu, jaki pojawia się w nas, ludziach, na widok takiej innowacji.

Ta sztuczna inteligencja jest niedoskonała. Wyłapujemy jej błędy i wiralowo rozprzestrzeniają się informacje jak ta o asystentce głosowej Alexie, która proponuje użytkowniczce… wyeliminowanie swojego serca, skoro przysparza jej cierpienia.
Widzę tu potrzebę zhakowania maszyny, znalezienia w niej błędu i osadzenia całości w narracji strachu. Trochę się tego boimy, a trochę nas to stymuluje. Nie chcemy tego, ale chętnie obejrzymy o tym film. W tym miejscu warto powiedzieć o strachu jako dosyć istotnym elemencie ewolucji, która ma miejsce od jakiegoś czasu, a jest związana z przyswajaniem informacji. Na początku mieliśmy zjawisko FOMO – strach przed przegapieniem czegokolwiek, a później JOMO – radość z przegapiania. W czasie pandemii diagnozowano FORO – lęk przed wyczerpaniem, teraz mierzymy się z FOFO, który opisuje psychologiczną barierę przed badaniem się i poznaniem diagnozy. Równolegle pojawia się w nas strach pomiędzy byciem online i offline, czyli FOLO, angielskie fear of logging on i fear of login off. Nakładają się na siebie dwa bieguny zachodzących obecnie zmian. Z jednej strony część z nas chce się totalnie wylogować z Internetu. Jest to spowodowane stanem obawy, nadzoru tego panoptycznego elementu, że ktoś nas nieustannie obserwuje, a my nie chcemy w tym uczestniczyć. Z drugiej – część z nas daje się stymulować dopaminie, którą nasz mózg w dużych dawkach wytwarza podczas naszego korzystania z portali społecznościowych. Co ciekawe, w kontekście nowych technologii pojawia się element strachu. Czy się przypadkiem nie boimy, że pozapominamy? Że popełnimy błąd? Zatracimy nasze dziedzictwo, nasze osiągnięcia?

I jaka jest odpowiedź?
W tym miejscu postawiłbym kropkę. Moim zdaniem najważniejsze jest to, że w obecnych czasach w ogóle jest prowadzona ta dyskusja na temat sztucznej inteligencji. Że chcemy kontrolować, w jaki sposób ona będzie wdrażana. Bo powinniśmy to kontrolować. Gdy powstawał Internet, takiego myślenia nie było. W ogóle się nie zastanawialiśmy, jak wpłynie na nasze życie, tylko się nim zachłysnęliśmy.

Lęk wydaje się naturalny, ale lepiej nie popadać w skrajności. Należy pamiętać, że to człowiek wciąż uruchamia sztuczną inteligencję i jest odpowiedzialny za jej działania. Jej zachowanie zależy więc od tego, w czyich rękach się znalazła.

Od razu przywodzi mi na myśl ryzyko manipulacji, gdy ktoś korzysta z technologii deepfake.
Cały czas się zastanawiam, czy będziemy czuli potrzebę, by weryfikować tego typu informacje… Coraz częściej mówi się, że sztuczna inteligencja dosłownie popada w halucynacje. Innymi słowy – gada brednie. Wynika to choćby z tego, że ChatGPT ma wprowadzone dane do 2021 roku.

Kiedy zapytałam go o jakieś rzeczy na swój temat, dostępne w Google, powiedział mi totalne bzdury.
Miałem tak samo. Ale to bardzo ciekawe, że wszyscy chcemy go zhakować, szukamy, gdzie się wyłoży. Chcemy wykazać, że jest niedoskonały. I to również jest element Uncanny Valley. Gdy coś jest choć odrobinę niedoskonałe, nie postrzegamy, że jest przydatne.

A co dla nas oznacza fakt, że maszyna popełnia błąd?
To dla nas sygnał: „Aha, jesteś niedoskonała, nie można ci w pełni zawierzać”. Zaczynamy rozumieć, że to tylko jeden z punktów odniesienia, że warto zweryfikować informacje, które nam przekazuje.

To może dobrze, że ten błąd się pojawia?
Dobrze, ale pamiętajmy, że nie wszyscy z nas są go świadomi. Pytanie, do czego używamy na przykład takiego ChatGPT. Czy jesteśmy w toku jakiegoś działania i chcemy odbić myśl, przekonstruować zdanie? Jeśli będziemy traktowali go jako jedno ze źródeł informacji, ze świadomością, że warto weryfikować to również w innych miejscach, to nie ma problemu. Przy okazji pojawia się istotne pytanie, czy jeśli oddamy część działań maszynie, uwolnimy swój czas, to będziemy mieć go więcej dla naszej rodziny, na relaks, hobby, czy wprost przeciwnie – będziemy pracowali jeszcze więcej…

Zastanawiam się też, jak sztuczna inteligencja wpłynie na nasz język, który przecież nieustannie ewoluuje. Czy np. wyeliminuje polskie „ę”, „ą”, których nie lubi słownik. Mój telefon wciąż zmieniał mi „dziękuję” na „dziękuje”.
Zmiany w obrębie języka dzieją się jeszcze bardziej zauważalnie w innym wymiarze. Istnieje takie zjawisko jak algospeak, czyli nowomowa stworzona po to, by przechytrzyć algorytmy. Powstają nowe słowa, które pozwalają ominąć blokady, jakie mógłby na wersje oryginalne nałożyć algorytm. Media społecznościowe blokują w końcu posty, które zwierają słowa kontrowersyjne, takie jak: „seks”, „śmierć”, „nienawiść”. Internauci piszą więc np. „seggz” – co algorytm również zaczął w końcu wyłapywać.

Błąd w pisowni okazuje się naszym sojusznikiem, by przemycić jakieś treści?
Oczywiście, problem jest w tym, że zakazanych słów można używać w różnych kontekstach. Algorytmy nie rozumieją ironii, żartu albo tego, czy dany artykuł wnosi coś wartościowego w kontrowersyjnym temacie. Ciekawe, czy te nowe słowa z nami zostaną. Przed pandemią byłem na Biennale w Wenecji. Zapamiętałem instalację z Nowej Zelandii – nazywała się „Post-hoc” – gdzie nieustannie drukowano słowa, które równie szybko powstają, co giną: nazwy telefonów, huraganów, modeli samolotów.

Zawsze uważam, że kontekst jest ważny. Bo jeśli wrzucamy dyskusję o sztucznej inteligencji do jednego worka z Terminatorem, który chce nas zabić, to jest to nieco „dziaderskie”. Tymczasem wydaje mi się, że dzięki sztucznej inteligencji zaczynamy jeszcze silniej wracać do swojego człowieczeństwa. Ona to wręcz na nas wymusza.

Uczymy się też poprzez osoby, poprzez relację, jaką z nimi budujemy. Istnieje nawet coś takiego jak pamięć transaktywna – lepiej zapamiętujemy miejsce i osobę, która jakąś wiedzę ma, a mniej sam fakt i samą daną. W przypadku sztucznej inteligencji element relacyjny zaczyna się burzyć, mówimy o syndromie Google, czyli że nie przyswajamy wiedzy, tylko polegamy na miejscu, w którym ją znajdziemy. To spore niebezpieczeństwo.

Nie zgłupiejemy od tego?
Mam nadzieję, że nie. Czy od wyszukiwarki Googl­e zgłupieliśmy? No nie. Być może uruchomi się w nas umiejętność selekcji informacji, co w efekcie doprowadzi nas do lepszych decyzji.

Wyciągnięcie lekcji z błędów pozwala nam się czegoś nauczyć. Zastanawiam się więc, czy ewolucyjnie to na nas jakoś wpłynie – czy na błędach sztucznej inteligencji będziemy się uczyć?
Myślę, że tak. Na pewno uczymy się, w jaki sposób ona popełnia błędy, a następnie wyciągamy z tego wnioski. Pamiętajmy przy tym, że wciąż jesteśmy jednak malutkim procentem ludzkości, który z tego korzysta. Mamy więc teraz niepowtarzalną szansę obserwować naukę postępu. Uczymy się, jak można modyfikować tę sztuczną inteligencję. Wcześniej nikt nie testował mediów społecznościowych czy wyszukiwarek, to był eksperyment na skalę światową! Dopiero w tym roku Google zostało wezwane przez Kongres Stanów Zjednoczonych, by rozliczyć się z działań nieuczciwej konkurencji. Wydaje mi się, że w przypadku sztucznej inteligencji jesteśmy dopuszczeni do debaty.

Uważam, że błędy, które robi SI, wyzwalają potrzebę krytycznego myślenia, by dobrze nawigować przez ocean różnych dostarczanych nam przez technologie treści. I to jest fajne!

Marcin Maciejewski, foresighter. Odpowiada za inicjowanie i realizację procesów badawczorozwojowych, z uwzględnieniem poszukiwań jakościowych, czynników zmian przyszłości i trendów.

Share on Facebook Send on Messenger Share by email
Autopromocja
Autopromocja

ZAMÓW

WYDANIE DRUKOWANE E-WYDANIE
  • Polecane
  • Popularne
  • Najnowsze