Reklama

Ludzie

Sztuczna inteligencja. Boski plan człowieka

Z Piotrem Psyllosem, programistą i wynalazcą, rozmawia Alina Bosak
Dodano: 18.04.2022
62465_psyllos
Share
Udostępnij
Alina Bosak: Za kilka lat moc komputera sprawi, że uzyska on większe zdolności intelektualne niż człowiek. Tak prognozuje dyrektor Google Raymond Kurzweil. To już? 
 
Piotr Psyllos: Raymond Kurzweil miał różne wizje przyszłości. Według jednej z nich, w 2029 roku pojawi się sztuczna inteligencja (SI) dorównująca ludzkiej, a w 2045 roku – tzw. osobliwość technologiczna, przekraczająca miliony razy poziom człowieka, której nie będzie on już w stanie kontrolować. Tak też twierdzi, podając jednak inne daty, Nick Bostrom, szef Instytutu Przyszłości Ludzkości na Uniwersytecie Oksfordzkim. Powtarzają to i inni naukowcy, ale nie wszyscy. Z ankiety, którą Bostrom przeprowadził wśród czołowych badaczy SI, wynika, że optymistyczna jest ponad połowa. Twierdzą, że silna sztuczna inteligencja, owszem, pojawi się, ale z największym prawdopodobieństwem nie za kilka czy kilkanaście lat, tylko znacznie później, bo na 90 procent do 2075 roku. Według innych będzie to dopiero za kilkaset lat.
 
Skąd takie różnice w rachubie?

Bo tak naprawdę tego nie wiemy. W postępie technologicznym przełomy pojawiają się nieoczekiwanie. Nagle wkracza jakaś technologia, która wywraca wszystko do góry nogami i następuje skok ku przyszłości. Tego momentu nie potrafimy jednak przewidzieć. Można pewne rzeczy szacować, jak Ray Kurzweil, na podstawie różnych trendów wykładniczych, badając jak zmienia się moc komputerów w funkcji czasu, ilość stosowanej pamięci itd. 
 
Dlaczego Kurzweil myśli, że sztuczna inteligencja lada moment nas przeskoczy?

Według jego obliczeń w pewnym momencie liczba pojedynczych elementów przetwarzających informację znacznie przewyższy liczbę neuronów, które mamy w mózgu, i będziemy mieli taką moc komputerów, która pozwoli nam symulować pracę ludzkiego mózgu. Stąd jego szacunki. Pytanie jednak, czy będziemy w stanie te elementy połączyć? Już dzisiaj mamy architektury, które zawierają więcej składowych niż nasz mózg. Ale nie wiemy, jak je połączyć, aby wytworzyło się wrażenie świadomości, a systemy służyły do czegoś więcej niż do wąskich, jasno sprecyzowanych celów, określonych przez człowieka. 
 
Był moment, kiedy wydawało się, że doszliśmy do jakiejś ściany w rozwoju sztucznej inteligencji, że nie będzie humanoidów jak z filmu „A.I.” Stevena Spielberga. Teraz marzenia o androidach i cyborgach wróciły. Co się zmieniło, że znów nabraliśmy przekonania, że kiedyś będziemy rozmawiać z maszynami jak z ludźmi?

W historii SI rzeczywiście były różne okresy, można powiedzieć: wiosny, zimy i lata. Każdy postęp wywoływał burzliwe dyskusje na temat przyszłości sztucznej inteligencji, a potem okazywało się, że ówczesna technologia nie pozwoli spełnić wszystkich oczekiwań. Powodowało to wielkie rozczarowania, malała intensywność badań, by z nowym przełomem w technologii znów do tego wracać, dzięki zainteresowaniu mediów i większej skłonności inwestorów do wykładania olbrzymich sum na kolejne badania. 
 
Jaką porę roku w rozwoju sztucznej inteligencji mamy teraz?

Koniec wiosny albo lato. Zaczęło się około 2013 roku, kiedy nastąpił gwałtowny postęp badań nad tzw. głębokim uczeniem, czyli z ang. deep learningiem. Upraszczając, chodzi o głębokie sieci neuronowe, odwzorowujące to, co człowiek posiada w mózgu. Wprawdzie daleko im jeszcze do „ludzkiego” zaawansowania, ale mają już wiele głębokich warstw, które rozwijają analizowany problem na sumę prostszych zagadnień, co daje znacznie lepszy wynik. Deep learning pojawiał się już w ubiegłym wieku w różnych opracowaniach naukowych, ale dopiero na przełomie 2013/2014 roku pojawiły się nowe, ulepszone techniki uczenia głębokiego, oraz wydajne komputery, umożliwiające testowanie i rozwijanie algorytmów. Dzięki temu sztuczna inteligencja zaczęła rozwiązywać znacznie bardziej skomplikowane problemy niż wcześniej. Nastąpił rozkwit. Okazało się, że SI ma wiele zastosowań w różnych dziedzinach. Potrafi wygrać z arcymistrzem chińskiej gry go i jest lepsza od człowieka w wykrywaniu nowotworów. Nagle zaczęliśmy tworzyć lepsze systemy tłumaczeniowe, czy systemy rozpoznające nasz głos i na niego reagujące, czego przykładem są asystenci głosowi w smartfonach. Zastosowań jest mnóstwo, przez co wzrosło zainteresowanie biznesu. Naukowcy zaczęli dostawać granty na badania, a spółki takie jak Deep Mind czy OpenAI opracowały przełomowe metody deep learningu, które wywróciły wiele rzeczy do góry nogami. Mamy efekt kuli śnieżnej.
 
Zmierza do zimy?

Pewnie w końcu nastąpi. Obecne metody już zaczynają się wyczerpywać. Wciąż pojawiają się kolejne permutacje tego, co około 2014 roku powstało. To często wtórne prace. Zapewne znów musi nastać okres jesieni i zimy, abyśmy wrócili do badań podstawowych, skupili się na neurobiologii, pryncypiach działania mózgu i wymyślili zupełnie nowe podejścia do tworzenia SI, które pozwolą nam jeszcze skuteczniej rozwiązywać problemy. To, co dziś mamy, jest bardzo dalekie od przewidywań Raya Kurzweila, i mam wrażenie, że w tym przypadku skończy się częściowo jak w latach 80. XX wieku, kiedy na ekranach królował Terminator, a po świecie krążyło przekonanie, że już za kilka lat będziemy mieli świadome maszyny. 
 
Ale tak się nie stało.

Z powodu prymitywizmu algorytmów i niedoskonałości maszyn. Lecz z drugiej strony jesteśmy obecnie przed perspektywą komputerów kwantowych, biologicznych i neuromorficznych. Może to będzie takim game changerem. 

Fascynacja sztuczną inteligencją

To od takich filmów jak „Terminator” zaczęła się Twoja fascynacja sztuczną inteligencją? 

Zaczęło się od książek Stanisława Lema. Jeszcze w podstawówce. Ale filmy science-fiction również mnie fascynowały: „Terminator”, „2001: Odyseja kosmiczna”, „Robocop”.
 
Pierwszy wynalazek stworzyłeś jeszcze wcześniej – jako 6-latek, kiedy mieszkałeś jeszcze na greckiej wyspie i postanowiłeś pomóc dziadkowi.

Mieliśmy kozę. Mieszkała w grocie wydrążonej w skale. Brakowało tam instalacji elektrycznej, było ciemno, więc stworzyłem dla niej oświetlenie zasilane akumulatorem. Wiele takich wynalazków tworzyłem. Robiłem kosiarki, odkurzacze. Rozbijałem żarówki, żeby wyciągać drucik wolframowy i przeprowadzać na nim eksperymenty. Tak się zaczęło. Na początku mniej poważnie, a później ukierunkowałem się czytając książki popularnonaukowe i oglądając filmy SF. Po technikum elektronicznym zdecydowałem się na studiowanie informatyki, ze specjalizacją sztuczna inteligencja.  
 
W 2013 roku, jeszcze w szkole średniej, stworzyłeś „gadającą rękawicę” dla osób niemych. Przyniosło Ci to wiele nagród, w tym pierwsze miejsce m.in. na Światowych Targach Wynalazczości, Badań Naukowych i Nowych Technik „Brussels Innova 2013”. Co zdecydowało o tym, że właśnie roboty społeczne, wspierające człowieka, najmocniej cię zainspirowały? 

To zasługa mojego pierwszego opiekuna naukowego doktora Jerzego Sienkiewicza, pełnomocnika rektora Politechniki Białostockiej ds. współpracy i rozwoju kreatywności i wiceprezesa Towarzystwa Przyjaciół Dzieci w Białymstoku, który na co dzień zajmuje się tematyką technicznego wsparcia osób niepełnosprawnych. Zanim go poznałem, większość rzeczy robiłem tylko po to, aby przetestować swoje możliwości technologiczne. On zainspirował mnie, abym wykorzystał je do pomocy osobom niepełnosprawnym. Zacząłem od systemu sterowania urządzeniami za pomocą fal mózgowych alfa. Z pomocą tego urządzenia niepełnosprawne dzieci, które nie były w stanie się poruszać, mogły przy wytężonym myśleniu sterować pracą komputera, a zatem i wszystkim, co do komputera jest podłączone. Później była rękawica dla osób niemych – zamieniająca gesty na mowę, a potem sygnet dla niewidomych – efekt mojej współpracy z Tomaszem Strzemińskim z Fundacji Audiodeskrypcja. Sygnet rozpoznawał gesty i litery – pisane w powietrzu transformował na litery zrozumiałe dla komputera, dzięki czemu można było sterować smartfonem, zapisywać w nim wiadomości. Kiedy rozpocząłem studia, założyłem koło naukowe dostępnosc.pl i zacząłem już bardziej systematyczną pracę nad wsparciem człowieka przy pomocy technologii. W tym zakresie cały czas współpracuję z dr. Sienkiewiczem, tworząc projekty na indywidualne zamówienie. Dodatkowo jakiś czas temu zacząłem rozwijać swój startup związany z cyberdiagnozą.

Robot asystujący

Masz „asystenta” – robota społecznego z ludzką twarzą. 

Tak. Zająłem się przetwarzaniem przy pomocy komputerów języka naturalnego, którym posługują się ludzie. Robota stworzyłem w ramach pracy magisterskiej do testowania algorytmów, które mają imitować człowieka. Moim celem jest stworzenie syntezatorów mowy dla niepełnosprawnych, które potrafiłyby automatyzować komunikację i imitować dawny głos osoby, która przestała mówić. Mój robot wykorzystuje te algorytmy i jest rozwiązaniem pośredniczącym pomiędzy użytkownikiem a komputerem. Tylko że zamiast interfejsu w postaci klawiatury, myszki i ekranu, mamy awatara, który wygląda jak człowiek i jest w stanie przyjmować nasze polecenia i je wykonywać. Takie roboty społeczne dają możliwość zastosowań w wielu usługach, np. w punktach informacyjnych, konsultacyjnych, do obsługi wystaw i eventów, pomocy osobom starszym. Cały świat jest nimi zainteresowany. Elon Musk zapowiedział, że w tym roku zostanie zaprezentowany Teslabot. Profesor Hiroshi Ishiguro od wielu lat prowadzi podobne badania w Japonii. Jego roboty już pracują na lotniskach i w hotelach. Te rozwiązania rozwijane są jednak w języku japońskim, angielskim, a nie w polskim, który jest skomplikowany. W tej dziedzinie prowadzi się niewiele prac. Mamy tu wiele do zrobienia i dlatego zająłem się tym tematem.  
 
Współpracujesz z pierwszym na świecie cyborgiem – Peterem Scott-Morganem, brytyjskim naukowcem cierpiącym na stwardnienie zanikowe boczne, który poprzez szereg operacji i zastosowanie systemów wspomagających układy narządów przedłużył swoje życie. Jak doszło do waszej współpracy?

Zaczęła się w ubiegłym roku. Od czasu do czasu komentuję różne sprawy w programie „Pytanie na śniadanie” i kiedyś zaproszono mnie tam do rozmowy o cyborgizacji człowieka. Przygotowałem różne materiały, prezentację. A ponieważ związana była z Peterem Scott-Morganem, po programie wysłałem do niego nagranie. Odpisał i zaproponował współpracę. Zainteresował się moimi pracami, syntezatorami mowy, awatarami, ponieważ nad podobnymi projektami pracuje również założona przez niego fundacja Scott Morgan Foundation. Peter nie może mówić, tworzy więc awatara mówiącego jego głosem w dowolnych językach. Rozwijanych jest wiele równoległych projektów, np. związany z metawersum – ma powstać robot do teleobecności, kontrolowany za pomocą systemów do wirtualnej rzeczywistości. Dziś Peter Scott-Morgan komunikuje się wyłącznie przy pomocy wzroku – ruchem gałek ocznych steruje kursorem. To komunikacja bardzo ograniczona, powolna, dlatego potrzeba sztucznej inteligencji, by ją zautomatyzowała tak, jak automatyzuje np. ruch samochodów autonomicznych. W przyszłości Peter tylko wskaże miejsce, a jego wózek sam się w nie przemieści. Fundacja ma kilkunastoletni plan i wiele ciekawych pomysłów. Celem jest napisanie na nowo przyszłości osób niepełnosprawnych przy pomocy różnych wykładniczych technologii, takich jak AI, roboty, czy też np. wirtualna rzeczywistość. Problemów do rozwiązania jest kilka: m.in. usprawnienie komunikacji, poruszanie się i mobilność, zbudowanie domu kontrolowanego przez sztuczną inteligencję – tak, aby przypominało to wizję z „2001: Odysei kosmicznej”, w której wszystkim sterował komputer HAL 9000. Kiedy trzeba, automatycznie odsunie ona stół, aby zrobić miejsce dla wózka, poda jedzenie i posprząta. Peter w tym gospodarstwie ma prezentować tylko intencję zrobienia czegoś, a szczegóły już będą należały do sztucznej inteligencji. Ostatecznym celem jest pełna cyborgizacja ciała Petera, która zastąpi wszystkie niesprawne narządy sztucznymi odpowiednikami, aby utrzymywać przy życiu najważniejszy organ w ludzkim ciele, czyli mózg.
 
A co myślisz o projekcie Neuralink Elona Muska – połączeniu mózgu człowieka z maszyną? Czy zdołamy wyeliminować konieczność używania oczu, uszu? Czy, jak na Star Treku, niewidomy założy opaskę na oczy i będzie widział?

W tym kierunku zmierzamy. Na świecie są już ludzie z czipami wszczepionymi do mózgu. O hybrydach maszyny i człowieka opowiada m.in. film dokumentalny „Człowiek 2.0”. W Stanach Zjednoczonych osoby niewidome po wszczepieniu implantów pobudzających korę wzrokową zaczęły dostrzegać kontury przedmiotów. Są już pionierzy z implantami słuchowymi i z protezami kończyn sterowanymi przy pomocy czipów. To wszystko pozostaje jeszcze w laboratoriach, ale to się zmieni. Elon Musk chciałby stworzyć maszynę, która w ciągu kilkunastu minut włoży do naszego mózgu czip tak uniwersalny, że każdy będzie mógł go używać. Ale do dziś Neuralink większych sukcesów nie przyniósł – zaprezentowane technologie nie są nowatorskie. Musk zbudował wprawdzie maszynę do wszczepiania czipów, ale dziś pisze się głównie o tym, ile zwierząt umarło i cierpiało podczas testów. Technologia nie jest gotowa do zastosowania na ludziach. To się zmieni zapewne w ciągu 20-30 lat. I będziemy wszczepiali do mózgów czipy, pozwalające osobom niepełnosprawnym wyrwać się z ograniczeń ciała, które dziś dla nich jest więzieniem. Ta technologia będzie od nas wymagała regulacji prawnych, związanych nie tylko z bezpieczeństwem człowieka, ale i prywatnością danych, które będą odczytywane wprost z mózgu. 

Nadchodzi rzeczywistość rozszerzona

Zastępowanie zmysłów jest bardzo istotne dla rozwoju metawersum. Czy wirtualna rzeczywistość w przyszłości będzie w stanie zastąpić wszystkie doznania? 

Wszystko idzie w tym kierunku. W pierwszym etapie ewolucji Internetu chodziło o przekazywanie wyłącznie informacji, w drugim o możliwość nawiązywania relacji, teraz będziemy mieli Internet różnych wrażeń zmysłowych generowanych przez systemy rzeczywistości wirtualnej. Łączy się z tym również Internet rzeczy i Internet ciał. Coraz więcej przedmiotów podłączamy do Internetu – czajników, termometrów, lodówek itp. W ciągu najbliższych pięciu lat pojawi się niewyobrażalna liczba takich połączeń. Tak samo rozwija się Internet ciał, nakładamy na siebie coraz więcej czujników połączonych z siecią, które mierzą poziom glukozy, aktywność fizyczną itp., a później przekazują dane sztucznej inteligencji, która robi z nich użytek.
 
To wszystko otwiera coraz szerzej drzwi do życia w świecie wirtualnym?

Rozrywka i gry komputerowe pokazują, że jest tam mnóstwo możliwości. Można tam przenieść różne usługi, np. związane ze zdrowiem, diagnostyką.   
 
Mówimy o wirtualnej rzeczywistości, a co z rzeczywistością rozszerzoną? Czy będziemy mogli nie tylko pokonać niepełnosprawność, przywrócić nasze funkcjonowanie, ale i rozszerzyć je, mieć wszystkie dane w oku jak Terminator? 

W prezentacji firmy Meta, oprócz wirtualnej rzeczywistości, czyli okularów, które zasłaniają nam całkowicie pole widzenia, pokazano również okulary rozszerzonej rzeczywistości. Nakładają one obraz cyfrowy na rzeczywisty i są rozwiązaniem bardziej przyszłościowym. Wirtualna rzeczywistość ma bowiem wiele ograniczeń. Gogle wyglądają jak półka, która zasłania cały realny świat i nie pozwala kontrolować sytuacji wokół, np. zerkać, czy nasze dzieci czegoś złego obok nie kombinują. W rozszerzonej rzeczywistości będziemy widzieć świat realny i nałożone na niego rzeczy wirtualne. Podczas spaceru ulicą wyświetlą nam się różne powiadomienia z telefonu, kiedy wejdziemy do sklepu pokażą się ceny, a w labiryncie ulic – mapa i wskazówki, jak dotrzeć do celu. Jeśli pojedziemy do Chin, bez problemu odczytamy napisy na billboardach, na które rozszerzona rzeczywistość nałoży nam tłumaczenie. Prawdopodobnie takie okulary zastąpią nam smartfony. I moim zdaniem jest to bardziej funkcjonalne. Możliwe jednak, że będziemy chcieli się odciąć i całkowicie zanurzyć w świecie wirtualnym. Według firmy Gartner, do 2026 roku 30 procent firm przeniesie różne swoje usługi do metawersum i 25 proc. ludzi będzie spędzało tam przynajmniej jedną godzinę. Z punktu widzenia biznesowego to niesamowicie intratna technologia. Brałem niedawno udział w koncercie i stand-upach w wirtualnym świecie. Była scena, ludzie w formie awatarów, z każdym mogłem podejść do stolika i porozmawiać przy wirtualnej kawie i herbacie. Są takie spotkania filozoficzne, kółka zainteresowań. Można się na nie zapisać, wejść i porozmawiać na górskim szczycie lub przy ognisku. Tylko grafika na razie jest jeszcze prymitywna. Wynika to z ograniczeń technologicznych.
 
Potrzebujemy szybszego transferu danych, sieci 6G.

I jeszcze szybszych procesorów. Ale za kilka lat będziemy mieć na takich wirtualnych spotkaniach to, co już dziś w fotorealistycznych grach komputerowych. 
 
Czy to gigantyczne turboprzyspieszenie może być niebezpieczne? Prof. Luciano Floridi zauważa, że sztuczna inteligencja jest jednak ograniczona – nie wytwarza inteligentnych zachowań, a jedynie je reprodukuje. Opiera się na statystyce i prawdopodobieństwie. Jednak pole jej zastosowań jest coraz szersze, a decyzje, które bywają nietrafne, mają wpływ na coraz więcej sfer naszego życia. Może to się skończyć podporządkowaniem człowieka logice działania maszyny. Czy przywiążemy się z czasem do okularów i komputera,  robot społeczny podjeździe z kanapką, a my będziemy tkwić w wirtualnym świecie?

Wizja z „Matrixa” albo z „Summy technologicznej” Lema. Lem przewidział wirtualną rzeczywistość, którą nazwał fantomatyką. Całkowicie zanurzeni w niej ludzie nie odróżniali świata wirtualnego od rzeczywistego. Do głowy doczepiony „kabel”, zmysły jak oczy, uszy – „odcięte”, a maszyna fantomatyczna generowała impulsy, które pobudzały nerwy i docierały do mózgu, kreując jakiś nieprawdziwy świat wokół.
 
Lem bardzo obawiał się systemów, które zdolnościami analitycznymi przewyższą człowieka. Obawiał się rozwoju biometryki, zapamiętywania każdej ludzkiej twarzy w jakiejś centrali, niemożliwość skutecznego schronienia się przed inwigilacją. W takim świecie już żyjemy.
 
Sztuczna inteligencja jak każda technologia jest obosieczna. Dzisiaj wszystko jeszcze zależy od korporacji, rządów, które stosują te technologie. Oprócz tych niesamowitych, przełomowych i pomagających człowiekowi zastosowań, widzimy także wiele negatywów. Sztuczna inteligencja jest wykorzystywana w socjotechnice. Na niej opiera się system kredytu społecznego w Chinach, który już kontroluje ludzi. Mechanizm opisany został w książce „Chiny 5.0. Jak powstaje cyfrowa dyktatura”. System z pomocą sztucznej inteligencji stale ocenia obywateli, przyznając im punkty lub odejmując. Na punktację człowieka wpływa to, czy przejeżdża na czerwonym świetle, czy krytykuje partię w Internecie. Jeśli nie zgromadzi odpowiedniej liczby punktów pozytywnych, nie dostanie dobrej pracy, nie wyśle dziecka do dobrego przedszkola, nawet nie wyjedzie za granicę. Jeśli jest dobrym obywatelem, czyli robi wszystko to, co postuluje partia, otwierają się przed nim szersze możliwości. Istnieje ryzyko, że w naszym zachodnim świecie taka technologia także może być wprowadzona i argumentowana np. względami bezpieczeństwa. 
 
Jeszcze trzy lata temu co czwarty Europejczyk chciał, żeby sztuczna inteligencja wspierała decyzje polityków. A w ubiegłym roku hiszpański IE University opublikował raport, według którego ponad 50 proc. obywateli z 11 państw UE chciałoby zastąpić parlamentarzystów robotami i sztuczną inteligencją. Aż 55 proc. Polaków jest za takim rozwiązaniem.

Pandemia chyba jednak zweryfikowała poglądy. Zaczęło się mówić o paszportach cyfrowych, różnych cyfrowych systemach kontroli. Wiele osób połączyło to z różnymi dystopiami i bardzo sceptycznie zaczęło podchodzić do sztucznej inteligencji, uważając, że ta technologia będzie służyła złu i zniewoleniu człowieka. Wcześniej panował większy optymizm, a z konkluzji, że ludzie są skorumpowani, a klasa polityczna do wymiany, wzięło się przekonanie, że sztuczna inteligencja rządziłaby lepiej. 
 
Wobec wojny na Ukrainie wciąż wielu wolałoby robota zamiast Władimira Putina.

Podczas wyborów prezydenckich w Rosji wystawiono kiedyś bota ze sztuczną inteligencją. Może dla zabawy, jak kiedyś w Polsce Krzysztofa Kononowicza. Czytałem też o miasteczku, w którym bot kandydował na burmistrza. Dziś za taką sztuczną inteligencją kryją się oczywiście ludzie i ona nie byłaby w stanie samodzielnie zarządzać państwem, miastem, czy nawet firmą. Ale w dłuższej perspektywie, o ile pojawi się silna sztuczna inteligencja przepowiadana przez Kurzweila, maszyna do rządzenia państwem też może powstanie. Tylko, czy ludzie będą pragnęli takiego cyfrowego władcy? Przecież uwielbiają ten obecny polityczny teatr, tę grę i scenografię, tych ludzkich aktorów. 
 
Znów wizja Lema.

I jego „Summa technologiczna”. Pytanie, jakie ta maszyna miałaby cele ogólne i szczegółowe. Czy dążyłaby do przejęcia pełnej władzy, scentralizowanej i mającej wpływ na wszystko? A może jednak służyłaby nam? Max Tegmark w książce „Życie 3.0. Człowiek w erze sztucznej inteligencji” analizuje takie scenariusze. Ale tu już mocno wkraczamy w science-fiction.  
 
Na razie fantazje, ale problem wykorzystywania sztucznej inteligencji przez ludzi u władzy jest jak najbardziej realny i aktualny. Przykładem wojna informacyjna, która w czasie wojny na Ukrainie odgrywa ogromną rolę. 

Sztuczna inteligencja od dawna jest wykorzystywana do umieszczania określonych informacji w Internecie. To ona rozpowszechnia prorosyjskie komentarze w różnych miejscach. Potrafi je sama modyfikować, aby wydawało się, że pisały je różne osoby, i aby były trudne do odfiltrowania. Różne modele językowe pozwalają generować wokół jakiegoś tematu odmiennie brzmiące komunikaty, które trudno wykryć i wyrzucić sposobem programistycznym. SI dobrze nas zna, a my nie wiemy o niej nic. Dr Michał Kosiński już dawno wykazał, że wystarczy 300 like’ów na naszym profilu na Facebooku, aby sztuczna inteligencja wiedziała o nas więcej niż żona czy mąż – na temat preferencji politycznych, finansowych, seksualnych itd. Wiedza ta w połączeniu z metodami socjotechniki daje niesamowitą siłę oddziaływania na społeczeństwo, możliwość kształtowania jego postaw i analizowania, jak dane posunięcia wpłyną na jego opinię. Pozwala tak formułować komunikat, aby uzyskać pożądany odzew. Sztuczna inteligencja ma też zastosowanie w wojnie konwencjonalnej. Dziś obserwujemy wojnę, w której drony czy rakiety są w stanie identyfikować cele, automatycznie rozpoczynać ostrzał, poruszać się samodzielnie między punktem A i B, omijać przeszkody. W rakietach takie systemy zastosowano już w ubiegłym wieku, ale dziś SI w połączeniu z deep learningiem lepiej wybiera cele i steruje maszyną, a udział człowieka staje się coraz mniejszy.

AI umożliwia podbój kosmosu

Boston Dynamic publikuje filmy z robotami, które radzą sobie na parkurze coraz bliżej ludzkiego ideału. Skoki, przewroty. To żołnierze przyszłości? 

Pewnie tak, ale dalekiej. Jeszcze parę miesięcy temu uważano, że w przyszła wojna to będzie wojna pomiędzy dronami i robotami. Gdyby mnie zapytano dwa lata temu, też mówiłbym o broni w pełni autonomicznej, homoidalnym Atlasie. A dziś okazuje się, że najbardziej sprawdzają się środki z ubiegłego wieku. Czołgi, zwykli żołnierze z prymitywną jednak bronią. 
 
Rozmawiamy o zabójczym wykorzystaniu SI. Ale może być też zupełnie na odwrót. Myślę o nowej misji NASA, o statku kosmicznym DART, który właśnie zmierza ku asteroidzie Didymos, by jesienią roztrzaskać się o nią i w ten sposób sprawdzić, czy uderzenie wystarczy, aby uratować Ziemię w przyszłości. Bez sztucznej inteligencji taka misja nie byłaby możliwa?

SI ma tu bardzo duże znaczenie. Przecież w pełni ręczne sterowanie z Ziemi nawet łazikiem na Marsie nie sprawdziłoby się z powodu zbyt dużego opóźnienia spowodowanego zbyt niską prędkością transferu informacji i samą prędkością światła. Dlatego to sztuczna inteligencja wspiera sterowanie pojazdem, koryguje parametry, pomaga omijać przeszkody. Długoterminowo może być tą technologią, która pozwoli nam skolonizować Kosmos, o czym Elon Musk mówił tyle razy. Powstaną pozaziemskie statki sterowane sztuczną inteligencją, jak w „Odysei kosmicznej”, które pozwolą wynieść nasz gatunek w przestrzeń kosmiczną, kiedy życie na Ziemi przestanie być możliwe.
 
To bardzo odległa perspektywa, mam nadzieję?

Tak, w bliższej czeka nas eksploracja Kosmosu z pomocą sond. Być może wysłanie robotów na Marsa, które stworzą podwaliny dla przyszłej cywilizacji. Będą w stanie multiplikować się, budować schrony itd. To paradoks dzisiejszego świata. Na wschodzie wojna i prymitywne wyrzynanie, a z drugiej strony mamy ambitne plany dotyczące kolonizacji Kosmosu i inne pomysły wyjęte z książek SF, które wkrótce mogą zostać zrealizowane. 
 
W wielu miejscach wszystko wydaje się być jeszcze trochę po staremu. Ludzie sadzą kwiaty, próbują naprawić starą lodówkę. I nawet, jeśli do celu jeżdżą z nawigacją, to daleko temu do metawersum i świata zarządzanego przez sztuczną inteligencję. 

Nie dostrzegamy jej, bo staje się przezroczysta jak Internet czy elektryczność. Ale ona jest. 
 
Fot. Archiwum Piotra Psyllosa
 
Petros Psyllos (ur. w 1994 roku) – elektronik, programista, wynalazca i biznesmen. Zajmuje się wykorzystaniem nowoczesnych technologii – zastosowaniami sztucznej inteligencji, robotami społecznymi, wirtualnymi asystentami. Przez amerykańską edycję Forbesa został uznany za jednego z 30 najlepszych europejskich innowatorów, a przez Massachusetts Institute of Technology Review za jednego z 10 najzdolniejszych młodych wynalazców w Polsce. 

 
Share
Udostępnij
Reklama
Reklama
Reklama
Reklama
Reklama

Nasi partnerzy