Reklama

Biznes

Technologie stanowią realne zagrożenie nie tyle dla naszych miejsc pracy, co dla naszego człowieczeństwa!

Aneta Gieroń
Dodano: 14.02.2025
Iwo Zmyślony w Podkarpackim Centrum Innowacji w Rzeszowie. Fot. Tadeusz Poźniak
Iwo Zmyślony w Podkarpackim Centrum Innowacji w Rzeszowie. Fot. Tadeusz Poźniak
Share
Udostępnij

Z dr. Iwo Zmyślonym, trenerem i doradcą biznesu, a także antropologiem nowych technologii, rozmawia Aneta Gieroń

Aneta Gieroń: Gdy już oswoiliśmy pojęcie Przemysł 4.0, czyli urzeczywistnienie wizji inteligentnej fabryki, w której systemy cyberfizyczne sterują procesami fizycznymi, słyszymy o Człowieku 4.0. – tak nazywa się program zainaugurowany w Podkarpackim Centrum Innowacji, do którego wstępem był pański wykład: „Nieautomatyzowalne kompetencje przyszłości – jak budować trwałe przewagi w świecie AI”. Kim dla Pana jest Człowiek 4.0?

Dr Iwo Zmyślony: Na pewno jest kimś innym niż jeszcze przed Internetem czy przed epoką smartfonów. Technologie od zawsze kształtują nasze człowieczeństwo, zmieniają nas jako ludzi, odmieniają nasze systemy nerwowe, nasze ciało fizyczne i nasze ciało społeczne. Nowe technologie robią to jednak dużo bardziej niż stare. Jestem niechętny porównywaniu ich tylko do narzędzia – na zasadzie młotka, którym można skrzywdzić albo coś naprawić. Moje zdanie jest takie, że technologie typu Internet, smartfon czy AI, bardziej przypominają grzybnię – coś, co się pleni na zewnątrz, ale nas zmienia od środka. A nawet – do pewnego stopnia – może przejąć kontrolę. Wnikają nie tylko w nasze ciało, ale i w naszą psychikę. Albo nauczymy się z nimi żyć w symbiozie, albo się okażą dla nas pasożytem.

Zmierzamy do świata, w którym alternatywą jest bycie poza społeczeństwem, poza kulturą, bycie poza tym, co definiuje nas jako ludzi?

Oczywiście to żadna alternatywa. Dlatego technologie stanowią realne zagrożenie nie tyle dla naszych miejsc pracy, co dla naszego człowieczeństwa – przynajmniej tego rozumianego tradycyjnie, powiedzmy „oświeceniowo” – monopolizując, uniwersalizując i normalizując wizje rzeczywistości korzystne dla tych, którzy na nich zarabiają.

Nie wierzę więc w ucieczkę od technologii. Świat daje nam ofertę nie do odrzucenia. Technologia obiecuje korzyści związane z jakością życia, czy konkurencyjnością na rynku pracy. Gdybyśmy próbowali szukać alternatyw – ucieczki od technologii, natychmiast tracimy dostęp do tych możliwości i wykluczamy się z życia. Odwołuję się tu do tego, co przeszło pół wieku temu diagnozowali Guy Debord czy twórcy szkoły frankfurckiej, a co były minister finansów Grecji Janis Warufakis nazwał niedawno technofeudalizmem – integralności mechanizmów dystrybucji władzy oraz mechanizmów generowania konsumpcji, czyli – w uproszczeniu – władzy i popkultury. Dziś nie mamy wyjścia, bo to Internet, a ściślej – algorytmy usług, z których korzystamy, są zarówno źródłem naszych potrzeb, emocji, myśli, przekonań czy aspiracji, jak i podstawowym, a coraz częściej jedynym narzędziem, do ich zaspokajania.

Gdzie więc widzimy Człowieka 4.0?!

Trudno wskazać obszary rzeczywistości, na które technologia nie miałaby dziś wpływu – chociażby przez sam fakt ich pomijania czy wykluczania z dostępu. To samo dotyczy treści, które funkcjonują dziś głównie za pośrednictwem mediów społecznościowych i same swoim faktem wytwarzają skutki – niezależnie od tego, czy są prawdziwe czy nie.

Z drugiej strony pamiętajmy, że nigdy tylu ludziom nie było tak dobrze jak dzisiaj – pod wieloma względami żyjemy w czasach najlepszych w całej historii. Tu polecam „Factfulness” Hansa Roslinga, który podaje ku temu bardzo przekonujące dane. Cieszymy się z technologii ratującej życie wcześniakom czy osobom z wadami serca. W medycynie, edukacji i wielu innych dziedzinach technologie przynoszą nam wiele dobrego.

Ale chyba nigdy, tak często i aż tak wielu z nas nie myślało o technologii, co jest pochodną wybuchu entuzjazmu nad AI.

Dyskusje wokół tzw. „sztucznej inteligencji” nie są moim zdaniem wyłącznie debatą o statystycznych maszynach, które nazywamy w ten sposób. Są też zarazem, a może nawet przede wszystkim, debatą o człowieku i o tym, czym są takie fenomeny jak inteligencja, myślenie, rozumienie czy świadomość.

Geoffrey Hinton, laureat Nagrody Nobla nazywany “ojcem chrzestnym AI”, wprost twierdzi, że maszyny już dziś mają świadomość. Warto jednak zapytać, co nazywa w ten sposób – na co używa słowa, którym się posługuje. Bo on mówiąc „świadomość” czy „inteligencja” nie ma na myśli tego, co ja czy Pani, czy Czytelnicy. Każdy musi sobie wziąć te terminy i zdefiniować inaczej, po swojemu, sprowadzając ich znaczenie np. do metaprogramu systemu, który analizuje własne stany i tworzy na tej podstawie jakieś przewidywania. To jest przechwytywanie znaczeń i zawłaszczanie języka, którym do tej pory mówiliśmy o sobie – nie o maszynach. Dlatego tak ważna jest dziś krytyczna dyskusja o tym, czym jest człowiek, czym jest ludzki umysł, inteligencja czy świadomość.

A gdy AI nakarmią się całą wiedzą, jaką do tej pory zgromadziliśmy, przeczyta wszystkie książki, przejrzy cały Internet i nie będzie mieć więcej danych do nauki, co wtedy?

Ale ten scenariusz już mamy! Skończyły się już wysokiej jakości łatwodostępne, organiczne dane, czyli te generowane przez człowieka, przez co kolejne wersje AI – przynajmniej, jeżeli chodzi o te najbardziej popularne modele językowe, czyli LLMy – są trenowane na danych syntetycznych, czyli generowanych sztucznie, przez samą AI.

Do czego to prowadzi? Mniej więcej w połowie ubiegłego roku grupa badaczy z Oxfordu i Cambridge nazwała to zjawisko „kolapsem modelu”, przewidując, że na dłuższą metę może ono prowadzić do coraz głębszej degeneracji kolejnych wersji AI, czyli – w uproszczeniu – do cyfrowego odpowiednika „choroby szalonych krów”.

Ostatnio jednak chińska podróbka Chata GPT, czyli DeepSeek, pokazał, że proces ten wcale nie musi wyglądać tak drastycznie jak się obwiano – modele trenowane na wcześniejszych modelach, wcale nie są od nich dużo gorsze. Za to na pewno są tańsze.

Tym ciekawszy w dyskusji o AI staje się głos Françoisa Cholleta – jednego z pionierów tzw. Głębokich Sieci Neuronowych, przez blisko dekadę starszego inżyniera w Google. W odróżnieniu od badaczy z Microsoftu, którzy rozbudzają wyobraźnię, mówiąc o „Iskrach Sztucznej Inteligencji Ogólnej”, Chollet zachowuje spory dystans. Zwraca uwagę, że GenAI, choć potężna, nie posiada świadomości ani głębszego zrozumienia świata. Jest to narzędzie imponujące, lecz pozbawione intencji – działa jak kalkulator, który wykonuje skomplikowane obliczenia, nie rozumiejąc ich znaczenia. AI, według Cholleta, przypomina połączenie „papugi” i „kalkulatora” – jest to technologia, która z jednej strony naśladuje nasze słowa, a z drugiej wykonuje skomplikowane obliczenia, ale nie nadaje im prawdziwej głębi ani faktycznego zrozumienia…

Porównanie do kalkulatora wcale nie jest od rzeczy – nim się posługuje chociażby prof. Jarosław Arabas z Politechniki Warszawskiej w rozmowie z Tomaszem Rożkiem, którą wszystkim polecam. Warto też wsłuchać się w słowa prof. Marty Kwiatkowskiej, profesorki informatyki teoretycznej na Oxford University, członkini Royal Society, szefowej Polskiej Rady Naukowej IDEAS NCBR, która mówi: „AI jest dziś tylko maszynką statystyczną. Nie osiąga żadnej świadomości”.

Oczywiście może się ono wydawać szokująco trywialne na tle tych opowieści, które nam serwuje wspomniany Goeffrey Hinton. Dlatego tym bardziej warto pytać o powody, dla których te opowieści się tak skrajnie różnią. Ja ich upatruję w głębokich, w gruncie rzeczy światopoglądowych, i w tym sensie pozanaukowych założeniach na temat natury ludzkiego umysłu.

Natomiast jeżeli chodzi o Cholleta, to on też jak najbardziej odrzuca podejście Hintona. Wprost wielokrotnie pisze i powtarza, że wszystkie „milowe kroki AI”, o których głośno za sprawą wiralowych mediów – wbrew temu, co nagłaśnia marketing BigTechów, wcale nas nie zbliżają ku tzw. Ogólnej Sztucznej Inteligencji (AGI). Mało tego, wprost twierdzi, że najbardziej zaawansowane obecnie LLM-y są w gruncie rzeczy mało inteligentne.

Dlaczego? Z dwóch powodów. Po pierwsze, ponieważ wszystkie ich operacje, w tym również wszystkie „nadludzkie” osiągnięcia typu wygrana w Go czy efektywna diagnostyka chorób, można wytłumaczyć czysto mechaniczną indeksacją wzorców ukrytych w przepastnych zbiorach treningowych danych. Po drugie, ponieważ inteligencja ogólna ma być ogólna właśnie, czyli – tak jak u ludzi – pozwalać na adaptację do skrajnie różnych środowisk, zwłaszcza środowisk nowych, nietypowych, nieznanych. Tego, póki co, żadne AI nie potrafi.

Chollet odwołuje się tutaj do Daniela Kahnemana – amerykańskiego noblisty z ekonomii, psychologa poznania, który rozróżnił dwa systemy działania naszego umysłu. Obecnie systemy oparte na DNN (Gen AI, LLM, CNN itp.) coraz lepiej wykonują działania „Systemu 1” – tzw. „myślenie szybkie”, nawykowe, skuteczne w wykonywaniu zadań (statystycznie) powtarzalnych, efektywne w środowisku stabilnym i przewidywalnym.

Nie umieją natomiast „myśleć wolno”, tj. wykonywać działań „Sytemu 2” – kreatywnego, adaptacyjnego, skutecznego do wykonywania zadań nowych, kontekstowych, wysoce niepowtarzalnych, efektywnego w środowisku niestabilnym, nieprzewidywalnym.

Czym w takim razie jest inteligencja?

Chollet podaje kilka definicji, które oscylują wokół jednej zasadniczej idei: „Inteligencja ogólna to zdolność systemu (ludzkiego lub sztucznego) do efektywnej adaptacji w nowych, nieprzewidywalnych sytuacjach – takich, z którymi ani system, ani jego twórcy czy trenerzy, nie mieli nigdy wcześniej do czynienia. Czyli z grubsza to, co Kahneman nazwał „Systemem 2”.

I żeby było jasne – sam Chollet wierzy w możliwość opracowania AGI, ale odrzuca podejście oparte na założeniach Hintona.

Zakłada właśnie nowy startup Ndea, którego celem jest tworzenie pionierskich systemów sztucznej inteligencji przy użyciu nowatorskich rozwiązań. Na platformie X Chollet napisał: „Stawiamy na inną ścieżkę, aby zbudować AI zdolną do prawdziwej inwencji, adaptacji i innowacji. Wierzymy, że mamy niewielką, ale realną szansę na osiągnięcie przełomu – stworzenie AI, która może uczyć się co najmniej tak wydajnie jak ludzie”.

Czy to nie oznacza, że człowiek w konfrontacji z AI może czuć się zbędny?

Uważam, że dziś każdy powinien sobie zadać bardzo serio pytanie, jak przygotować siebie czy swoją organizację, a przede wszystkim swoje dzieci, na rynek pracy przyszłości. Innymi słowy: co robić już teraz, w co inwestować nasze zasoby, by za 10-15 lat umieć robić rzeczy, których nie potrafią maszyny, a których będzie potrzebować od nas gospodarka.

Pan twierdzi, że są nieautomatyzowalne kompetencje przyszłości, które pozwolą nam przetrwać na rynku pracy.

Tak dziś możemy twierdzić – idąc chociażby tropem argumentacji Cholleta możemy wskazywać bardzo konkretne obszary aktywności, które, póki co, są niedostępne maszynom. I są powody, by sądzić, że jeszcze długo nie będą.

Co konkretnie?

Przede wszystkim te wszystkie zadania i procesy, w których trzeba improwizować, podejmować decyzje w warunkach niepewności, na podstawie niepełnych danych. Te, w których przewagi zyskujemy nie dzięki tzw. indywidualistycznym kompetencjom twardym, opartym na wiedzy eksperckiej i „dobrych sprawdzonych praktykach”, ale dzięki współpracy zespołowej i tzw. kompetencjom miękkim – zaufaniu, wyobraźni, wzajemnej inspiracji, zaangażowaniu oraz umiejętności eksperymentowania.

Od lat podczas wystąpień podpieram się doświadczeniem mojej siostrzenicy, której w roku 2020 udało się dołączyć do programu online szkoły Ad Astra założonej przez Elona Muska i jego współpracowników sfrustrowanych tradycyjnymi programami nauczania. I czego oni tam uczą swoje dzieci? Generalnie dwóch rzeczy: współpracy i działania w warunkach niepewności, kryzysu, niewiadomej. To są kluczowe kompetencje przyszłości.

Przez tysiące lat, człowiek, by przetrwać musiał umieć żyć we wspólnocie. Wspólnotowość i współpraca z innymi była gwarancją bezpieczeństwa. W przyszłości powinniśmy jeszcze pogłębić swoją umiejętność współpracy z drugim człowiekiem, czy może nauczyć się współpracować z AI?

Teoretycznie to się nie wyklucza. Przy czym w praktyce za bardzo oddajemy swoją decyzyjność maszynie – wierzymy, że jej wskazania będą w jakimś sensie lepsze od naszych. Lubimy się zwalniać z myślenia, a zwłaszcza z odpowiedzialności za podejmowane decyzje. Przykładów są setki – po co mam pisać esej, skoro szybciej przygotuje go AI? Albo w jakim celu mam tracić czas na naukę języka obcego, gdy możemy skorzystać z translatora? To najkrótsza droga do ogłupiania siebie i pozbawiania perspektyw na przyszłym rynku pracy.

Nie ma drogi na skróty. Nasze nieautomatyzowalne kompetencje przyszłości mogą być rozwijane wyłącznie poprzez wysiłek, uczenie się i wytrwałość. Osoby z takim nastawieniem – tzw. growth mindset – są bardziej otwarte na wyzwania, chętniej podejmują ryzyko i uczą się na błędach.

Już Platon powiedział: „Wszystko, co piękne, jest naprawdę trudne”.

Platon jest arcyciekawy, chociażby dlatego, że był wrogiem spisywania myśli – 2,5 tys. lat temu uważał, że pisanie nas ogłupia jako technologia. (śmiech) Niby to starożytność, ale z drugiej strony – to ledwie 100 pokoleń. Nasze systemy nerwowe niczym się nie różnią. Zabrzmi to szokująco, ale nasze mózgi są wciąż mózgami jaskiniowców, podobnie jak nasze emocje. Tym, co nas różni, są właśnie technologie.

Chce Pan powiedzieć, że warto byśmy nieco ostudzili swój entuzjazm do AI, bo ta już wkrótce może się okazać bardzo przydatna, ale nie aż tak olśniewająca?

Pik popularności AI mamy już za sobą. Widzimy, że ten pompowany przez BigTechy hype opada – oczekiwania, wyobrażenia, fantazje, obawy, zwłaszcza rozbudzone marketingiem nadzieje inwestorskie, dzisiaj są studzone i weryfikowane. Pokazują to chociażby gwałtowne reakcje giełdy na niedawne osiągnięcia DeepSeek, czy sam fakt, że Open AI od blisko roku zwleka z prezentacją szumnie zapowiadanego modelu GPT-5.

Tak też interpretuję coraz dobitniej słyszane trzeźwiące głosy rozsądku naukowców-praktyków, specjalistów od AI – przywołanego już prof. Arabasa, ale też prof. Marii Kwiatkowskiej z Oxfordu czy prof. Artura Dubrawskiego z Carnegie Mellon, które studzą emocje. AI to świetny wynalazek ludzkiego intelektu, fantastyczna maszyna, ale to cały czas tylko maszyna statystyczna, która lepiej od nas diagnozuje, przewiduje i generuje najbardziej prawdopodobne teksty, obrazy, diagnozy czy rozwiązania. Pod wieloma względami będzie nas przewyższać, a mimo to wciąż będzie jej daleko do naszej inteligencji czy naszych kompetencji specyficznie ludzkich.

Może to jakieś słowa otuchy dla człowieka, zwłaszcza w kontekście wypowiedzi izraelskiego historyka, Yuvala Harari: „Dużo gorzej jest być zbędnym niż wyzyskiwanym” i wizji masowych zwolnień, jakie może generować wykorzystanie AI w biznesie.

Filozoficznie można się z Harari zgodzić, bo choć przewrotne, to jednak prawdziwe stwierdzenie. Warto jednak zauważyć, że – chcemy czy nie chcemy – wyzyskiwani jesteśmy od dawna, bo to my produkujemy organiczne dane, nierzadko jednocześnie płacąc za możliwość ich produkowania.

Pytanie: jak nie być zbędnym? Moja odpowiedź jest taka: rób bardzo trudne rzeczy z bardzo ciekawymi ludźmi. Wtedy jest jakaś szansa.

Trudne rzeczy z ciekawymi ludźmi, to wydaje się idealny przepis na szczęśliwą przyszłość.

Tak, musimy zachować zdolność do robienia rzeczy, których nie potrafią maszyny. Te w pierwszej kolejności będą automatyzować procesy powtarzalne. Dlatego, jeżeli twoja praca dzień po dniu, godzina po godzinie, z projektu na projekt, wygląda bardzo podobnie, to jest spore ryzyko, że twój pracodawca nie będzie miał wyboru – będzie ją musiał zautomatyzować. Pytanie więc, co umieć, aby być potrzebnym?!

Dr Iwo Zmyślony, trener i doradca biznesu,antropolog nowych technologii. Studiował filozofię i historię sztuki na Uniwersytecie Warszawskim, Katolickim Uniwersytecie Lubelskim, Albert-Ludwigs-Universität Freiburg i Katholieke Universiteit Leuven. Doktoryzował się pracą na temat kreatywności w naukach empirycznych. Jest autorem kilkunastu naukowych publikacji w zakresie zarządzania wiedzą ekspercką, „know-how”, „tacit knowledge” i „embodied knowledge” oraz kilkudziesięciu tekstów krytycznych z zakresu kultury eksperymentalnej.

Jako trener i konsultant biznesu stale współpracuje z ICAN Institute, prowadząc szkolenia m.in. z zakresu neuroprzywództwa, sprzedaży przedsiębiorczej i kompetencji przyszłości. Twórca i były szef Biura HR w Centrum Projektów Polska Cyfrowa. Laureat szeregu grantów i stypendiów (m.in. NCN, DAAD, GFPS, „Młoda Polska”). Wykładem “Nieautomatyzowalne kompetencje przyszłości – jak budować trwałe przewagi w świecie AI” w Podkarpackim Centrum Innowacji w Rzeszowie zainaugurował projekt “Człowiek 4.0”, którego pomysłodawczynią i koordynatorką jest Inga Safader-Powroźnik.

Share
Udostępnij
Reklama
Reklama
Reklama
Reklama
Reklama

Nasi partnerzy