"Na końcu tej drogi nie ma człowieka". Ceniony naukowiec przestrzega przed AI
Kilka lat dzieli nas od powstania algorytmów zdolnych do samodzielnego podejmowania decyzji, wpływania na świat fizyczny oraz samoulepszania się. Nie mamy żadnej gwarancji, że ta superinteligencja będzie nam służyła, a nie prowadziła do zagłady ludzkości - mówi w rozmowie z money.pl prof. Jakub Growiec.
Grzegorz Siemionczyk, money.pl: W opublikowanym w lutym opowiadaniu "Najlepszy z możliwych światów" roztacza pan perspektywę rychłego zniszczenia ludzkości przez zaawansowaną sztuczną inteligencję, która przestaje służyć człowiekowi. Dlaczego ceniony ekonomista, specjalizujący się w teorii wzrostu gospodarczego, zajął się literaturą science-fiction?
Prof. dr hab. Jakub Growiec, wykładowca SGH: Tematem sztucznej inteligencji zająłem się, myśląc właśnie o długookresowym wzroście gospodarczym. W XX w. głównym motorem wzrostu był postęp technologiczny, który zwiększał produktywność pracy. Dzięki nowym pomysłom pracowaliśmy coraz wydajniej. To pozwalało przebijać się gospodarce przez wąskie gardło, jakim była właśnie podaż pracy per capita (na osobę). Jednak począwszy od lat 80. XX w., a przede wszystkim w XXI w., zaczęły upowszechniać się technologie cyfrowe oraz techniki automatyzacji, które częściowo pracę zastępują.
Choć coraz więcej zadań jest dziś automatyzowanych, ludzie nadal są potrzebni, czyli nadal mówimy o zwiększaniu produktywności pracy. Ale możemy sobie już wyobrazić w niedalekiej przyszłości automatyzację całych złożonych procesów produkcyjnych. One będą w pełni autonomiczne, czyli to, ilu będzie pracowników i jak będą kompetentni, nie będzie już żadnym ograniczeniem dla wzrostu gospodarczego. Źródłem wzrostu przestanie być postęp technologiczny zwiększający efektywność pracowników, a zacznie nim być ekspansja procesów autonomicznych, czyli akumulacja robotów i mocy obliczeniowych, które będzie mogła wykorzystać zaawansowana sztuczna inteligencja.
Dalsza część artykułu pod materiałem wideo
Odcinek 6 - Analizuj, nie zgaduj - wykorzystanie danych w strategii marketingowej.
Stąd do apokalipsy jeszcze daleka droga. Jeśli będziemy w stanie dobrze podzielić owoce tego wzrostu gospodarczego, którego źródłem staną się roboty, to ludzie będą mogli pracować znacznie mniej, ciesząc się wyższymi dochodami?
To jest właśnie nadzieja, jaką wiele osób pokłada w rozwoju sztucznej inteligencji. Ale obawiam się, że ten rozwój będzie prawdopodobnie przebiegał inaczej.
Kompetencje algorytmów sztucznej inteligencji ogólnego zastosowania – czyli takich, jakimi dzisiaj są modele językowe i rozumujące – będą rosły aż do przekroczenia krytycznego progu, gdy nawet procesy decyzyjne będą mogły być zautomatyzowane, jako że sztuczna inteligencja będzie w stanie realizować je lepiej niż człowiek.
W tym momencie maszyny przestaną być komplementarne wobec pracy, tzn. przestaną być narzędziem w naszych rękach, a staną się pełnym substytutem pracy. Spodziewam się, że wówczas oddamy sztucznej inteligencji (wtedy już superinteligencji) sporą część kontroli nad światem.
Pytanie, jaka to będzie część i czy będziemy mieli na to wpływ. Pamiętajmy, że próg umiejętności, inteligencji człowieka nie jest nieskończony. Już dzisiaj mamy algorytmy sztucznej inteligencji, które pod względem wybranych kompetencji przewyższają człowieka – i to nie przeciętnego, tylko eksperta w danej dziedzinie. Na razie te algorytmy mają wąskie zastosowania, ale spektrum tych zastosowań szybko się rozszerza. To jest droga, na końcu której nie ma już człowieka.
Proszę wybaczyć, ale trudno w to uwierzyć. Przez całe wieki praca – czyli człowiek - była czynnikiem produkcji, który ograniczał rozwój gospodarki. Ale człowiek był też kołem zamachowym tego rozwoju, bo był źródłem popytu. Koncepcja rozwoju gospodarczego, który nie służy ludzkości i zaspokajaniu jej potrzeb, wydaje się wewnętrznie sprzeczna.
Proszę zauważyć, że potrzeby ludzi się zmieniają. W miarę jak się bogacimy, w gospodarce maleje znaczenie rolnictwa i innych sektorów, które produkują towary niezbędne do naszego przetrwania. Zaczynamy cenić inne towary i usługi, które nie są nam – ściśle rzecz biorąc – potrzebne do życia. To z kolei sprawia, że obok popytu konsumpcyjnego, wyrastającego bezpośrednio z biologicznych potrzeb ludzi, mamy też popyt na dobra i usługi pozwalające nam realizować potrzeby wyższego rzędu.
Równocześnie mamy też popyt inwestycyjny, pozwalający podtrzymać lub zwiększać kapitał produkcyjny. W skrajnym scenariuszu utraty kontroli cały popyt w gospodarce może być generowany przez sztuczną inteligencję w celu podtrzymania i rozwijania gospodarki kierowanej przez sztuczną inteligencję, a także być może realizacji jej wyższych celów, których oczywiście dzisiaj jeszcze nie znamy.
Ale po co? Produkcja dla samej produkcji jest możliwa w naszym świecie dlatego, że ludzie nie są istotami w pełni racjonalnymi i mają różne cele, których nie potrafią skoordynować. Dlatego indywidualne dążenia do dobrobytu mogą łącznie prowadzić do nadprodukcji, degradacji środowiska naturalnego, wojen i w końcu – to znowu apokaliptyczna wizja – samounicestwienia ludzkości. Ale superinteligencja, zdolna do zastąpienia człowieka, byłaby chyba racjonalna?
Tak, ale sama racjonalność nie wystarczy, byśmy mogli być spokojni o naszą przyszłość. Gdy mówię o superinteligencji, mam na myśli przede wszystkim jej zdolność do efektywnej realizacji celów. A to pociąga za sobą zdolność realizacji tzw. celów pomocniczych. Nick Bostrom (szwedzki filozof – przyp. red.) wskazuje cztery takie cele:
- przetrwać, czyli w kontekście AI, nie dać się wyłączyć ani przeprogramować,
- zakumulować jak najwięcej zasobów,
- wykorzystać je możliwie efektywnie,
- poszukiwać nowych sposobów realizacji celu podstawowego.
Autonomiczna AI, nawet z dobrze zdefiniowanym celem podstawowym, może więc podejmować działania, które będą dla człowieka skrajnie niekorzystne, ze względu na chęć realizacji celów pomocniczych.
Krótko mówiąc, zagrożenie związane z AI nie wynika z celów, jakie ona może sobie stawiać, tylko z samej logiki jej działania?
Tak. Tworzymy bardzo inteligentnego i bardzo skutecznego w działaniu agenta, który będzie coś optymalizował. I nawet jeśli to będzie zbieżne z naszymi celami jako ludzkości, to mogą się pojawić skutki uboczne tej optymalizacji, których nie potrafimy przewidzieć i których nie będziemy w stanie skorygować. Algorytm będzie od nas sprytniejszy i nie będziemy potrafili go przeprogramować ani wyłączyć. Tak samo w walce o zasoby taki algorytm będzie od nas skuteczniejszy, co sprawi, że tę walkę najprawdopodobniej wygra.
Jak na tę wizję reagują znajomi naukowcy? Uważają, że pan zwariował?
Nie słyszałem wielu merytorycznych argumentów, że mylę się w swoich przewidywaniach. Obserwuję raczej mechanizm wyparcia.
Wiele osób uważa, że ta wizja rozwoju AI jest straszna, więc dla spokoju ducha lepiej o tym nie myśleć, zwłaszcza jeśli indywidualnie niewiele możemy zrobić, aby temu zaradzić. Inni z kolei sądzą, że wybiegam za daleko w przyszłość.
Czego jeszcze brakuje dzisiejszym dużym modelom językowym (LLM), które powszechnie nazywamy sztuczną inteligencją, aby stały się tą groźną dla ludzkości ogólną sztuczną inteligencją lub też superinteligencją?
Brakuje im oraz mniej. Gołym okiem widać, jak szybko zwiększają się kompetencje kolejnych wersji tych popularnych modeli jak GPT, Claude, Gemini, itp.
Tym, czego modelom AI wciąż brakuje, jest przede wszystkim sprawczość, zdolność do autonomicznego realizowania planów. To są wciąż chatboty, które wymagają interakcji z użytkownikiem. Jeśli chcemy wykonać jakieś dłuższe zadanie, wymagające całej sekwencji kroków, to te modele prędzej czy później zawodzą. Ale wysiłki ich twórców idą w tę stronę, żeby autonomia algorytmów AI w podejmowaniu decyzji i realizacji długofalowych planów była jak największa.
To byłaby bardzo niebezpieczna umiejętność.
Kolejną zdolnością, której te modele dziś jeszcze nie mają, jest wpływ na świat fizyczny, a nie tylko wirtualny. Ale im więcej będzie dronów, autonomicznych pojazdów i innych robotów, którymi można zdalnie sterować, tym ten wpływ będzie większy. Algorytmy będą w stanie działać w świecie fizycznym bez pośrednictwa człowieka. Trzecia właściwość, której jeszcze brakuje modelom AI, to zdolność do samodoskonalenia, czyli do przeprogramowywania się bez ingerencji człowieka.
Kiedy pańskim zdaniem modele AI nabiorą tych kompetencji?
Nie mam swoich własnych przewidywań, ale szeroko dyskutowany ostatnio raport "AI 2027" wskazuje już na rok 2027 r. jako moment przełomu. O tej dacie wspominają też szefowie niektórych firm technologicznych, choć w ich przypadku może to być sposób na zwiększanie wycen ich firm. "AI 2027" został jednak napisany przez niezależnych badaczy.
Mediana ponad 1500 prognoz zebranych przez serwis metaculus.com wskazuje z kolei, że ogólna sztuczna inteligencja pojawi się około 2030-32 roku. Tak czy inaczej, mówimy o bardzo nieodległej przyszłości.
Ten przełom technologiczny może być dla ludzkości zarówno zagrożeniem, jak i szansą na przyspieszenie rozwoju gospodarczego. Czy ryzyko, że zrealizuje się czarny scenariusz, który kreśli pan w swoim opowiadaniu, jest tak duże, że uzasadnia rezygnację z potencjalnie bardzo dużych korzyści gospodarczych?
To jest bardzo dobre pytanie, szczególnie że mówimy o naprawdę dużych korzyściach. Można przewidywać, że ogólna AI byłaby w stanie podnieść dynamikę wzrostu PKB o rząd wielkości, czyli z około 2-3 proc. rocznie do 20-30 proc. To oznaczałoby, że łączny produkt wytwarzany na świecie podwajałby się co mniej więcej 2,5 roku, a nie co 25 lat, jak obecnie.
Niedawno napisałem wraz z Klausem Prettnerem artykuł naukowy, w którym próbowaliśmy oszacować, jakie duże ryzyko egzystencjalne związane z AI optymalizujący społeczny planista byłby gotów zaakceptować w zamian za obietnicę takiego przyspieszenia wzrostu. Okazuje się jednak, że nawet niewielkie ryzyko uzasadniałoby znaczące zwiększenie nakładów na bezpieczeństwo związane z AI. Zakładając nieco wyższe ryzyko, taki troszczący się o dobrostan ludzkości planista byłby gotów całkowicie zrezygnować z rozwijania AI.
Kluczowy wniosek z naszego artykułu jest taki, że na bezpieczeństwo technologii AI powinniśmy wydawać o wiele rzędów wielkości więcej niż obecnie, a nawet obietnice bajecznego wzrostu zwykle nie wystarczają, by przeważyć nad ryzykiem egzystencjalnym. Osobiście uważam, że to ryzyko jest bardzo duże – prawdopodobieństwo, że ludzkość wyginie przed końcem tego stulecia oceniam subiektywnie na 85 proc.
Natomiast omawiany artykuł stwierdza, że podejście współczesnego świata do zagrożeń zaawansowanej AI byłoby nieracjonalne, nawet gdyby faktycznie ryzyko to wynosiło 1 czy 2 proc. My naprawdę pędzimy z zamkniętymi oczami w stronę przepaści.
Jaka jest szansa na to, że AI nigdy nie osiągnie tak zaawansowanego poziomu, bo barierą okaże się niedobór zasobów, np. energii albo pewnych rzadkich surowców potrzebnych do produkcji półprzewodników?
Mnie ten argument, że ograniczony dostęp do energii okaże się barierą dla rozwoju AI, nie przekonuje. Obecnie moce obliczeniowe związane ze sztuczną inteligencją mają niewielki udział w zużyciu energii elektrycznej ogółem. Ten udział może jeszcze rosnąć. Tym bardziej że istnieje wciąż spory potencjał do zwiększenia produkcji energii, zwłaszcza jeśli tak, jak dziś w USA, u władzy będą ludzie, którzy nie troszczą się zanadto o środowisko i chętnie korzystają z węglowodorów. Przede wszystkim jednak efektywność energetyczna procesorów rośnie systematycznie w sposób wykładniczy.
Co należy w takim razie zrobić, aby zminimalizować ryzyko egzystencjalne związane z AI? Należy zatrzymać rozwój tej technologii, aby algorytmy nie nabyły tych trzech kluczowych kompetencji, o których pan mówił?
Moim zdaniem tak. Choć jestem świadomy, że to jest w tej chwili mało popularna teza. Kompetencje AI, które są dzisiaj rozwijane, już są bardzo blisko tych niebezpiecznych, które mogą zagrozić egzystencji ludzkości. Organizacja PauseAI, z którą sympatyzuję, oraz inne podobne organizacje, postulują zatrzymanie wyścigu, który się toczy między firmami tworzącymi modele sztucznej inteligencji. To jest wyścig konkurencyjny w Dolinie Krzemowej, ale też w coraz większym stopniu wyścig geopolityczny i wojskowy między USA i Chinami, w kierunku jak najbardziej ogólnej i zaawansowanej AI.
Uważam, że potrzebne jest światowe moratorium na rozwój AI powyżej pewnych progów wielkości modelu, przy czym te progi muszą być korygowane o efektywność.
Wzrost efektywności będzie bowiem sprawiał, że modele danej wielkości będą też szybko nabierały kompetencji. To moratorium powinno obowiązywać dopóty, dopóki nie rozwiążemy przekonująco problemu zgodności tych modeli z długofalowym dobrostanem ludzkości.
Ten problem ma rozwiązanie? Kto ma go szukać?
Nie wiemy tego dzisiaj. Ale nawet jeśli ma, to przy obecnym tempie rozwoju AI z pewnością nie znajdziemy go na czas. Jeśli nie damy sobie tej szansy, to nie będziemy mieć żadnej gwarancji, że sztuczna inteligencja, która powstanie w nieodległej przyszłości, będzie nam służyła, a nie doprowadzi do naszej zagłady.
Abstrahując od sytuacji geopolitycznej, w której trudno liczyć na porozumienie o globalnym charakterze, czy takie moratorium dałoby się wyegzekwować? Jak pokazał chiński start-up DeepSeek, próg wejścia na rynek modeli AI jest stosunkowo niski. Nietrudno sobie wyobrazić, że nawet gdyby wprowadzono międzynarodowy zakaz rozwoju AI, istniałaby szara strefa, w której takie prace byłyby nadal prowadzone.
Istnieją już pomysły, jak ten problem rozwiązać. Szczegóły można znaleźć na przykład w raporcie "A Narrow Path" ("Wąska Ścieżka" – przyp. red.). Bariery wejścia na rynek AI są wbrew pozorom spore, zwłaszcza jeśli mówimy o modelach ogólnej inteligencji.
Uczenie tych modeli wymaga ogromnych mocy obliczeniowych, które mogą zapewnić tylko nieliczne typy procesorów (GPU). Producentów takich procesorów jest niewielu, to jest nieomal monopol tajwańskiego TSMC. To ułatwia monitoring już teraz, bo wiadomo kto i dokąd te układy sprzedaje.
Technologicznie możliwe jest też wdrukowywanie w każdy taki układ lokalizatora czy też zdalnego wyłącznika na wypadek, gdyby dostał się w niepowołane ręce. Wydaje się, że zapewnienie stabilności moratorium na rozwój AI jest prawdopodobnie mniejszym wyzwaniem niż jego uzgodnienie.
Jak ocenia pan dotychczasowe efekty działania PauseAI i podobnych inicjatyw? Spotkał się pan z zarzutem, że zamiast hamować rozwój AI, tylko promujecie tę technologię, pokazujecie jej potencjał i w ten sposób napędzacie konkurencję?
Tak, spotkałem się z tym zarzutem. Przyznaję, że na razie efekty tych działań są rozczarowujące. Mam wrażenie, że rozwój AI powszechnie wywołuje niepokój, ale taki dość powierzchowny. Ludzie obawiają się, że mogą stracić pracę. Ale im bliżej biznesu i polityki, tym więcej jest głosów bardzo entuzjastycznych.
Dobrze widać to w Polsce, gdzie słyszymy, że AI to technologia przyszłości, że musimy w nią inwestować, bo od tego zależy dobrobyt naszych dzieci, konkurencyjność naszej gospodarki. Głosy ostrzegawcze słabo się przebijają mimo wagi problemu, którego dotyczą i tego, że płyną z ust wielu uznanych, niezależnych naukowców, takich jak ubiegłoroczny noblista w dziedzinie fizyki Geoffrey Hinton, Yoshua Bengio czy Stuart Russell.
A może konkurencja kilku modeli superinteligencji byłaby scenariuszem optymistycznym? Można sobie wyobrazić, że gdyby powstał model AI, którego zdolności przekraczają krytyczny próg, to dzięki decentralizacji tego rynku, pojawiłby się szybko model zdolny to jakiejś neutralizacji tego pierwszego. Szczególnie że wtedy ryzyko egzystencjalne związane z AI stałoby się bardziej namacalne, niż jest teraz.
W tym momencie rzeczywiście rynek AI jest bardziej konkurencyjny niż rynki niektórych innych nowych technologii, na których korzyści skali są tak duże, że "zwycięzca bierze wszystko". Ale to się może zmienić. Model, który uzyska zdolność do rekursywnych samoulepszeń, może wejść na trajektorię szybkiej ucieczki. Tak jest w moim opowiadaniu, w którym jeden model zatrzymuje w blokach startowych wszystkie inne.
Ale znam też inne scenariusze, w których powstaje kilka równie kompetentnych modeli wchodzących w interakcje, np. formę zmowy albo co gorsza, wojny. A otwarta, gorąca wojna prowadzona przez dwa, lub więcej modele superinteligencji na pewno nie byłaby dla ludzkości scenariuszem optymistycznym.
***
Prof. dr hab. Jakub Growiec jest wykładowcą w Szkole Głównej Handlowej. Specjalizuje się w teorii wzrostu gospodarczego, w tym zagadnieniach postępu technologicznego. Jest członkiem prezydium Komitetu Nauk Ekonomicznych Polskiej Akademii Nauk, a także członkiem sieci badawczej ds. sztucznej inteligencji skupionej wokół think-tanku CEPR.
Rozmawiał Grzegorz Siemionczyk, główny analityk money.pl