Michał Wąsowski, money.pl: Czyta pan powieści science fiction? Czy może już w nich żyjemy?
Prof. Michał Kosiński: Wydaje mi się, że już dzisiaj żyjemy w świecie science fiction. Postęp przyspiesza wykładniczo. Zmiany, które kiedyś zajęłyby pokolenia, dziś zachodzą z roku na rok czy z miesiąca na miesiąc. Jeśli ktoś jest dziś pod wrażeniem postępu w rozwoju sztucznej inteligencji, to niech pamięta o tym, że następny rok przyniesie nam tyle postępu, ile zdarzyło się od początku tej technologii do dzisiaj.
A jest jakieś zastosowanie sztucznej inteligencji, które chciałby pan zobaczyć w dającej się przewidzieć przyszłości - np. 5 lat - a którego dzisiaj jeszcze nie ma? Dla ułatwienia, niech będzie korzystne społecznie. Coś, co naprawdę ułatwi życie ludziom.
Już dzisiaj każdy z nas ma w kieszeni dostęp do całej "biblioteki ludzkości" - Google. Jutro każdy z nas będzie miał w kieszeni dostęp do miłego, cierpliwego, rozumiejącego nas filozofia, nauczyciela, naukowca.
Dalsza część artykułu pod materiałem wideo
Sztuczna inteligencja doradzi nam, wytłumaczy, pomoże być dobrym człowiekiem, partnerem, rodzicem, obywatelem. Opowie nam historię, nauczy czegoś interesującego. Oczywiście, z punktu widzenia osób dziś uprzywilejowanych - wykształconych, żyjących w dużych miastach, taka technologia to miły dodatek.
Ale nie zapominajmy, że większość ludzi na świecie nie ma przywileju dostępu do profesorów, doktorów, myślicieli. Dla nich będzie to moment dramatycznej zmiany i wielkiego postępu.
Wydaje się pan być bardzo optymistyczny względem rozwoju AI. To znaczy, że sztuczna inteligencja jako technologia jeszcze bardziej niż internet zdemokratyzuje dostęp do wiedzy, nauki, rozwoju? Dzisiaj te modele są przecież płatne i dostępne dla stosunkowo małej grupy ludzi.
Tak, wydaje mi się, że będzie to niesamowita demokratyzacja dostępu do wiedzy, nauki, porad, komunikacji. Modele te są płatne, ale niesamowicie tanie w porównaniu z dzisiaj dostępną alternatywą. Wizyta u 'sztucznego' lekarza może kosztować kilka groszy. Wizyta u prawdziwego lekarza to dziesiątki lub setki złotych, a wielu ludzi na świecie nie ma nawet do takiego lekarza dostępu.
Nie zapominajmy jednak, że to samo narzędzie, które może nam w czymś pomóc lub nauczyć, może też zostać wykorzystane, by nam zaszkodzić lub nami manipulować. To samo narzędzie może pomóc mi programować i prowadzić eksperymenty biologiczne, jak i pomóc mi stworzyć biologicznego lub komputerowego wirusa. To, co kiedyś wymagało lat nauki, jutro AI pomoże nam zrobić natychmiast.
Podobnie jak w przypadku wielu innych technologii zwiększających potencjał człowieka, tak i teraz tylko od nas zależy, jak ją wykorzystamy. W przeciwieństwie jednak do poprzednich technologii, które były wyrazem ludzkiego geniuszu - młotka, silnika spalinowego - sieć neuronowa nie tylko sama poprawia swoje działanie, ale może też działać bez naszego udziału.
To znaczy?
Sieć neuronowa jest istotą samą w sobie. Kiedyś sztuczna inteligencja, starego typu, to był algorytm z ciągiem warunków: jeśli stanie się to, zrób to. Komputer Deep Blue, który w 1996 roku wygrał w szachy z Garrim Kasparovem, korzystał z wielkiej bazy danych tysięcy gier i ruchów szachowych oraz niesamowitej mocy obliczeniowej. Obserwując ruch człowieka, albo grał "z pamięci", powtarzając ruchy arcymistrzów w podobnej sytuacji, albo używał mocy obliczeniowej do testowania miliardów możliwych ruchów, by wybrać ten najlepszy.
Kilka lat temu naukowcy z Deep Mind postanowili nauczyć sztuczną inteligencję gry w szachy i w GO. Dali AI - opartej na sieciach neuronowych - planszę do gry. Zamiast tłumaczyć jak grać, kazali jej grać samej ze sobą. Nauczyła się niesamowitej gry, odkrywając strategie, których ludzie nigdy nie wymyślili.
Wszystko dzięki temu, że zmieniono całkowicie podejście: nie uczono sztucznej inteligencji, jak ma coś robić lepiej czy najlepiej, tylko polecono jej samej się nauczyć to robić. Na tym polega nowy typ AI.
Zdaje pan sobie sprawę, że dla wielu osób brzmi to przerażająco? Ludzie obawiają się tego nieznanego tworu, który może być w pewnych aspektach mądrzejszy, szybszy od nas. I boją się tego, co z taką technologią zrobią złe osoby.
Na pewno będą jednostki, które zechcą wykorzystać tę technologię w niecnych czy negatywnych celach.
Sztuką nie jest upewnienie się, że nikt nigdy nie podłoży ognia pod budynek. Tego zagwarantować się nie da. Sztuką jest z jednej strony stawiać budynki, które nie są łatwopalne, a z drugiej strony utrzymywać dobrą i dobrze wyszkoloną straż pożarną. Dokładnie to samo odnosi się dzisiaj do sztucznej inteligencji.
Nie możemy zapewnić, że nikt tej technologii nie wykorzysta w złych celach. Doświadczanie wypadków też pomoże nam wykształcić system immunologiczny, który pozwoli opanować problemy. W pewnym sensie powinniśmy życzyć sobie, by te problemy zaczęły pojawiać się jak najszybciej. Im wcześniej ich doświadczymy, tym większa szansa na rozwój odpowiednich rozwiązań ochronnych. Lepiej teraz niż za kilka lat, kiedy AI będzie dużo bardziej potężna.
A propos bezpieczeństwa - każdy kraj, kultura, język, powinien mieć swój model językowy?
AI to technologia z tendencją kuli śniegowej. Im więcej języków pozna dany model, tym łatwiej nauczy się nowych. I tym bardziej jest przydatny, bo łatwiej będzie mu operować na wiedzy zawartej w innych językach. To wyścig, w którym zwycięzca bierze wszystko.
Im więcej ludzi i języków pojawia się w orbicie modelu, tym model jest potężniejszy i lepszy we wszystkim, co robi. Więcej ludzi z niego korzysta, on staje się jeszcze potężniejszy i tak dalej. Taki monopol zabija jednak postęp i jest dla nas bardzo niebezpieczny. Dlatego myślę, że utrzymywanie konkurencji, na przykład przez regulacje, jest kluczowe. Nawet jeśli to spowolni trochę postęp w krótkim horyzoncie czasowym. Wyzwaniem będzie zachowanie jakiejś równowagi.
Wspomniał pan o regulacjach. UE chce mocno regulować AI. Jedni twierdzą, że to robi z nas skansen. Inni, że musimy się chronić, a i tak już jest za późno. Wierzy pan, że można w regulacjach AI zrównoważyć postęp i ochronę przed zagrożeniami?
Myślę, że problem nie jest czarno-biały. Zbyt mało regulacji może się dla nas wszystkich źle skończyć. Zbyt dużo regulacji spowalnia rozwój i może go zatrzymać. Może się okazać, że nadmierne regulacje nowych technologii w Europie spowodują, iż rozwiną się one poza naszymi granicami - tak jak było wcześniej z sieciami społecznościowymi i wyszukiwarkami. I teraz musimy korzystać z tych amerykańskich.
W kontekście AI obawiam się, abyśmy podobnie nie wylali dziecka z kąpielą. Może być tak, że zbyt dużo regulacji zatrzyma rozwój tej technologii w Europie, i będziemy musieli korzystać z sieci neuronowych ze Wschodu albo Zachodu, które wyewoluowały poza naszą kontrolą.
Z drugiej strony, firmy mogą obawiać się publikować modele niezgodne z polityczną poprawnością - by AI nie powiedziało czegoś niepoprawnego. Inny problem z polityczną poprawnością mamy w USA czy Europie Zachodniej, a inny w Chinach. Rząd chiński jasno powiedział firmom pracującym nad AI, że powinni mniej obawiać się konsekwencji naruszenia cenzury i regulacji. Wygrana w wyścigu jest dla nich najważniejsza.
Czyli Chińczycy uznali, że postęp jest ważniejszy niż cenzura?
Tak, dokładnie. Nawet Chiny, które bardzo dokładnie regulują i cenzurują dziennikarzy, pisarzy, artystów, a nawet indywidualnych obywateli. Nagle zorientowali się, że regulacja w kontekście sztucznej inteligencji jest bardzo nieefektywna. Zdecydowali się na krok bardzo niechiński, otwarcie na problemy z tym związane.
A nie ma pan wrażenia, że obawy dotyczące AI są pochodną wpływu social media i upowszechnienia smartfonów? Widzimy, że te dwie technologie wpływają na nasze mózgi i zdolności intelektualne, boimy się, że AI jeszcze bardziej nas "ogłupi". Pan z kolei twierdzi, że zatracenie pewnych umiejętności na skutek pojawienia się sztucznej inteligencji nie musi być złe.
Absolutnie. Cieszę się zupełnie, że zatraciliśmy umiejętność wyjmowania sobie grotów strzał z pleców i uciekania przed tygrysami. Postęp powoduje, że już nie musimy wiedzieć lub umieć rzeczy, które kiedyś były kluczowe do przetrwania. Mamy czas, aby nauczyć się rzeczy nowych. Te nowe umiejętności często nie są rozpoznawalne dla ludzi "z wczoraj" jako coś ważnego. Ja dorastałem w czasach, gdy nauka programowania czy obsługi komputera wielu starszym ludziom wydawała się mniej ważna niż majsterkowanie.
Czyli nie będziemy mniej inteligentni, tylko inteligentni inaczej?
Tak. To znowu rodzi pytanie: czym jest inteligencja? Z historycznego punktu widzenia mamy coraz większe mózgi, coraz więcej inteligencji. Im bardziej rozwiązujemy problemy dnia codziennego technologią - zdobycia pożywienia, i tak dalej -tym bardziej nasza aktywność, skupienie, przenosi się na aktywności umysłowe. Sztukę, kulturę, bycie lepszym naukowcem, rzemieślnikiem. Myślę, że ten kierunek będzie kontynuowany.
Będziemy na to mieli więcej czasu - i dziś już to widać. Konsumujemy teksty, filmy, podcasty, w ilościach zupełnie nie do pomyślenia kilka dekad temu. Ludzie mają hobby, starają się grać na instrumentach, podróżują. Z punktu widzenia historycznego, większość naszych codziennych aktywności jest zupełnie stratą czasu w kontekście przetrwania czy rozwoju gatunku. Służą dostarczaniu sobie przyjemności.
To piękna wizja, ale mógł pan trafić na taki słynny cytat: myśleliśmy, że sztuczna inteligencja będzie za nas prać, prasować, gotować, a my będziemy mieć czas na pisanie wierszy, książek, muzyki. Tymczasem dzisiaj to AI pisze książki i wiersze, a my musimy dalej prać i prasować. To kiedy to się zmieni?
Myślę, że już niedługo, problemy prac domowych będą rozwiązywane tak jak w Jetsonach, robot się tym zajmie. Z punktu widzenia człowieka sprzed 100 lat, już dzisiaj żyjemy w świecie Jetsonów - pralka czy zmywarka to przecież proste roboty. Do tej pory barierą rozwoju było trenowanie robotów do wykonywania bardziej złożonych czynności i rozpoznania, co dzieje się dookoła nich.
Przykład Alpha Zero czy ChatGPT pokazuje, że roboty mogą uczyć się same. I w ten sposób mogą się też nauczyć prasowania, gotowania, poruszania się po domu.
Kluczowa jest metoda trenowania. Kiedyś oparta na "powolnym i drogim "tłumaczeniu" robotowi co i jak robić. A dzisiaj oparta na siatkach neuronowych, które same się trenują i dzięki temu mały start-up może stworzyć robopsa albo roboczłowieka.
Rozmawiał Michał Wąsowski, zastępca szefa redakcji money.pl
*Michał Kosiński jest profesorem na Stanford Graduate School of Business. Specjalizuje się w naukach cyfrowych naukach społecznych, sztucznej inteligencji i psychometrii.