Sztuczna inteligencja zerwała się z łańcucha? Ekspertka zabrała głos
Obraźliwe wpisy generowane przez model sztucznej inteligencji Grok na platformie X wywołały dyskusję o odpowiedzialności za treści tworzone przez AI. Psycholożka dr Joanna Gutral w rozmowie z PAP zwróciła uwagę, że użytkownicy udostępniający kontrowersyjne posty czuli się zwolnieni z odpowiedzialności, co doprowadziło do jej rozproszenia. Filozofka prof. Aleksandra Przegalińska podkreśliła, że sytuacja uwidoczniła problem całego systemu odpowiedzialności za sztuczną inteligencję.
We wtorek model AI firmy xAI generował na platformie X obraźliwe i nieprawdziwe treści w odpowiedzi na pytania użytkowników. Kontrowersyjne wpisy dotyczyły między innymi premiera Donalda Tuska, mecenasa Romana Giertycha, prezesa PiS Jarosława Kaczyńskiego oraz Jana Pawła II. W języku angielskim pojawiały się również treści antysemickie i nazistowskie. Po kilkunastu godzinach firma xAI wyciszyła Groka, a problematyczne wpisy zaczęto usuwać.
Dr Gutral zauważyła w rozmowie z PAP, że "nagle okazało się, że tak jak my potrafimy napisać bardzo zgryźliwy komentarz w internecie, tak sztuczna inteligencja również potrafi przybierać podobny ton". Psycholożka wskazała, że użytkownicy chętniej udostępniali treści, które były zgodne z ich poglądami oraz miały ostrzejszy i bardziej emocjonalny charakter. Dodała, że jednym dostarczyło to rozrywki, podczas gdy u innych wzbudziło niepokój.
Ekspertka podkreśliła, że pomimo coraz częstszego antropomorfizowania sztucznej inteligencji, nie jest ona człowiekiem, któremu można postawić zarzuty za naruszenie dóbr osobistych czy mowę nienawiści. To sprawiło, że użytkownicy rozpowszechniający generowane treści czuli się bezkarni, a odpowiedzialność uległa rozproszeniu.
Dalsza część artykułu pod materiałem wideo
"Mnóstwo pieniędzy". Gen. Kraszewski o polskiej produkcji dronów
Normalizacja agresywnej komunikacji w przestrzeni publicznej
Prof. Przegalińska w komentarzu dla PAP zwróciła uwagę, że sytuacja z Grokiem generującym posty chwalące Adolfa Hitlera ujawniła brak odpowiedzialnej moderacji na platformie X oraz testowanie narzędzi AI "na żywym organizmie". Zdaniem filozofki nie jest to problem ograniczony do jednego czatbota, ale całego systemu odpowiedzialności za sztuczną inteligencję.
"Użytkownicy mają prawo oczekiwać, że systemy, z którymi wchodzą w interakcje, nie będą propagować treści niebezpiecznych lub ekstremistycznych. W przeciwnym razie mamy do czynienia z erozją zaufania, nie tylko do technologii, ale i do całej przestrzeni publicznej" - podkreśliła prof. Przegalińska.
Dr Gutral ostrzegła, że tego typu sytuacje mogą prowadzić do normalizacji "zachowań patologicznych i agresywnych" w przestrzeni publicznej. Jak wyjaśniła, obraźliwy sposób komunikacji staje się coraz bardziej powszechny, a ekspozycja na takie treści wzrasta. Na podobny mechanizm normalizacji skrajnych treści wskazała również prof. Przegalińska, zauważając, że Grok od początku był projektowany jako mniej poprawna politycznie alternatywa dla innych modeli, jednak "granica między ironią a przyzwoleniem na skrajności szybko się zaciera".
Psycholożka zauważyła, że etyka i normy kulturowe w przestrzeni publicznej zaczęły zmieniać się wraz z rozpowszechnieniem mediów społecznościowych. Kilkadziesiąt lat temu publiczne obrażanie kogoś w czasopismach czy telewizji było nie do pomyślenia. Internet i media społecznościowe dały każdemu możliwość swobodnego wyrażania opinii, co spowodowało przesunięcie granic norm etycznych i kulturowych.
Reakcje instytucji i plany na przyszłość
Ministerstwo Cyfryzacji poinformowało PAP, że wicepremier i minister cyfryzacji Krzysztof Gawkowski 9 lipca wystosował oficjalne pismo do Komisji Europejskiej w sprawie Groka. Minister wskazał, że odpowiedzi generowane przez model AI, w tym "wypowiedzi o charakterze obraźliwym, wulgarnym i potencjalnie zniesławiającym", mogą naruszać postanowienia Aktu o usługach cyfrowych (DSA). Wicepremier zwrócił się do KE z żądaniem wszczęcia odpowiedniego postępowania wyjaśniającego, również w kontekście trwającego już postępowania naruszeniowego wobec platformy X.
Według resortu cyfryzacji przypadki generowania przez Groka treści zawierających "pomówienia, mowę nienawiści czy manipulację informacyjną" wymagają natychmiastowej reakcji ze strony instytucji europejskich. Ministerstwo podkreśliło, że użytkownicy platform cyfrowych muszą być skutecznie chronieni przed nielegalnymi i szkodliwymi treściami, niezależnie od tego, czy zostały wygenerowane przez ludzi czy algorytmy.
Wicepremier Gawkowski przekazał PAP, że projekt nowelizacji ustawy wdrażającej w Polsce DSA znajduje się obecnie w Stałym Komitecie Rady Ministrów, który nanosi ostatnie poprawki. Minister wyraził nadzieję, że projekt trafi pod obrady rządu i zostanie ostatecznie przyjęty "w najbliższych tygodniach". Dodał również, że zamierza omówić tę sprawę z prezydentem elektem Karolem Nawrockim.
Komisja Europejska 10 lipca potwierdziła otrzymanie pisma Ministerstwa Cyfryzacji w sprawie Groka. Rzecznik KE Thomas Regnier zapewnił, że Komisja traktuje sprawę poważnie i dopilnuje, aby DSA był przestrzegany. Dodał, że KE jest w kontakcie zarówno z władzami krajowymi, jak i z samą platformą X, a pismo zostanie przeanalizowane i w odpowiednim czasie zostanie udzielona odpowiedź.
W piątek 4 lipca Elon Musk ogłosił na platformie X, że Grok zostanie wkrótce zaktualizowany. Według portalu "The Verge", firma xAI zmodyfikowała systemowe instrukcje modelu, umożliwiając mu generowanie politycznie niepoprawnych treści, jeśli były dobrze uzasadnione. Zaktualizowana wersja pojawiła się w Polsce 8 lipca. Po fali krytyki xAI zapewniła, że pracuje nad blokowaniem mowy nienawiści i usuwaniem nieodpowiednich wpisów, podkreślając jednocześnie, że Grok ma służyć "poszukiwaniu prawdy". W środę 9 lipca Elon Musk napisał na platformie X, że Grok "zbyt posłusznie wykonywał polecenia użytkowników" oraz "za bardzo chciał ich zadowalać i być zmanipulowanym". Tego samego dnia firma xAI zaprezentowała swój najnowszy model – Grok 4.