"Superbroń" i masowa inwigilacja? Open AI przyjmuje kontrowersyjny projekt
Open AI wyraziła gotowość do współpracy z amerykańskim resortem obrony w zakresie prac nad autonomiczną bronią i systemem inwigilacji. W sieci nasilił się ruch "Cancel ChatGPT". Choć Sam Altman zapewnił, że modele OpenAI nie będą używane do masowej inwigilacji, to władze uściślają, że mają do tego prawo w określonych przypadkach.
W ubiegłym tygodniu inny z gigantów cyfrowych, Anthropic, poinformował, że sprzeciwia się zleceniu ze strony Departamentu Wojny USA, by zastosować modele Claude w ramach autonomicznej broni i masowej inwigilacji obywateli USA. Szef firmy Dario Amodei przekazał, że są to "czerwone linie" firmy, których ta nie przekroczy. W obszernym wpisie na blogu Anthropic wskazał, że te dwa przypadku dowodz, iż "sztuczna inteligencja może podważać, a nie bronić wartości demokratycznych".
Potężna sztuczna inteligencja umożliwia automatyczne i na ogromną skalę zestawianie tych rozproszonych, indywidualnie niegroźnych danych w kompleksowy obraz życia każdej osoby – automatycznie i na masową skalę. (...) Obecnie najnowocześniejsze systemy sztucznej inteligencji nie są wystarczająco niezawodne, aby zasilać w pełni autonomiczną broń. Nie będziemy świadomie dostarczać produktu, który naraża amerykańskich żołnierzy i cywilów na niebezpieczeństwo - oświadczenie firmy Anthropic
Na odmowę stanowczo zareagowała administracja USA. Sekretarz wojny Pete Hegseth oraz prezydent Donald Trump stwierdzili, że Anthropic dyktuje warunki władzom, jak ma walczyć amerykańska armia. "Stany Zjednoczone nigdy nie pozwolą lewicowej firmie dyktować, jak nasze wielkie wojsko walczy i wygrywa wojny" - przyznał Trump.
Eskalacja na Bliskim Wschodzie. Ekspert mówi, co dzieje się na rynkach
Wtórował mu Hegseth oceniając ruch Anthropica "tchórzliwym aktem korporacyjnego popisywania się cnotami, który przedkłada ideologię Doliny Krzemowej nad życie Amerykanów". Efekt krytyki władz był mrożący - administracja uznała spółkę za ryzykowną w łańcuchu dostaw i zakazała jej użycia w agencjach rządowych.
Open AI podejmuje kontrowersyjny projekt
Serwis windowscentral.com podał, że Departament Wojny USA jeszcze tego samego dnia "znalazł" chętnego do podjęcia się kontrowersyjnej inwestycji. Chodzi o Open AI. Jej szef Sam Altman ogłosił w serwisie X, że firma wesprze w tym wysiłku amerykański resort obrony.
Przy czym Altman ocenił, że modele OpenAI nie będą używane do masowej inwigilacji. Tę narrację skonfrontował jednak urzędnik rządowy, stwierdzając, że systemy mają być wykorzystywane "wszystkimi legalnymi sposobami". Masowy nadzór nad obywatelami amerykańskimi jest legalny w "niektórych scenariuszach" na mocy ustawy Patriot Act przyjętej po atakach terrorystycznych z 11 września 2001 roku.
W sieci pojawiła się fala krytyki wobec postawy OpenAI. Windowscentral.com informuje o tysiącach głosów zapowiadających rezygnację z subskrypcji ChataGPT. Altman odniósł się do zarzutów, stwierdzając, że Departament Wojny Stanów Zjednoczonych uszanuje określone przez OpenAI "czerwone linie" dotyczące niewykorzystywania technologii sztucznej inteligencji do tworzenia autonomicznej broni lub masowej inwigilacji obywateli Stanów Zjednoczonych. Nie sprecyzował jednak w pełni, w jaki sposób te zabezpieczenia będą wdrażane i utrzymywane w interesie obywateli.
Źródło: windowscentral.com