Nowe unijne przepisy dotyczące sztucznej inteligencji, znane są także jako AI Act. Unijne rozporządzenie o sztucznej inteligencji (AI) zostało okrzyknięte przełomowym - nie tylko dlatego, że na świecie nie wprowadzono jeszcze podobnych regulacji, ale także dlatego, że jako pierwsze klasyfikuje AI pod kątem potencjalnego ryzyka dla użytkowników, w myśl zasady, że im większe szkody może wyrządzić sztuczna inteligencja, tym surowsze będą przepisy regulujące jej użycie.
"Mamy sygnał z Brukseli"
Rafał Brzoska w odpowiedzi na pytanie money.pl zadane na spotkaniu z dziennikarzami przyznał, że przez unijne ograniczenia Polska nie może trenować skutecznie swoich modeli sztucznej inteligencji, takich jak Bielik.
Dalsza część artykułu pod materiałem wideo
- Mamy sygnał z Brukseli, że sama Komisja (Europejska) mówi, że jakby był jakiś impuls do deregulacji AI Act, to oni chętnie się nad tym pochylą, ale sami z siebie nie są w stanie przyznać, że zrobili coś źle. Więc wydaje się, że to okno otwiera się nie tylko w Polsce, ale również w Brukseli - mówił Brzoska, który stoi na czele zespołu deregulacyjnego.
- Więc jeśli chodzi stricte o AI Act, to myślę, że pierwsze propozycje będziemy mieli w ciągu dwóch, trzech tygodni. Być może pan premier będzie musiał zrobić okrągły stół dla naukowców. My przekażemy swoje propozycje stronie rządowej - dodał przedsiębiorca.
AI Act. Szczegóły przepisów
Nowe prawo dzieli różne rodzaje AI na cztery grupy: oprogramowanie wysokiego ryzyka, technologie ograniczonego i minimalnego wpływu oraz systemy nieakceptowalne, które będą w UE zakazane.
Modele niestwarzające ryzyka systemowego, takie jak chatboty czy gry, podlegają niewielkim wymogom, głównie dotyczącym przejrzystości. Chodzi o to, żeby użytkownicy mieli świadomość, że mają do czynienia ze sztuczną inteligencją. Dodatkowe wymogi bezpieczeństwa nałożono na treści zmanipulowane, tzw. deepfakes, czyli materiały wygenerowane przez AI, których celem jest wprowadzenie użytkownika w błąd. Te również będą musiały być opatrzone wyraźnym oznaczeniem.
Zakazane jest natomiast oprogramowanie stanowiące wyraźne zagrożenie dla praw podstawowych użytkowników. Chodzi tu o technologie pozwalające np. na monitorowanie i szpiegowanie ludzi czy wykorzystywanie ich danych wrażliwych, takich jak orientacja seksualna, pochodzenie lub wyznanie, do przewidywania ich zachowań, w tym do tzw. prognozowania kryminologicznego, czyli ryzyka popełnienia przez nich przestępstw, lub do podsuwania im treści mogących wpłynąć na ich decyzje i zachowanie.
Zabronione jest także stosowanie tzw. systemu punktowania społecznego, służącego do oceny obywateli na podstawie ich zachowań społecznych. Tego typu technologie wykorzystywane są m.in. w Chinach.