"Mamy sygnał z Brukseli". Brzoska mówi o "otwartym oknie" ws. głośnego ograniczenia
- Mamy sygnał z Brukseli, że sama Komisja mówi, że jakby był jakiś impuls do deregulacji AI Act to oni chętnie się nad tym pochylą - mówi w odpowiedzi na pytanie money.pl Rafał Brzoska, który stoi na czele zespołu deregulacyjnego. I dodaje, że zespół przygotuje propozycje w tej sprawie.
Nowe unijne przepisy dotyczące sztucznej inteligencji, znane są także jako AI Act. Unijne rozporządzenie o sztucznej inteligencji (AI) zostało okrzyknięte przełomowym - nie tylko dlatego, że na świecie nie wprowadzono jeszcze podobnych regulacji, ale także dlatego, że jako pierwsze klasyfikuje AI pod kątem potencjalnego ryzyka dla użytkowników, w myśl zasady, że im większe szkody może wyrządzić sztuczna inteligencja, tym surowsze będą przepisy regulujące jej użycie.
"Mamy sygnał z Brukseli"
Rafał Brzoska w odpowiedzi na pytanie money.pl zadane na spotkaniu z dziennikarzami przyznał, że przez unijne ograniczenia Polska nie może trenować skutecznie swoich modeli sztucznej inteligencji, takich jak Bielik.
Dalsza część artykułu pod materiałem wideo
Miliony za jedną walkę! Kulisy powstawania KSW - Martin Lewandowski w Biznes Klasie
- Mamy sygnał z Brukseli, że sama Komisja (Europejska) mówi, że jakby był jakiś impuls do deregulacji AI Act, to oni chętnie się nad tym pochylą, ale sami z siebie nie są w stanie przyznać, że zrobili coś źle. Więc wydaje się, że to okno otwiera się nie tylko w Polsce, ale również w Brukseli - mówił Brzoska, który stoi na czele zespołu deregulacyjnego.
- Więc jeśli chodzi stricte o AI Act, to myślę, że pierwsze propozycje będziemy mieli w ciągu dwóch, trzech tygodni. Być może pan premier będzie musiał zrobić okrągły stół dla naukowców. My przekażemy swoje propozycje stronie rządowej - dodał przedsiębiorca.
AI Act. Szczegóły przepisów
Nowe prawo dzieli różne rodzaje AI na cztery grupy: oprogramowanie wysokiego ryzyka, technologie ograniczonego i minimalnego wpływu oraz systemy nieakceptowalne, które będą w UE zakazane.
Modele niestwarzające ryzyka systemowego, takie jak chatboty czy gry, podlegają niewielkim wymogom, głównie dotyczącym przejrzystości. Chodzi o to, żeby użytkownicy mieli świadomość, że mają do czynienia ze sztuczną inteligencją. Dodatkowe wymogi bezpieczeństwa nałożono na treści zmanipulowane, tzw. deepfakes, czyli materiały wygenerowane przez AI, których celem jest wprowadzenie użytkownika w błąd. Te również będą musiały być opatrzone wyraźnym oznaczeniem.
Zakazane jest natomiast oprogramowanie stanowiące wyraźne zagrożenie dla praw podstawowych użytkowników. Chodzi tu o technologie pozwalające np. na monitorowanie i szpiegowanie ludzi czy wykorzystywanie ich danych wrażliwych, takich jak orientacja seksualna, pochodzenie lub wyznanie, do przewidywania ich zachowań, w tym do tzw. prognozowania kryminologicznego, czyli ryzyka popełnienia przez nich przestępstw, lub do podsuwania im treści mogących wpłynąć na ich decyzje i zachowanie.
Zabronione jest także stosowanie tzw. systemu punktowania społecznego, służącego do oceny obywateli na podstawie ich zachowań społecznych. Tego typu technologie wykorzystywane są m.in. w Chinach.