Unia Europejska nałoży nowy obowiązek na firmy. Trzeba będzie "przyznać się" do AI
Blisko 90 proc. Polaków używających sztucznej inteligencji w pracy sięga po ogólnodostępne narzędzia. Zaledwie połowa firm wdrożyła politykę regulującą wykorzystanie AI, choć za rok zaczną obowiązywać wymogi unijnego AI Act.
Aż 69 proc. polskich pracowników regularnie korzysta ze sztucznej inteligencji, co przewyższa średnią światową wynoszącą 66 proc. Dane z raportu KPMG pokazują, że 76 proc. Polaków odczuwa dzięki narzędziom AI wzrost wydajności pracy. Ogólnodostępne duże modele językowe stały się niewidzialnymi pracownikami firm. Ponad połowa badanych w Polsce przyznaje, że przedstawia treści wygenerowane przez sztuczną inteligencję jako własne.
Według raportu EY co czwarta firma w Polsce już wdrożyła AI, a 59 proc. traktuje implementację takich narzędzi jako jeden ze swoich priorytetów. Jednocześnie tylko 50 proc. przedsiębiorstw opracowało politykę korzystania z wewnętrznych i ogólnodostępnych rozwiązań AI. Taka sytuacja może prowadzić do niekontrolowanego udostępniania poufnych informacji, szczególnie w przypadku ogólnodostępnych modeli językowych.
Dalsza część artykułu pod materiałem wideo
Tłit - Dariusz Standerski
Nowe obowiązki wynikające z AI Act
Unijne rozporządzenie przyjęte w 2024 roku będzie obowiązywać bezpośrednio wszystkie państwa członkowskie. Większość przepisów zacznie obowiązywać w sierpniu 2026 roku. Regulacje obejmują zarówno dostawców rozwiązań bazujących na AI, jak i podmioty, które z nich korzystają. Firmy będą musiały wskazać, jakich narzędzi używają i czy robią to zgodnie z wymogami unijnego prawa.
Rozporządzenie klasyfikuje narzędzia AI według poziomu ryzyka. W przypadku rozwiązań o niskim ryzyku, takich jak chatboty wspierające obsługę klienta, przedsiębiorstwa będą zobowiązane informować użytkowników o kontakcie ze sztuczną inteligencją. Znacznie więcej obowiązków dotyczy narzędzi mających dostęp do wrażliwych danych lub wpływających na istotne decyzje. Przykładem jest wykorzystanie AI do selekcji kandydatów w procesie rekrutacyjnym czy analizy ryzyka kredytowego. Takie rozwiązania będą kwalifikowane jako wysokiego ryzyka i wymagać będą zapewnienia nadzoru oraz możliwości audytu.
Kary za nieprzestrzeganie przepisów mogą sięgać 35 mln euro lub 7 proc. globalnego obrotu firmy. Michał Rykiert z firmy WEBCON wskazuje, że punktowo wdrażana sztuczna inteligencja nie wykorzystuje pełnego potencjału technologii. Ekspert zaleca opracowanie strategii określającej obszary największych korzyści biznesowych oraz centralizację danych w jednej platformie. Takie podejście ma zwiększyć bezpieczeństwo informacji i umożliwić skuteczną kontrolę nad wykorzystaniem AI w organizacji.