Trwa ładowanie...
Zaloguj
Notowania
Przejdź na
aktualizacja

O etyce w świecie myślących maszyn

1
Podziel się:

„Im więcej technologii na świecie, tym bardziej pragnąłbym etyki. Bo nie chodzi o to, czy musimy bać się robotów, ale o to, jak zarządzać cyfrowym społeczeństwem w skoordynowany sposób” – uważa Luciano Floridi, profesor filozofii i etyki informacji z Oxfordu.

O etyce w świecie myślących maszyn
(iStock.com)

Cyfrowe technologie, które nazywamy sztuczną inteligencją, są autonomiczne i inteligentne. Mają potężny wpływ na niemal każdą dziedzinę naszego życia, ponieważ za ich pomocą pracujemy, bawimy się nimi, ułatwiają nam utrzymanie kontaktu i zdobywanie informacji. Tworzy je oprogramowanie i sprzęt, które w połączeniu zdolne są do niezależnego wnioskowania i podejmowania decyzji. Zastępują nas w fabrykach, decydują, czy dostaniemy kredyt, mierzą poziom naszej aktywności i kondycji fizycznej.

Nasze życie jest w coraz większym stopniu uwikłane w autonomiczne maszyny i inteligentne systemy. W jednych dziedzinach – jak medycyna, system komunikacja, transport, opieka czy rozrywka – to uwikłanie zwiększa nasz dobrostan, ale w innych budzi uzasadniony niepokój. Bo technologie obliczeniowe są wykorzystywane także do obserwowania nas, rejestrowania stanu naszego zdrowia, śledzenia naszych kontaktów, zainteresowań i upodobań. Kształtują nasze zachowania i skłaniają nas do samokontroli – a to ogranicza już naszą wolność, podważa ideały i prawa człowieka.

To złudzenie, że cyfrowe technologie są neutralne. Nie są, a w miarę upływu czasu mogą być stronnicze w stopniu, jaki przerasta nasze najśmielsze wyobrażenia. Jeśli tak się stanie, konsekwencje mogą być dla nas dramatyczne. „Wstrząsy [wywołane przez sztuczną inteligencję] mogą szybko się nasilić i stać się straszne, osiągając nawet rozmiary kataklizmu. Wyobraźmy sobie, że robot medyczny, pierwotnie zaprogramowany na eliminowanie raka, mógłby stwierdzić, że najlepszym sposobem na zatarcie raka jest eksterminacja ludzi, którzy są genetycznie podatni na tę chorobę” – przestrzega Nick Bilton felietonista „New York Timesa”.

Dlatego powinniśmy budować sztuczną inteligencję w taki sposób, by w swych działaniach uwzględniała nasze wartości i etykę. Aby tak się stało, wcześniej musimy zadać sobie kilka podstawowych pytań, na przykład: Co powinna oznaczać etyczna sztuczna inteligencja? Według jakich wartości powinniśmy ja budować? Kto powinien decydować o tym doborze? Jak zbudować społeczną świadomość etycznej SI? Czy myślące maszyny też powinniśmy traktować etycznie?

Odpowiedzi na nie poszukają uczestnicy panelu pt. „Etyczny wymiar rozwoju sztucznej inteligencji”, który odbędzie się w drugim dniu tegorocznej edycji sopockiego Europejskiego Forum Nowych Idei, w czwartek 26 września (godzina 9.00). W dyskusji wezmą udział: dr Michał Boni, wykładowca SWPS i twórca raportu „Polska 2030”, Wanda Buk, podsekretarz stanu w Ministerstwie Cyfryzacji, Witold Drożdż, członek zarządu ds. strategii i spraw korporacyjnych Orange Polska, i dr Aleksandra Przegalińska-Skierkowska, adiunkt w Center for Research on Organizations and Workplaces w Akademii Leona Koźmińskiego. Debatę, którą otworzy wystąpienie Jamie’ego Bartletta, dziennikarza, pisarza i byłego dyrektora Centre for the Analysis of Social Media at Demos, poprowadzi Jarosław Kuźniar, prezenter telewizyjny i radiowy (Onet.pl).

Oceń jakość naszego artykułu:
Twoja opinia pozwala nam tworzyć lepsze treści.
Źródło:
Informacja prasowa
KOMENTARZE
(1)
1984 in progr...
5 lata temu
"Dlatego powinniśmy budować sztuczną inteligencję w taki sposób, by w swych działaniach uwzględniała nasze wartości i etykę" - W momencie, gdy technologia przestanie być neutralna, stanie się narzędziem ucisku, i chyba o to chodzi marksistom. Ciekawe, kto będzie określał jakie są aktualne 'wartości'. Obecnie w wielu korporacjach (szczególnie technologicznych) wyznawane 'wartości' są odległe od neutralnych. Promocja 'nowoczesności' przeradza się w dyskryminację hetero normatywnych mężczyzn, a o zatrudnieniu bądź nie decydują wartości takie jak 'przynależność do określonych grup' czy kolor skóry inny niż biały. Jak tylko technologia przestanie być neutralna, nastąpią kolejne prześladowania osób myślących innymi 'wartościami' niż systemowe, ludzi, którzy nie podążają za bezmyślnym tłumem oraz tych, którzy nie należą do promowanych w określonym momencie 'mniejszości'. Takie podejście do technologii skończy się pogromami i totalitaryzmem - a może właśnie taki jest cel.