Unia Europejska jako pierwsza na świecie chce przyjąć kompleksowe prawo regulujące funkcjonowanie sztucznej inteligencji, która rozwija się na naszych oczach. Regulacje mają na celu zapewnić harmonijny rozwój, ale chodzi przede wszystkim o aspekty bezpieczeństwa, aby SI nie wyszła spod kontroli, w tym celu powołany ma zostać Europejski Urząd ds. Sztucznej Inteligencji z siedzibą w Brukseli.
Na pierwszy rzut oka brzmi to jak z fantastyki, ale jak spojrzymy na rozwój technologii, to rozwiązania oparte na maszynowym uczeniu są coraz bardziej powszechne, wykorzystuje się chociażby do analizy ryzyka przy udzielaniu kredytów, rozwijają się też rozwiązania pozwalające tworzyć treści, pisać wierszę, czy nawet robić fotomontaże.
W minionym tygodniu Parlament Europejski uzupełniając wstępne propozycje Komisji Europejskiej, przyjął swoje propozycje regulacji, którym się w dalszej części tego tekstu przyjrzymy.
Niniejsze rozporządzenie powinno chronić wartości Unii, ułatwić dystrybucję korzyści płynących ze sztucznej inteligencji w społeczeństwie, chronić osoby fizyczne, przedsiębiorstwa, demokrację, praworządność i środowisko przed zagrożeniami, a jednocześnie pobudzać innowacje i zatrudnienie oraz uczynić Unię liderem w tej dziedzinie – czytamy w przyjętym zdecydowaną większością głosów tekście – Jednocześnie sztuczna inteligencja może być źródłem ryzyka i szkody dla interesu publicznego lub prywatnego i praw podstawowych osób fizycznych, chronionych prawem Unii, w zależności od okoliczności dotyczących jej konkretnego zastosowania i wykorzystania, a także poziomu rozwoju technologicznego. Szkody te mogą być materialne lub niematerialne, w tym fizyczne, psychiczne, społeczne lub ekonomiczne.
Warunkiem wstępnym jest to, by sztuczna inteligencja była technologią ukierunkowaną na człowieka. Nie powinna ona zastępować autonomii człowieka ani zakładać utraty wolności jednostki, a przede wszystkim powinna służyć potrzebom społeczeństwa i dobru wspólnemu. Należy przewidzieć zabezpieczenia, aby zapewnić rozwój i wykorzystywanie sztucznej inteligencji zgodnie z zasadami etycznymi oraz wartościami Unii i Karty – czytamy dalej.
Propozycje Parlamentu Europejskiego zakładają zakazanie stosowania na terenie Unii Europejskiej technologii opierających się o wykorzystywanie danych biometrycznych w czasie rzeczywistym, nie będzie wolno zatem tworzyć opartych o SI produktów szpiegowskich np. prognozujących ryzyko popełnienia przestępstwa przez daną osobę, co stosuje się już w Stanach Zjednoczonych.
Europosłowie zgadzają się, aby SI pomagała w decyzjach kredytowych, ale będzie to wiązało się z pewnymi warunkami – Dostawcy będący instytucjami kredytowymi podlegającymi przepisom dyrektywy 2013/36/UE prowadzą dokumentację techniczną jako jeden z elementów dokumentacji dotyczącej zasad, procedur i mechanizmów zarządzania wewnętrznego zgodnie z art. 74 tej dyrektywy – czyli chodzi o tzw. walidacje, czyli możliwość udokumentowania i wyjaśnienia dlaczego akurat podjęto taką decyzję. Chodzi po prostu, aby była kontrola ludzka.
Aby zapobiec ryzyku nadmiernej zewnętrznej ingerencji w prawo do głosowania zapisane w art. 39 Karty oraz nieproporcjonalnemu wpływowi na procesy demokratyczne, demokrację i praworządność, systemy sztucznej inteligencji przeznaczone do wykorzystania, by wpływać na wynik wyborów lub referendum lub na zachowanie wyborcze osób fizycznych podczas głosowania w wyborach lub referendach, należy klasyfikować jako systemy sztucznej inteligencji wysokiego ryzyka, z wyjątkiem systemów sztucznej inteligencji, na których wyniki osoby fizyczne nie są bezpośrednio narażone, takich jak narzędzia wykorzystywane do organizowania, optymalizacji i strukturyzowania kampanii politycznych z administracyjnego i logistycznego punktu widzenia – wskazuje przyjęty tekst.
Istotne zapisy odwołują się też do transparentności treści generowanych przez SI lub tworzonych np. graficznie – Użytkownicy systemu sztucznej inteligencji, który generuje treści tekstowe, dźwiękowe lub wizualne lub tymi treściami manipuluje, i treści te można by niesłusznie uznać za autentyczne lub prawdziwe i przedstawiają one osoby – bez ich zgody – wypowiadające słowa lub wykonujące czynności, których nie powiedziały i nie zrobiły („deepfake”), ujawniają w odpowiednim czasie, w jasny i zrozumiały sposób, że dane treści zostały wygenerowane lub zmanipulowane przez system sztucznej inteligencji oraz podają imię i nazwisko osoby fizycznej lub nazwę osoby prawnej odpowiedzialnej za ich wygenerowanie lub zmanipulowanie. Ujawnienie oznacza oznakowanie treści informacją, że treść jest nieautentyczna, wyraźnie widoczną dla odbiorcy tych treści. Przy oznaczaniu treści użytkownicy uwzględniają powszechnie uznane najnowsze, odpowiednie zharmonizowane normy i specyfikacje.