Unia Europejska osiągnęła przełomowe porozumienie w sprawie ustawy regulującej sztuczną inteligencję (SI), stawiając tym samym jedne z pierwszych kompleksowych norm ograniczających wykorzystanie tej dynamicznie rozwijającej się technologii, która ma szerokie konsekwencje społeczne i ekonomiczne.
Unikalne ramy prawne dla rozwoju zaufanej SI
Ustawa o sztucznej inteligencji, zwana dalej „Ustawą SI”, stanowi globalne wyznacznik dla krajów dążących do wykorzystania potencjalnych korzyści płynących z tej technologii, jednocześnie chroniąc przed możliwymi zagrożeniami, takimi jak automatyzacja miejsc pracy, rozpowszechnianie dezinformacji w sieci i zagrożenia dla bezpieczeństwa narodowego. Ustawa jeszcze musi przejść przez kilka ostatnich etapów zatwierdzenia, ale porozumienie polityczne oznacza, że jej kluczowe zasady zostały już ustalone.
Unijni decydenci skupili się na najbardziej ryzykownych zastosowaniach SI przez firmy i rządy, w tym zastosowaniach w dziedzinie egzekwowania prawa oraz w operacjach kluczowych usług, takich jak woda i energia. Producentom największych ogólnego zastosowania systemów SI, takich jak te napędzające chatbota ChatGPT, będą stawiane nowe wymagania dotyczące przejrzystości. Chatboty i oprogramowanie generujące manipulowane obrazy, takie jak „deepfake”, będą musiały jasno wskazywać, że to, co widzą użytkownicy, zostało wygenerowane przez SI, zgodnie z informacjami przedstawionymi przez przedstawicieli UE i wcześniejszymi wersjami projektu ustawy.
Ograniczenia w stosowaniu oprogramowania do rozpoznawania twarzy przez policję i rządy zostaną wprowadzone poza pewnymi wyjątkami dotyczącymi bezpieczeństwa narodowego. Firmy naruszające przepisy mogą zostać ukarane grzywną w wysokości do 7% światowych przychodów.
„Europa postawiła się na pozycji pionierskiej, rozumiejąc znaczenie swojej roli jako ustanawiającego globalne standardy” – powiedział w oświadczeniu Thierry Breton, komisarz europejski, który pomógł w negocjacjach.
Mimo że ustawa została przyjęta z zadowoleniem jako przełom regulacyjny, pozostaje wiele pytań dotyczących jej skuteczności. Wiele aspektów prawa nie ma wejść w życie przez 12 do 24 miesięcy, co jest znacznym okresem czasu w kontekście rozwoju SI. Aż do ostatniej minuty negocjacji decydenci i państwa spierali się o język dokumentu i sposób zrównoważenia stymulowania innowacji z potrzebą ochrony przed potencjalnymi szkodami.
Porozumienie osiągnięte w Brukseli wymagało trzech dni negocjacji, w tym początkowych 22-godzinnych rozmów, które rozpoczęły się w środę po południu i ciągnęły się do czwartku. Ostateczne porozumienie nie zostało natychmiast upublicznione, ponieważ przewidywano, że rozmowy będą kontynuowane poza sceną w celu uzupełnienia szczegółów technicznych, co może opóźnić ostateczne przyjęcie. Głosowania muszą odbyć się w Parlamencie Europejskim i Radzie Europejskiej, w której zasiadają przedstawiciele 27 państw członkowskich Unii.
Regulacja SI stała się pilna po wydaniu w zeszłym roku ChatGPT przez OpenAI, który stał się światowym fenomenem, demonstrując rozwijające się umiejętności SI. W Stanach Zjednoczonych administracja prezydenta Bidena niedawno wydała rozporządzenie wykonawcze, które skupia się między innymi na skutkach SI dla bezpieczeństwa narodowego. Wielka Brytania, Japonia i inne kraje przyjęły bardziej restrykcyjne podejście, podczas gdy Chiny wprowadziły pewne ograniczenia w zakresie wykorzystania danych i algorytmów rekomendacyjnych.
W grę wchodzić będą biliony dolarów wartości, ponieważ przewiduje się, że SI zmieni globalną gospodarkę. „Dominacja technologiczna poprzedza dominację ekonomiczną i polityczną” – powiedział Jean-Noël Barrot, minister ds. cyfryzacji we Francji w tym tygodniu.
Europa jest jednym z regionów najbardziej zaawansowanych w regulowaniu SI, rozpoczynając prace nad tym, co stało się Ustawą SI, już w 2018 roku. W ostatnich latach unijni liderzy starali się wprowadzić nowy poziom nadzoru nad technologią, podobnie jak regulacje dotyczące ochrony zdrowia czy sektora bankowego. Blok wprowadził już wszechstronne prawodawstwo dotyczące ochrony danych, konkurencji i moderacji treści.
Pierwsza wersja Ustawy SI została opublikowana w 2021 roku. Jednak decydenci zmuszeni byli do przepisania prawa w miarę pojawiania się kolejnych przełomów technologicznych. Pierwotna wersja nie wspominała o ogólnego zastosowania modelach SI, takich jak te, które napędzają ChatGPT.
Decydenci zgodzili się na tzw. „podejście oparte na ryzyku” do regulacji SI, gdzie określony zestaw zastosowań jest najbardziej monitorowany i objęty ograniczeniami. Firmy tworzące narzędzia SI, które mają największy potencjał szkodzenia jednostkom i społeczeństwu, np. w dziedzinie rekrutacji i edukacji, będą musiały dostarczyć organom regulacyjnym dowodów na ocenę ryzyka, szczegółowe informacje na temat użytych danych do szkolenia systemów oraz zapewnienia, że oprogramowanie nie powoduje szkód, takich jak utrwalanie uprzedzeń rasowych. Będzie również wymagane nadzorowanie przez człowieka procesu tworzenia i wdrażania systemów.
Niektóre praktyki, takie jak masowe pobieranie obrazów z internetu w celu tworzenia bazy danych rozpoznawania twarzy, zostaną całkowicie zakazane.
Regulacje Unii Europejskiej będą uważnie obserwowane na całym świecie. Będą one dotyczyć nie tylko głównych producentów SI, takich jak Google, Meta, Microsoft i OpenAI, ale także innych firm, które planują wykorzystywać tę technologię w obszarach takich jak edukacja, opieka zdrowotna i bankowość. Rządy coraz częściej korzystają z SI w obszarze sprawiedliwości karnych i przyznawania świadczeń publicznych.
Wciąż nie jest jasne, jak będzie wyglądać egzekwowanie przepisów. Ustawa SI będzie wymagać współpracy regulatorów z 27 państw, a także zatrudnienia nowych ekspertów w okresie, gdy budżety rządowe są ograniczone. Prawdopodobne są również wyzwania prawne, gdy firmy będą testować nowe zasady w sądach. Poprzednie unijne przepisy, w tym przełomowe prawo o ochronie danych osobowych znane jako RODO, spotkały się z krytyką za nierównomierne egzekwowanie.