AI – regulacje prawne. Czy firmy mają się czego obawiać?

Dyskusja na temat standardów wykorzystania sztucznej inteligencji w organizacjach staje się coraz gorętsza.

Co się dzieje, kiedy niesprawiedliwość jest efektem działań nie pojedynczych osób czy organizacji, lecz komputerów? Ostatnio coraz więcej uwagi zwraca się na zagrożenia, które mogą towarzyszyć wprowadzaniu sztucznej inteligencji. Analizowane są też potencjalne szkody społeczne, począwszy od nierównego dostępu do szans i możliwości po eskalację polaryzacji społecznej. Dlatego nie dziwi fakt, że rozgorzała dyskusja na temat: AI -regulacje prawne. Czy potrzebujemy nowych praw i zasad w celu nadzorowania firm i ich postępowania w procesie projektowania i wykorzystania sztucznej inteligencji?

W jakiejś mierze dyskusje te wynikają z faktu, że opinia publiczna kwestionuje – i dobrze – etyczne granice, jakie wyznaczają sobie firmy. Według globalnego badania Edelman’s 2019 Trust Barometer jedynie 56% opinii publicznej ufa środowisku biznesowemu. Z kolei badanie Gallupa przeprowadzone w 2017 roku w czterech europejskich krajach pokazało, że zaledwie 25% badanych zdecydowanie zgadza się, że ich własna firma „zachowa przyzwoitość, świadomie rezygnując z perspektywy pewnego zysku czy korzyści”.

Firmy pompują ogromne środki w rozwój kolejnych generacji narzędzi i produktów wzbogaconych o funkcje AI. Ludzie nie są jednak skłonni przyjąć założenia, że firmy te same z siebie automatycznie przyjmą na siebie moralną czy prawną odpowiedzialność, kiedy coś z tymi systemami pójdzie nie tak.

Czas, kiedy firmy mogły po prostu poprosić świat, by ten zaufał sztucznej inteligencji i produktom zbudowanym na jej osnowie, dawno już minął. Zaufanie do AI wymaga uczciwości, przejrzystości i odpowiedzialności. Problem jednak w tym, że nawet eksperci zajmujący się AI nie są zgodni w sprawie jednej definicji uczciwości. Zawsze pozostaje pytanie o to, kto znajduje się w grupie ryzyka. Jakie mierniki należałoby wykorzystać do oceny na przykład wpływu tendencyjnych zachowań algorytmów.

Biorąc pod uwagę, że nie ma jednoznacznych odpowiedzi czy rozwiązań nawet wśród ekspertów, rozmowa na temat standardów i regulacji robi się coraz głośniejsza.

Rosnące zainteresowanie kwestią odpowiedzialności

Na niektóre konkluzje w sprawie uregulowań poszczególnych technologii przyjdzie nam jeszcze poczekać. W ostatnich trzech latach odnotowaliśmy jednak ostry wzrost liczby rozmów na forach. Więcej jest też kanałów, w których podejmuje się kwestie uregulowań systemowych (governance). Administracja prezydenta Obamy w 2016 roku opublikowała raport na temat przyszłości AI po otwartych warsztatach na temat sztucznej inteligencji, prawa i uregulowań systemowych; technologii, bezpieczeństwa i kontroli sztucznej inteligencji; a nawet potencjalnego wpływu AI na społeczeństwo i ekonomię. Z kolei Institute of Electrical and Electronics Engineers (IEEE – Instytut ds. Inżynierii Elektrycznej i Elektronicznej), zajmujący się inżynierią, wykorzystaniem komputerów i technologii, ustalił standardy mające na celu maksymalizację niezawodności produktów. Stworzył też w drodze crowdsourcingu globalny traktat na temat etyki systemów autonomicznych i inteligentnych.

W świecie akademickim MIT Media Lab oraz Harvard University powołały grupę z budżetem w wysokości 27 milionów dolarów mającą zająć się kwestiami etycznymi oraz uregulowaniami systemowymi AI. Uniwersytet Stanforda prowadzi „Stuletnie badanie” poświęcone sztucznej inteligencji, a Carnegie Mellon University powołał centrum badań nad etyką AI.

Biznes zmienia podejście do AI

Korporacje tworzą własne konsorcja, by włączyć się do dyskusji. Na przykład, grupa ekspertów AI zatrudnionych przez sześć największych firm technologicznych na świecie – Apple, Amazon, DeepMind/Google, Facebook, IBM i Microsoft – założyła „Partnerstwo na rzecz wykorzystania AI w służbie ludzi i społeczeństwa” (The Partnership on AI to Benefit People and Society). Powołano je, by spisać najlepsze praktyki dla sztucznej inteligencji, w tym regulacje, które miałyby zapewnić, że zastosowania AI będą uczciwe, przejrzyste i odpowiedzialne. Obecnie partnerstwo to liczy sobie ponad 80 członków.

Oczywiście firmy zabierają głos w dyskusji również indywidualnie, wypowiadając się na temat etycznych ram, w których będą funkcjonowały. Prezes Microsoftu Brad Smith pisał o potrzebie wprowadzenia powszechnych uregulowań i odpowiedzialności biznesu w związku z technologią rozpoznawania twarzy. Google powołał ciało doradcze ds. etyki AI (które jednak szybko rozwiązano w następstwie kontrowersji wokół niektórych jego członków). W tym roku Amazon rozpoczął współpracę z National Science Foundation, finansując badania na rzecz przyspieszenia wprowadzania zasad uczciwości do AI – choć niektórzy od razu zaczęli podnosić kwestię potencjalnego konfliktu interesów w związku z tym, że badania miały być finansowane przez tak dużego gracza w tym obszarze.

Opinia publiczna jest naprawdę zaniepokojona

Według raportu z 2019 roku, opublikowanego przez Center for the Governance of AI (centrum ds. rozwoju uregulowań systemowych dla AI) afiliowanego przy Uniwersytecie Oksfordzkim, 82% Amerykanów uważa, że z robotami i sztuczną inteligencją należy obchodzić się z wielką ostrożnością. Wśród przytaczanych argumentów była mowa o sposobach wykorzystania AI w działaniach wywiadowczych oraz rozprzestrzenianiu fałszywych informacji w internecie (znanych jako deepfakes, kiedy zawierają obrazy wideo oraz dźwięki spreparowane za pomocą AI) po cyberataki, naruszenia prawa do prywatności, dyskryminację w procesie rekrutacyjnym, pojazdy autonomiczne czy drony, które nie wymagają kontroli ze strony człowieka.

Sztuczna inteligencja zdążyła już dość spektakularnie „zabłysnąć” zdolnością do generowania tendencyjnych odpowiedzi. Prowadzą one do chybionych decyzji opartych na informacjach, które są chronione prawem.

Na przykład, kiedy dane wejściowe są niewłaściwie wyselekcjonowane, nieaktualne lub spaczone, gdyż odzwierciedlają uprzedzenia społeczne, stanowią materiał „zainfekowany”. Wnioski wyciągane z nich mogą być tendencyjne. Większość wykorzystywanych systemów AI nie zawiera jeszcze metod testujących dane wejściowe. Brakuje też innych rozwiązań, które byłyby w stanie uchronić nas przed niewłaściwym przetwarzaniem danych surowych.

Stronnicza AI

Tendencyjność może być też zapisana w samych algorytmach i w tym, które cechy są oceniane jako istotne (lub nieistotne). Na przykład firmy mogą różnicować ceny swoich produktów, opierając się na informacjach o zachowaniach zakupowych. Takie informacje są ostatecznie bezpośrednio skorelowane z płcią lub rasą, więc AI podejmuje decyzje, które mogą skończyć się koszmarem dla działu PR, nie wspominając już o konsekwencjach prawnych.

Kiedy tak funkcjonujące systemy AI zaczynają być w coraz powszechniejszym użyciu, zwiększa się oddziaływanie wszelkich szkodliwych, niesprawiedliwych procesów, które mogą być w nich zapisane. W efekcie, podejmowane przez te systemy decyzje, do których potem stosują się użytkownicy, mogą rozpropagować się w takim stopniu, że zapisane w nich tendencje będą postrzegane jako powszechnie akceptowane prawdy.

Czy czas regulacji jest już bliski?

Czy więc organizacje powinny obawiać się zarówno głosów, jak i działań popierających chęć uregulowania AI? Krótko mówiąc – tak.

Wybiegając bardziej w przyszłość, należy stwierdzić, że choć ustalanie standardów nie jest zbyt atrakcyjne, są one niezbędne, by uczynić sztuczną inteligencję nie tylko bardziej użyteczną, ale także bezpieczniejszą dla użytkowników. Jednak biorąc pod uwagę fakt, że AI jest wciąż czymś nowym – lecz szybko wprowadzanym do wszystkich aplikacji, które mają wpływ na nasze życie – wciąż nie ma zgody co do tego, jak te standardy powinny wyglądać.

W Stanach Zjednoczonych dyskusja na ten temat dopiero się rozpoczyna: w lutym 2019 roku Narodowemu Instytutowi ds. Standardów i Technologii (National Istitute of Standards and Technology), należącemu do Amerykańskiego Departamentu Handlu, zlecono stworzenie planu zaangażowania rządu federalnego w tworzenie standardów wykorzystania AI. W Unii Europejskiej takie inicjatywy jak stworzony w 2018 roku Europejski Sojusz na rzecz Sztucznej Inteligencji mają sformułować wskazówki etyczne dla AI. Jak się oczekuje – mają prowadzić w średnim i długim okresie do rekomendacji na temat polityki względem wyzwań i szans wynikających z zastosowania sztucznej inteligencji.

Pierwsze regulacje AI

Oczywiście jeżeli nie ustali się standardów, które są wynikiem powszechnego porozumienia i które będą przestrzegane, mało prawdopodobnym jest to, by podążyło w ślad za tym nowe prawo. Niedawno władze lokalne w USA zmęczone czekaniem podjęły własną inicjatywę uregulowania zastosowań AI. San Francisco stało się pierwszym dużym amerykańskim miastem, w którym zabroniono kupowania i wykorzystywania przez policję i inne służby oprogramowania służącego do rozpoznawania twarzy.

Inne organizacje, takie jak American Civil Liberties Union (ACLU), wykorzystują drogę sądową. ACLU niedawno złożył do sądu wniosek, który ma na celu walkę z niemożliwością obrony do kwestionowania wyników pochodzących z systemów rozpoznawania twarzy. Wykorzystuje się je w sprawach kryminalnych na przykład na Florydzie. W innych krajach, takich jak Niemcy, organizacje zajmujące się ochroną prywatności i praw cyfrowych zdecydowanie krytykują plany rządu zmierzające do zastosowania zautomatyzowanego rozpoznawania twarzy na granicach.

Jak sztuczna inteligencja zmieni nasze życie

Ponieważ organizacje nie znalazły jeszcze sposobu na zatrzymanie fali „złej” AI, najlepsze, co mogą obecnie zrobić, to przyłączyć się do dyskusji na ten temat. Zaprzeczanie istnieniu „złej” sztucznej inteligencji czy uciekanie od dyskusji nie sprawi, że problem zniknie. Firmy powinny podejmować działania polegające na wyszukiwaniu wśród kierownictwa menedżerów, którzy będą chętni włączyć się do dyskusji, a także osoby, które będą chętne pomóc w ustalaniu standardów (a przy okazji będą posiadały kompetencje decyzyjne pozwalające na przekierowanie na ten cel odpowiednich zasobów).

Gdy dobrze to zorganizujemy, AI może stać się źródłem ogromnych korzyści dla wszystkich. Ułatwi wyrównywanie szans edukacyjnych w mniej uprzywilejowanych społecznościach. Ponadto może poprawić opiekę zdrowotną poprzez jej dostęp do informacji o pacjentach. Będzie wspierać nas w lepszym i efektywniejszym wykonywaniu pracy. Obecnie nie nadszedł jeszcze czas, by hamować rozwój. Przyszła już jednak pora, by organizacje zajęły się na poważnie uczciwym, przejrzystym i odpowiedzialnym (dla wszystkich) projektowaniem i wykorzystaniem AI. Firmy powinny także przystąpić do współdziałania przy kształtowaniu przyszłych standardów i regulacji. Dzięki temu jest szansa, że sztuczna inteligencja będzie pracowała dla dobra wszystkich.

O autorze

Ayanna Howard (@robotsmarts) jest profesorem i kierownikiem School of Interactive Computing w College of Computing w Georgia Institute of Technology. Pracuje także jako dyrektorka laboratorium Human-Automation Systems Lab (HumAnS) w School of Electrical and Computer Engineering.