Sztuczna inteligencja – wyzwania w zakresie sposobu kształtowania regulacji prawnych oraz problematyki odpowiedzialności robotów

Czwarta rewolucja przemysłowa staje się faktem, a wraz z nią rozwijają się sztuczna inteligencja, autonomiczne systemy i robotyka. Transformacja świata, jaki znamy, dotyczyć będzie nie tylko sfery społecznej i gospodarczej, ale także prawnej. Rozwój techno­logii wymusi zmiany regulacji, które nie będą przystawać do nowej, cyfrowej rzeczywistości. Może okazać się, że będzie to potrzebne szybciej, niż nam się wydaje.

W chwili obecnej w prawie polskim czy europejskim brak jest przepisów prawnych, które normowałyby status sztucznej inteligencji (AI). Wynika to z faktu, że aktualne regulacje są dostosowane do ludzi, a nie robotów. Nie ulega jednak wątpliwości, że stworzenie tego typu przepisów jest konieczne. Przede wszystkim w nawiązaniu do faktu, że AI jest bytem, który działa już nie tylko odtwórczo. Sztuczna inteligencja zaczęła kreować również dobra arty­styczne i intelektualne. Jako przykład niech posłuży dzieło sztuki wygenerowane przez AI. Mowa o „The Next Rembrandt”– obrazie, który został stworzony przez AI na podstawie dzieł malarza. Innym ciekawym przykładem jest portret „Edmond de Belamy”, który został wylicytowany w nowojorskim domu aukcyjnym Christie’s za niebagatelną sumę 432 500 dolarów.

Mamy tu zatem do czynienia z prawem autorskim, jednak kto powinien być w tym przypadku jego adresatem – autor algorytmu AI, a może osoba, która „wrzuciła” do niego dane, czy może ta, która uruchomiła oprogramowanie.

Prawo pomija sztuczną inteligencję

Problematyczna staje się również definicja sztucznej inteligencji, która jest potrzebna do stworzenia konkretnych rozwiązań prawnych – na co wskazał już Parlament Europejski oraz Europejski Komitet Ekonomiczno-Społeczny. W końcu za AI kryje się wiele różnych rozwiązań technologicznych, takich jak np. uczenie maszynowe czy analiza danych.

Mimo wielu inicjatyw, które pojawiły się w następstwie faktu, że prawo nie nadąża za technologią, w życie weszły jedynie przepisy związane z ochroną danych osobowych, czyli RODO. Jednak nie są to regulacje, które odnoszą się bezpośrednio do sztucznej inteligencji. Jest to o tyle niepokojące, że aż 70 proc. firm na całym świecie prowadzi projekty związane z AI – jak wynika z analizy SAS.

Przyjęto jedynie dokumenty, które mają zainicjować tworzenie specjalnych
przepisów poświęconych tej problematyce. W przypadku Unii Europejskiej chodzi o rezolucję z 16 lutego 2017 r. w sprawie przepisów prawa cywilnego dotyczących robotyki. W przypadku Polski – o opracowaną przez zespół międzyresortowy Politykę Rozwoju Sztucznej Inteligencji na lata 2019–2027.

Hakerzy chętnie wykorzystują AI

Potrzeba regulacji prawnej sztucznej inteligencji jest coraz bardziej widoczna – do czego przyczyniają się jej szybki rozwój i coraz powszechniejsze zastosowanie. Niestety, nie zawsze jest ona wykorzystywana do celów biz­nesowych. Równie chętnie korzystają z niej cyfrowi przestępcy, którzy najczęściej prowadzą działania mające na celu ośmieszenie znanych osób lub instytucji albo wyłudzenie od nich pieniędzy.

Jednym z przykładów takiej działalności może być wykorzystanie technologii deep fake. Chodzi o przetworzenie obrazu lub filmu przy użyciu sztucznej inteligencji w taki sposób, aby w miejsce pierwotnie występującej w filmie osoby pojawiała się twarz innej. Rozwiązania te są na tyle skuteczne, że przeróbki trudno wykryć. To z kolei otwiera pole do nadużyć – umożliwia bowiem stworzenie zmanipulowanego filmu, w którym np. polityk głosi poglądy sprzeczne z dotychczas prezentowanymi bądź obraża swoich przeciwników. Pozwala też na zmontowanie wideo, w którym występują pornograficzne bądź inne kompromitujące treści. Takie wykorzystanie deep fake może prowadzić do naruszenia dóbr osobistych – czci, wizerunku czy reputacji, chronionych prawem cywilnym.

AI nie bierze odpowiedzialności

Sztuczna inteligencja może także podejmować zautomatyzowane decy­zje na podstawie przekazanych jej danych. Mowa np. o obecnie szeroko wykorzystywanych systemach scoringowych, których celem jest m.in. ocena zdolności kredytowej czy kalkulacji składki ubezpieczenia. Technologia ta pozwala również na analizowanie CV kandydatów w procesie rekrutacji.

Algorytmy te są często zaprojektowane tak, że wykorzystywane są nie tylko dane uzyskane od użytkownika, ale też inne informacje cyfrowe pobrane bez jego zgody z innych systemów czy portali internetowych. Takie działanie rodzi ryzyko naruszenia przepisów dotyczących danych osobowych (RODO) i w konsekwencji wysokich kar pieniężnych. Wykorzystanie sztucznej inteligencji w procesie rekrutacji może też prowadzić do nierównego traktowania i dyskryminacji, co jest z kolei zakazane na gruncie kodeksu pracy.

Inne przykłady stosowania sztucznej inteligencji dotyczą m.in. chatbotów wykorzystywanych w procesie obsługi klientów (jeśli będą wprowadzać konsumentów w błąd, może wiązać się to z odpowiedzialnością na gruncie prawa ochrony konkurencji i konsumentów) czy łamania zabezpieczeń systemów IT przez AI (odpowiedzialność karna za przełamanie zabezpieczeń). Warto również zwrócić uwagę na wątpliwości dotyczące odpowiedzialności cywilnej w przypadku wypadków spowodowanych przez autonomiczne samochody i rozwijający się rynek ubezpieczeń w tym obszarze.

AI jako narzędzie, nie osobowość prawna

Powyższe przykłady zwracają uwagę na zróżnicowanie przepisów prawnych, którym może podlegać działanie sztucznej inteligencji, oraz na różnorodność sposobów jej wykorzystania. W tym kontekście należy rozważyć, jakie generalne zasady odpowiedzialności można przyjąć w przypadku naruszeń dokonanych przy wykorzystaniu AI.

Na obecnym etapie jej rozwoju można wykluczyć przyznanie sztucznej inteligencji w najbliższej przyszłości osobo­wości prawnej – Polska jest zresztą jednym z krajów, które sprzeciwiają się takim koncepcjom. UE natomiast takiej możliwości nie wyklucza, o ile dotyczyć będzie najbardziej zaawansowanych maszyn, cechujących się wysokim poziomem autonomii.

Wobec tego wydaje się, że na gruncie obecnie obowiązujących przepisów opisane wyżej przykłady naruszeń należy rozważać zwłaszcza w kontekście odpowiedzialności producenta – jako podmiotu, który stworzył dany algorytm lub maszynę i mógł lub powinien przewidzieć jego błędy bądź działania sprzeczne z prawem i dobrymi obyczajami. Odpowiedzialność prawna może również spoczywać na użytkowniku, który wykorzystuje algorytm do celów sprzecznych z przepisami. Powstaje przy tym pytanie, jaką zasadę tejże [odpowie­dzialności] należy przyjąć – bardziej restrykcyjną zasadę ryzyka czy też zasadę winy, stosowaną najczęściej w przypadku odpowiedzialności ludzi. Wydaje się przy tym, że wiele zależeć będzie od konkretnego przypadku, w tym od działań tych podmiotów (producenta i użytkownika), a także stopnia autonomii AI.

Mając powyższe na uwadze, trudno nie odnieść wrażenia, że obecnie obowiązujące regulacje nie zawsze mogą być odpowiednio stosowane do szybko zmieniającej się rzeczywistości cyfrowej. Nie dają one odpowiedzi zwłaszcza w kontekście jasnych reguł ponoszenia odpowiedzialności, przeno­sząc ciężar oceny na podmiot stosujący prawo (np. na sąd lub regulatora), co z kolei przekłada się na niepewność prawa wśród przedsiębiorców i użytkowników AI. W tej sytuacji możemy jedynie liczyć na to, że prace polskiego i unijnego legislatora zostaną zintensyfikowane.

O AUTORZE:

Xawery Konarski, starszy partner, Kancelaria Traple Konarski Podrecki i Wspólnicy

Materiał partnerski