Reklama
OFERTA SPECJALNA na NAJWYŻSZY pakiet subskrypcji! Wersję Platinum - OFERTA LIMITOWANA
Komunikacja
Magazyn (Nr 2, październik 2019)
Polska flaga

Sztuczna inteligencja – wyzwania w zakresie sposobu kształtowania regulacji prawnych oraz problematyki odpowiedzialności robotów

1 października 2019 7 min czytania
Zdjęcie Xawery Konarski - Adwokat, partner zarządzający z kancelarii Traple Konarski Podrecki i Wspólnicy
Xawery Konarski
Sztuczna inteligencja – wyzwania w zakresie sposobu kształtowania regulacji prawnych oraz problematyki odpowiedzialności robotów

Streszczenie: Rozwój sztucznej inteligencji (SI) i robotyki w ramach czwartej rewolucji przemysłowej stawia przed społeczeństwem wyzwania związane z dostosowaniem systemów prawnych do nowych technologii. Pojawiają się pytania dotyczące odpowiedzialności za działania autonomicznych systemów, zwłaszcza w kontekście szkód wyrządzonych przez roboty. Istnieje potrzeba stworzenia regulacji prawnych, które uwzględnią unikalne cechy SI, takie jak zdolność do samouczenia się i podejmowania decyzji bez ludzkiej ingerencji. Kluczowe jest również określenie, czy roboty powinny posiadać osobowość prawną, co wpłynęłoby na sposób przypisywania im odpowiedzialności. Wyzwania te wymagają międzynarodowej współpracy i elastycznego podejścia legislacyjnego, aby skutecznie zintegrować nowe technologie z istniejącymi systemami prawnymi.

Pokaż więcej

W chwili obecnej w prawie polskim czy europejskim brak jest przepisów prawnych, które normowałyby status sztucznej inteligencji (AI). Wynika to z faktu, że aktualne regulacje są dostosowane do ludzi, a nie robotów. Nie ulega jednak wątpliwości, że stworzenie tego typu przepisów jest konieczne. Przede wszystkim w nawiązaniu do faktu, że AI jest bytem, który działa już nie tylko odtwórczo. Sztuczna inteligencja zaczęła kreować również dobra artystyczne i intelektualne. Jako przykład niech posłuży dzieło sztuki wygenerowane przez AI. Mowa o „The Next Rembrandt”– obrazie, który został stworzony przez AI na podstawie dzieł malarza. Innym ciekawym przykładem jest portret „Edmond de Belamy”, który został wylicytowany w nowojorskim domu aukcyjnym Christie’s za niebagatelną sumę 432 500 dolarów.

Mamy tu zatem do czynienia z prawem autorskim, jednak kto powinien być w tym przypadku jego adresatem – autor algorytmu AI, a może osoba, która „wrzuciła” do niego dane, czy może ta, która uruchomiła oprogramowanie.

Prawo pomija sztuczną inteligencję

Problematyczna staje się również definicja sztucznej inteligencji, która jest potrzebna do stworzenia konkretnych rozwiązań prawnych – na co wskazał już Parlament Europejski oraz Europejski Komitet Ekonomiczno‑Społeczny. W końcu za AI kryje się wiele różnych rozwiązań technologicznych, takich jak np. uczenie maszynowe czy analiza danych.

Mimo wielu inicjatyw, które pojawiły się w następstwie faktu, że prawo nie nadąża za technologią, w życie weszły jedynie przepisy związane z ochroną danych osobowych, czyli RODO. Jednak nie są to regulacje, które odnoszą się bezpośrednio do sztucznej inteligencji. Jest to o tyle niepokojące, że aż 70 proc. firm na całym świecie prowadzi projekty związane z AI – jak wynika z analizy SAS.

Przyjęto jedynie dokumenty, które mają zainicjować tworzenie specjalnych
przepisów poświęconych tej problematyce. W przypadku Unii Europejskiej chodzi o rezolucję z 16 lutego 2017 r. w sprawie przepisów prawa cywilnego dotyczących robotyki. W przypadku Polski – o opracowaną przez zespół międzyresortowy Politykę Rozwoju Sztucznej Inteligencji na lata 2019–2027.

Hakerzy chętnie wykorzystują AI

Potrzeba regulacji prawnej sztucznej inteligencji jest coraz bardziej widoczna – do czego przyczyniają się jej szybki rozwój i coraz powszechniejsze zastosowanie. Niestety, nie zawsze jest ona wykorzystywana do celów biznesowych. Równie chętnie korzystają z niej cyfrowi przestępcy, którzy najczęściej prowadzą działania mające na celu ośmieszenie znanych osób lub instytucji albo wyłudzenie od nich pieniędzy.

Jednym z przykładów takiej działalności może być wykorzystanie technologii deep fake. Chodzi o przetworzenie obrazu lub filmu przy użyciu sztucznej inteligencji w taki sposób, aby w miejsce pierwotnie występującej w filmie osoby pojawiała się twarz innej. Rozwiązania te są na tyle skuteczne, że przeróbki trudno wykryć. To z kolei otwiera pole do nadużyć – umożliwia bowiem stworzenie zmanipulowanego filmu, w którym np. polityk głosi poglądy sprzeczne z dotychczas prezentowanymi bądź obraża swoich przeciwników. Pozwala też na zmontowanie wideo, w którym występują pornograficzne bądź inne kompromitujące treści. Takie wykorzystanie deep fake może prowadzić do naruszenia dóbr osobistych – czci, wizerunku czy reputacji, chronionych prawem cywilnym.

AI nie bierze odpowiedzialności

Sztuczna inteligencja może także podejmować zautomatyzowane decyzje na podstawie przekazanych jej danych. Mowa np. o obecnie szeroko wykorzystywanych systemach scoringowych, których celem jest m.in. ocena zdolności kredytowej czy kalkulacji składki ubezpieczenia. Technologia ta pozwala również na analizowanie CV kandydatów w procesie rekrutacji.

Algorytmy te są często zaprojektowane tak, że wykorzystywane są nie tylko dane uzyskane od użytkownika, ale też inne informacje cyfrowe pobrane bez jego zgody z innych systemów czy portali internetowych. Takie działanie rodzi ryzyko naruszenia przepisów dotyczących danych osobowych (RODO) i w konsekwencji wysokich kar pieniężnych. Wykorzystanie sztucznej inteligencji w procesie rekrutacji może też prowadzić do nierównego traktowania i dyskryminacji, co jest z kolei zakazane na gruncie kodeksu pracy.

Inne przykłady stosowania sztucznej inteligencji dotyczą m.in. chatbotów wykorzystywanych w procesie obsługi klientów (jeśli będą wprowadzać konsumentów w błąd, może wiązać się to z odpowiedzialnością na gruncie prawa ochrony konkurencji i konsumentów) czy łamania zabezpieczeń systemów IT przez AI (odpowiedzialność karna za przełamanie zabezpieczeń). Warto również zwrócić uwagę na wątpliwości dotyczące odpowiedzialności cywilnej w przypadku wypadków spowodowanych przez autonomiczne samochody i rozwijający się rynek ubezpieczeń w tym obszarze.

AI jako narzędzie, nie osobowość prawna

Powyższe przykłady zwracają uwagę na zróżnicowanie przepisów prawnych, którym może podlegać działanie sztucznej inteligencji, oraz na różnorodność sposobów jej wykorzystania. W tym kontekście należy rozważyć, jakie generalne zasady odpowiedzialności można przyjąć w przypadku naruszeń dokonanych przy wykorzystaniu AI.

Na obecnym etapie jej rozwoju można wykluczyć przyznanie sztucznej inteligencji w najbliższej przyszłości osobowości prawnej – Polska jest zresztą jednym z krajów, które sprzeciwiają się takim koncepcjom. UE natomiast takiej możliwości nie wyklucza, o ile dotyczyć będzie najbardziej zaawansowanych maszyn, cechujących się wysokim poziomem autonomii.

Wobec tego wydaje się, że na gruncie obecnie obowiązujących przepisów opisane wyżej przykłady naruszeń należy rozważać zwłaszcza w kontekście odpowiedzialności producenta – jako podmiotu, który stworzył dany algorytm lub maszynę i mógł lub powinien przewidzieć jego błędy bądź działania sprzeczne z prawem i dobrymi obyczajami. Odpowiedzialność prawna może również spoczywać na użytkowniku, który wykorzystuje algorytm do celów sprzecznych z przepisami. Powstaje przy tym pytanie, jaką zasadę tejże [odpowiedzialności] należy przyjąć – bardziej restrykcyjną zasadę ryzyka czy też zasadę winy, stosowaną najczęściej w przypadku odpowiedzialności ludzi. Wydaje się przy tym, że wiele zależeć będzie od konkretnego przypadku, w tym od działań tych podmiotów (producenta i użytkownika), a także stopnia autonomii AI.

Mając powyższe na uwadze, trudno nie odnieść wrażenia, że obecnie obowiązujące regulacje nie zawsze mogą być odpowiednio stosowane do szybko zmieniającej się rzeczywistości cyfrowej. Nie dają one odpowiedzi zwłaszcza w kontekście jasnych reguł ponoszenia odpowiedzialności, przenosząc ciężar oceny na podmiot stosujący prawo (np. na sąd lub regulatora), co z kolei przekłada się na niepewność prawa wśród przedsiębiorców i użytkowników AI. W tej sytuacji możemy jedynie liczyć na to, że prace polskiego i unijnego legislatora zostaną zintensyfikowane.

O AUTORZE:

Xawery Konarski, starszy partner, Kancelaria Traple Konarski Podrecki i Wspólnicy

Materiał partnerski

O autorach
Tematy

Może Cię zainteresować

Multimedia
Noblista Daron Acemoglu studzi oczekiwania wobec sztucznej inteligencji

Czy sztuczna inteligencja naprawdę zrewolucjonizuje gospodarkę i rynek pracy w ciągu najbliższych lat? Daron Acemoglu, laureat Nagrody Nobla i wybitny ekonomista, przedstawia zaskakująco umiarkowaną prognozę. W rozmowie z MIT Sloan Management Review obala popularne mity o potędze AI, wyjaśniając, dlaczego technologia ta zautomatyzuje jedynie ułamek zadań i doda skromny, ale wartościowy wkład do światowego PKB. Posłuchaj, jak ekspert pokazuje, że kluczem do sukcesu jest mądra współpraca ludzi z AI oraz inwestycje w innowacje, a nie ślepe podążanie za modą na automatyzację.

Królicze nory i piękny problem AI: Jak Reddit poprawia personalizację reklam

Vishal Gupta, menedżer ds. inżynierii uczenia maszynowego w Reddit , wyjaśnia, jak platforma radzi sobie z miliardem postów i 100 000 społeczności. Kluczem jest sztuczna inteligencja, która nie tylko pomaga użytkownikom odkrywać niszowe treści , ale także rewolucjonizuje trafność reklam. To delikatna sztuka balansu między eksploracją a eksploatacją , celami reklamodawców a doświadczeniem użytkownika oraz między treściami generowanymi przez AI a autentyczną ludzką rozmową, która – zdaniem Gupty – staje się przez to jeszcze cenniejsza.

Koniec ery tradycyjnych wyprzedaży: liczy się już nie tylko cena

Sezon wyprzedaży 2025 pokazał już na starcie, że tradycyjne strategie rabatowe przestają działać.  Najnowsze badanie BCG dowodzi, że wchodzimy w erę „aktywnego konsumenta”, który nie podąża już ślepo za rabatami. Zamiast tego domaga się transparentności i realnej wartości. Dzieje się tak gdyż konsumenci masowo uzbroili się w generatywną sztuczną inteligencję do weryfikowania promocji i szukania realnej wartości. Dlatego Twoim największym konkurentem nie jest inna firma, lecz osobisty agent AI Twojego klienta.

Multimedia
Co nam się wmawia na temat sztucznej inteligencji?

Jakie narracje słyszymy na temat sztucznej inteligencji i co one z nami robią i jakie wywołują skutki? Jakie kształtują w nas wyobrażenia, oczekiwania, emocje, obawy i pragnienia? Do jakich zachowań nas mobilizują? Odpowiedzi na te wszystkie pytania szuka w 14 odcinku „Limitów AI” Iwo Zmyślony wraz z Edytą Sadowską oraz Kasią Zaniewską.  Rozmówcy analizują narracje na temat AI oraz o sile perswazji i jej społecznych skutkach.

Pięć cech liderów napędzanych technologią Pięć cech liderów napędzanych technologią

W dobie gwałtownych zmian technologicznych to CEO, którzy aktywnie zdobywają kompetencje cyfrowe i odważnie redefiniują swoje modele biznesowe, wyznaczają nową jakość przywództwa. Odkryj, jak pięć cech liderów napędzanych technologią przekłada się na przewagę konkurencyjną i trwały wzrost firmy.

Magazyn
Premium
Dlaczego uważni liderzy lepiej zarządzają zmianą
Samoświadomi i opanowani menedżerowie skuteczniej przeprowadzają swoje zespoły przez okresy niepewności związanej ze zmianami kierunku działania organizacji. Wdrażanie strategicznych zmian ma ogromny wpływ na wyniki przedsiębiorstw. Niezależnie od tego, czy chodzi o zwinne wykorzystanie nowej szansy rynkowej, czy o budowanie długoterminowej odporności. Wielu liderom jest jednak trudno skutecznie przeprowadzić zespół przez ten proces. Takie inicjatywy […]
Premium
W erze cyfrowej zaangażowanie nabiera nowego znaczenia

Automatyzacja bez ludzi nie działa. W erze AI to zaangażowanie, odpowiedzialność i zaufanie stają się nową walutą innowacyjnych organizacji.

chiński e-commerce i social commerce
Premium
Superaplikacje, social commerce i AI, czyli chiński przepis na sukces w e-handlu

Superaplikacje, handel społecznościowy i sztuczna inteligencja tworzą w Chinach nowy model handlu. Ashley Dudarenok tłumaczy, dlaczego przyszłość e-commerce należy do zintegrowanych ekosystemów i inteligentnych agentów AI.

Premium
Zaangażowania można się nauczyć

Zaangażowanie to nie magia, lecz kompetencja. Można je trenować – tak jak empatię, odpowiedzialność czy współpracę – pod warunkiem, że liderzy stworzą ku temu właściwe warunki.

strategie ochrony innowacji
Premium
Jak chronić innowacje przed kopiowaniem

Jak skutecznie bronić innowacji przed kopiowaniem? Czasem wystarczy mądrze zaprojektować produkt – tak, by jego kluczowych elementów nie dało się łatwo odtworzyć ani wykorzystać.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!