Reklama
OFERTA SPECJALNA na NAJWYŻSZY pakiet subskrypcji! Wersję Platinum - OFERTA LIMITOWANA
AI SZTUCZNA INTELIGENCJA

AI – regulacje prawne. Czy firmy mają się czego obawiać?

20 sierpnia 2019 10 min czytania
Ayanna Howard
AI - regulacje prawne. Czy firmy mają się czego obawiać?

Streszczenie: Wraz z rosnącym zastosowaniem sztucznej inteligencji (AI) pojawiają się obawy dotyczące potencjalnych zagrożeń społecznych, takich jak nierówny dostęp do możliwości czy nasilająca się polaryzacja społeczna. Pojawia się pytanie, czy potrzebne są nowe regulacje prawne, aby nadzorować sposób, w jaki firmy projektują i wykorzystują AI.

Pokaż więcej

Dyskusja na temat standardów wykorzystania sztucznej inteligencji w organizacjach staje się coraz gorętsza.

Co się dzieje, kiedy niesprawiedliwość jest efektem działań nie pojedynczych osób czy organizacji, lecz komputerów? Ostatnio coraz więcej uwagi zwraca się na zagrożenia, które mogą towarzyszyć wprowadzaniu sztucznej inteligencji. Analizowane są też potencjalne szkody społeczne, począwszy od nierównego dostępu do szans i możliwości po eskalację polaryzacji społecznej. Dlatego nie dziwi fakt, że rozgorzała dyskusja na temat: AI -regulacje prawne. Czy potrzebujemy nowych praw i zasad w celu nadzorowania firm i ich postępowania w procesie projektowania i wykorzystania sztucznej inteligencji?

W jakiejś mierze dyskusje te wynikają z faktu, że opinia publiczna kwestionuje – i dobrze – etyczne granice, jakie wyznaczają sobie firmy. Według globalnego badania Edelman’s 2019 Trust Barometer jedynie 56% opinii publicznej ufa środowisku biznesowemu. Z kolei badanie Gallupa przeprowadzone w 2017 roku w czterech europejskich krajach pokazało, że zaledwie 25% badanych zdecydowanie zgadza się, że ich własna firma „zachowa przyzwoitość, świadomie rezygnując z perspektywy pewnego zysku czy korzyści”.

Firmy pompują ogromne środki w rozwój kolejnych generacji narzędzi i produktów wzbogaconych o funkcje AI. Ludzie nie są jednak skłonni przyjąć założenia, że firmy te same z siebie automatycznie przyjmą na siebie moralną czy prawną odpowiedzialność, kiedy coś z tymi systemami pójdzie nie tak.

Czas, kiedy firmy mogły po prostu poprosić świat, by ten zaufał sztucznej inteligencji i produktom zbudowanym na jej osnowie, dawno już minął. Zaufanie do AI wymaga uczciwości, przejrzystości i odpowiedzialności. Problem jednak w tym, że nawet eksperci zajmujący się AI nie są zgodni w sprawie jednej definicji uczciwości. Zawsze pozostaje pytanie o to, kto znajduje się w grupie ryzyka. Jakie mierniki należałoby wykorzystać do oceny na przykład wpływu tendencyjnych zachowań algorytmów.

Biorąc pod uwagę, że nie ma jednoznacznych odpowiedzi czy rozwiązań nawet wśród ekspertów, rozmowa na temat standardów i regulacji robi się coraz głośniejsza.

Rosnące zainteresowanie kwestią odpowiedzialności

Na niektóre konkluzje w sprawie uregulowań poszczególnych technologii przyjdzie nam jeszcze poczekać. W ostatnich trzech latach odnotowaliśmy jednak ostry wzrost liczby rozmów na forach. Więcej jest też kanałów, w których podejmuje się kwestie uregulowań systemowych (governance). Administracja prezydenta Obamy w 2016 roku opublikowała raport na temat przyszłości AI po otwartych warsztatach na temat sztucznej inteligencji, prawa i uregulowań systemowych; technologii, bezpieczeństwa i kontroli sztucznej inteligencji; a nawet potencjalnego wpływu AI na społeczeństwo i ekonomię. Z kolei Institute of Electrical and Electronics Engineers (IEEE – Instytut ds. Inżynierii Elektrycznej i Elektronicznej), zajmujący się inżynierią, wykorzystaniem komputerów i technologii, ustalił standardy mające na celu maksymalizację niezawodności produktów. Stworzył też w drodze crowdsourcingu globalny traktat na temat etyki systemów autonomicznych i inteligentnych.

W świecie akademickim MIT Media Lab oraz Harvard University powołały grupę z budżetem w wysokości 27 milionów dolarów mającą zająć się kwestiami etycznymi oraz uregulowaniami systemowymi AI. Uniwersytet Stanforda prowadzi „Stuletnie badanie” poświęcone sztucznej inteligencji, a Carnegie Mellon University powołał centrum badań nad etyką AI.

Biznes zmienia podejście do AI

Korporacje tworzą własne konsorcja, by włączyć się do dyskusji. Na przykład, grupa ekspertów AI zatrudnionych przez sześć największych firm technologicznych na świecie – Apple, Amazon, DeepMind/Google, Facebook, IBM i Microsoft – założyła „Partnerstwo na rzecz wykorzystania AI w służbie ludzi i społeczeństwa” (The Partnership on AI to Benefit People and Society). Powołano je, by spisać najlepsze praktyki dla sztucznej inteligencji, w tym regulacje, które miałyby zapewnić, że zastosowania AI będą uczciwe, przejrzyste i odpowiedzialne. Obecnie partnerstwo to liczy sobie ponad 80 członków.

Oczywiście firmy zabierają głos w dyskusji również indywidualnie, wypowiadając się na temat etycznych ram, w których będą funkcjonowały. Prezes Microsoftu Brad Smith pisał o potrzebie wprowadzenia powszechnych uregulowań i odpowiedzialności biznesu w związku z technologią rozpoznawania twarzy. Google powołał ciało doradcze ds. etyki AI (które jednak szybko rozwiązano w następstwie kontrowersji wokół niektórych jego członków). W tym roku Amazon rozpoczął współpracę z National Science Foundation, finansując badania na rzecz przyspieszenia wprowadzania zasad uczciwości do AI – choć niektórzy od razu zaczęli podnosić kwestię potencjalnego konfliktu interesów w związku z tym, że badania miały być finansowane przez tak dużego gracza w tym obszarze.

Opinia publiczna jest naprawdę zaniepokojona

Według raportu z 2019 roku, opublikowanego przez Center for the Governance of AI (centrum ds. rozwoju uregulowań systemowych dla AI) afiliowanego przy Uniwersytecie Oksfordzkim, 82% Amerykanów uważa, że z robotami i sztuczną inteligencją należy obchodzić się z wielką ostrożnością. Wśród przytaczanych argumentów była mowa o sposobach wykorzystania AI w działaniach wywiadowczych oraz rozprzestrzenianiu fałszywych informacji w internecie (znanych jako deepfakes, kiedy zawierają obrazy wideo oraz dźwięki spreparowane za pomocą AI) po cyberataki, naruszenia prawa do prywatności, dyskryminację w procesie rekrutacyjnym, pojazdy autonomiczne czy drony, które nie wymagają kontroli ze strony człowieka.

Sztuczna inteligencja zdążyła już dość spektakularnie „zabłysnąć” zdolnością do generowania tendencyjnych odpowiedzi. Prowadzą one do chybionych decyzji opartych na informacjach, które są chronione prawem.

Na przykład, kiedy dane wejściowe są niewłaściwie wyselekcjonowane, nieaktualne lub spaczone, gdyż odzwierciedlają uprzedzenia społeczne, stanowią materiał „zainfekowany”. Wnioski wyciągane z nich mogą być tendencyjne. Większość wykorzystywanych systemów AI nie zawiera jeszcze metod testujących dane wejściowe. Brakuje też innych rozwiązań, które byłyby w stanie uchronić nas przed niewłaściwym przetwarzaniem danych surowych.

Stronnicza AI

Tendencyjność może być też zapisana w samych algorytmach i w tym, które cechy są oceniane jako istotne (lub nieistotne). Na przykład firmy mogą różnicować ceny swoich produktów, opierając się na informacjach o zachowaniach zakupowych. Takie informacje są ostatecznie bezpośrednio skorelowane z płcią lub rasą, więc AI podejmuje decyzje, które mogą skończyć się koszmarem dla działu PR, nie wspominając już o konsekwencjach prawnych.

Kiedy tak funkcjonujące systemy AI zaczynają być w coraz powszechniejszym użyciu, zwiększa się oddziaływanie wszelkich szkodliwych, niesprawiedliwych procesów, które mogą być w nich zapisane. W efekcie, podejmowane przez te systemy decyzje, do których potem stosują się użytkownicy, mogą rozpropagować się w takim stopniu, że zapisane w nich tendencje będą postrzegane jako powszechnie akceptowane prawdy.

Czy czas regulacji jest już bliski?

Czy więc organizacje powinny obawiać się zarówno głosów, jak i działań popierających chęć uregulowania AI? Krótko mówiąc – tak.

Wybiegając bardziej w przyszłość, należy stwierdzić, że choć ustalanie standardów nie jest zbyt atrakcyjne, są one niezbędne, by uczynić sztuczną inteligencję nie tylko bardziej użyteczną, ale także bezpieczniejszą dla użytkowników. Jednak biorąc pod uwagę fakt, że AI jest wciąż czymś nowym – lecz szybko wprowadzanym do wszystkich aplikacji, które mają wpływ na nasze życie – wciąż nie ma zgody co do tego, jak te standardy powinny wyglądać.

W Stanach Zjednoczonych dyskusja na ten temat dopiero się rozpoczyna: w lutym 2019 roku Narodowemu Instytutowi ds. Standardów i Technologii (National Istitute of Standards and Technology), należącemu do Amerykańskiego Departamentu Handlu, zlecono stworzenie planu zaangażowania rządu federalnego w tworzenie standardów wykorzystania AI. W Unii Europejskiej takie inicjatywy jak stworzony w 2018 roku Europejski Sojusz na rzecz Sztucznej Inteligencji mają sformułować wskazówki etyczne dla AI. Jak się oczekuje – mają prowadzić w średnim i długim okresie do rekomendacji na temat polityki względem wyzwań i szans wynikających z zastosowania sztucznej inteligencji.

Pierwsze regulacje AI

Oczywiście jeżeli nie ustali się standardów, które są wynikiem powszechnego porozumienia i które będą przestrzegane, mało prawdopodobnym jest to, by podążyło w ślad za tym nowe prawo. Niedawno władze lokalne w USA zmęczone czekaniem podjęły własną inicjatywę uregulowania zastosowań AI. San Francisco stało się pierwszym dużym amerykańskim miastem, w którym zabroniono kupowania i wykorzystywania przez policję i inne służby oprogramowania służącego do rozpoznawania twarzy.

Inne organizacje, takie jak American Civil Liberties Union (ACLU), wykorzystują drogę sądową. ACLU niedawno złożył do sądu wniosek, który ma na celu walkę z niemożliwością obrony do kwestionowania wyników pochodzących z systemów rozpoznawania twarzy. Wykorzystuje się je w sprawach kryminalnych na przykład na Florydzie. W innych krajach, takich jak Niemcy, organizacje zajmujące się ochroną prywatności i praw cyfrowych zdecydowanie krytykują plany rządu zmierzające do zastosowania zautomatyzowanego rozpoznawania twarzy na granicach.

Jak sztuczna inteligencja zmieni nasze życie

Ponieważ organizacje nie znalazły jeszcze sposobu na zatrzymanie fali „złej” AI, najlepsze, co mogą obecnie zrobić, to przyłączyć się do dyskusji na ten temat. Zaprzeczanie istnieniu „złej” sztucznej inteligencji czy uciekanie od dyskusji nie sprawi, że problem zniknie. Firmy powinny podejmować działania polegające na wyszukiwaniu wśród kierownictwa menedżerów, którzy będą chętni włączyć się do dyskusji, a także osoby, które będą chętne pomóc w ustalaniu standardów (a przy okazji będą posiadały kompetencje decyzyjne pozwalające na przekierowanie na ten cel odpowiednich zasobów).

Gdy dobrze to zorganizujemy, AI może stać się źródłem ogromnych korzyści dla wszystkich. Ułatwi wyrównywanie szans edukacyjnych w mniej uprzywilejowanych społecznościach. Ponadto może poprawić opiekę zdrowotną poprzez jej dostęp do informacji o pacjentach. Będzie wspierać nas w lepszym i efektywniejszym wykonywaniu pracy. Obecnie nie nadszedł jeszcze czas, by hamować rozwój. Przyszła już jednak pora, by organizacje zajęły się na poważnie uczciwym, przejrzystym i odpowiedzialnym (dla wszystkich) projektowaniem i wykorzystaniem AI. Firmy powinny także przystąpić do współdziałania przy kształtowaniu przyszłych standardów i regulacji. Dzięki temu jest szansa, że sztuczna inteligencja będzie pracowała dla dobra wszystkich.

O autorach
Tematy

Może Cię zainteresować

Od bankructwa do marki premium. Czego o zarządzaniu uczy historia Delta Air Lines?

Kiedy w ciągu trzech miesięcy przychody spadają do zera, a firma musi skurczyć operacje o połowę, podręcznikowe zarządzanie sugeruje cięcia etatów. Ed Bastian, CEO Delta Air Lines, wybrał jednak inną drogę. W szczerej rozmowie z McKinsey wyjaśnia, dlaczego w czasach dominacji sztucznej inteligencji i niestabilności geopolitycznej to „wspomagana inteligencja” oraz radykalna lojalność wobec pracowników stanowią o przewadze konkurencyjnej firmy, która właśnie świętuje swoje stulecie.

AI wywraca handel do góry nogami. Jak wygrywać w erze „AI-first”?

Sztuczna inteligencja nie tylko przegląda internet – ona rekomenduje produkty i umożliwia ich bezpośredni zakup. Platformy takie jak ChatGPT, Google AI czy Perplexity zmieniają zasady gry w retailu. Detaliści stoją przed strategicznym wyborem: walczyć o bycie miejscem docelowym, poddać się rynkowej ewaluacji czy przyjąć model hybrydowy?

Promocje to za mało. Czego oczekują klienci w czasie świątecznych zakupów 2025?

Jak bardzo sfrustrowani są klienci w czasie świątecznych zakupów poziomem obsługi klienta? Jeden z kluczowych wskaźników (CX Index) dla konsumentów spada nieprzerwanie od czterech lat. Oprócz elementów stanowiących „niezbędne minimum”, takich jak bezproblemowy proces płatności, sprzedawcy powinni skupić się na pięciu priorytetach: znaczeniu osobistej ekspresji, pozycjonowaniu opartym na wartości, programach lojalnościowych, technologiach wspierających oraz szybkości biznesowej.

Budowanie odporności organizacji Prawdziwa odporność to potrzeba rzadszej, a nie szybszej regeneracji

Odporność organizacji to nie kwestia tego, jak szybko zespoły wracają do równowagi, lecz jak rzadko w ogóle muszą się podnosić. Odkryj, jak liderzy mogą budować systemy pracy, które chronią ludzi przed wypaleniem, rozkładają presję i wprowadzają kulturę regeneracji. Poznaj praktyczne wskazówki, które pomogą przekształcić wysiłek w zrównoważony sukces.

pokorna autentyczność w przywództwie Czy jesteś autentycznym liderem, a może autentycznym… bucem?

Autentyczność to cenna cecha lidera, ale może też stać się przeszkodą, jeśli nie towarzyszy jej pokora i otwartość na feedback. Dowiedz się, jak rozwijać „pokorną autentyczność”, by budować zaufanie i skutecznie wpływać na zespół.

Światło, które naprawdę pracuje razem z Tobą. Jak oświetlenie wpływa na komfort i efektywność w biurze

Nowoczesne biura coraz częściej wykorzystują światło jako narzędzie wspierające koncentrację, kreatywność i dobrostan zespołów. Eksperci Bene i Waldmann pokazują, że właściwie zaprojektowane oświetlenie staje się integralnym elementem środowiska pracy – wpływa na procesy poznawcze, emocje oraz rytm biologiczny, a jednocześnie podnosi efektywność organizacji.

Multimedia
Neverending Start-up. Jak zarządzać firmą na przekór kryzysom? Lekcje Krzysztofa Folty

Jak przetrwać transformację ustrojową, pęknięcie bańki internetowej, kryzys budowlany, krach finansowy 2008 roku i pandemię, budując przy tym firmę wartą ponad miliard złotych? Gościem Pawła Kubisiaka jest Krzysztof Folta – założyciel i wieloletni prezes TIM S.A., autor strategii „Neverending Startup”. W szczerej rozmowie dzieli się lekcjami z ponad 40 lat prowadzenia biznesu – od biura na 16 metrach kwadratowych w PRL-u, po stworzenie giganta e-commerce w branży elektrotechnicznej.

Od gry w Go do Nagrody Nobla: Jak AlphaFold zmienia biznes farmaceutyczny

Kiedy Google DeepMind zaczynało prace nad strukturami białek, wielu wątpiło, czy AI znana z gier planszowych poradzi sobie z „wielkim wyzwaniem biologii”. Dziś, z Nagrodą Nobla na koncie, twórcy AlphaFold udowadniają, że to dopiero początek rewolucji. Jak narzędzie, które skróciło czas badań z miesięcy do godzin, wpływa na branżę farmaceutyczną i dlaczego naukowcy porównują je do „ChatGPT dla biologii”? Poznaj kulisy technologii, która rewolucjonizuje proces odkrywania leków.

Umiejętności negocjacyjne. Jak pokonać lęk i osiągać lepsze wyniki

Kiedy niepewni negocjatorzy angażują się w zachowania takie jak nieśmiałe prośby, zbyt szybkie ustępowanie lub przegapianie korzystnych kompromisów, ograniczają własny sukces – i swój potencjał do poprawy. Liderzy mogą pomóc członkom zespołu rozwijać zaawansowane umiejętności przy stole negocjacyjnym i w tym procesie zwiększać ich pewność siebie. Postępuj zgodnie z trzema podejściami do poprawy umiejętności negocjacyjnych i poznaj pięć pytań, na które każdy powinien umieć odpowiedzieć przed rozpoczęciem negocjacji.

Era przedsiębiorstwa agentowego: Jak nawigować w dobie AI

Czy jesteśmy świadkami końca ery „gadającej i piszącej” sztucznej inteligencji? Najnowszy raport MIT Sloan Management Review i Boston Consulting Group sugeruje, że tak. Wchodzimy w fazę, w której AI przestaje być tylko inteligentnym asystentem, a staje się autonomicznym współpracownikiem. To zmiana paradygmatu, która wymusza na liderach zmianę struktur, procesów i – co najważniejsze – nowe podejście do zaufania.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!