biznes technologie innowacje
technologiczna strona biznesu
biznes technologie innowacje
najważniejsze informacje zebrane w jednym miejscu
X
Następny artykuł dla ciebie
Wyświetl >>
Zaufanie do AI – nie taka prosta sprawa

Jeszcze jesteśmy na początku ery sztucznej inteligencji, a ta już sporo namieszała w naszej codzienności, zmieniając to, jak pracujemy, korzystamy z internetu czy przemieszczamy się po mieście. Brak regulacji i zasad etycznych dotyczących zarządzania rozwojem AI wywołuje coraz większy niepokój opinii publicznej. Jak zmniejszyć lukę zaufania do AI oraz zadbać o bezpieczeństwo, prywatność i spokój społeczeństwa?

Obawy dotyczący uzależnienia się ludzkości od sztucznej inteligencji są coraz większe. Sceptycy postępu podsycają je wizją wymknięcia się tego zjawiska spod kontroli, zadając szereg niewygodnych pytań. Czy algorytmy zasilające pojazdy autonomiczne zapewnią bezpieczeństwo pasażerom oraz przechodniom? Czy automatyczne decyzje dotyczące wniosków kredytowych będą przejrzyste, a zarazem nie będą dyskryminować wybranych grup społecznych? Czy urządzenia do rozpoznawania twarzy będą naruszać prywatność obywateli lub omyłkowo skanować twarze obcych osób?

PRZECZYTAJ CAŁY ARTYKUŁ W WERSJI PDF

Zaufanie do AI – nie taka prosta sprawa

To tylko wybrane pytania, które wzbudzają niepokój opinii publicznej i wywołują dyskusję o konieczności uregulowania kwestii etycznych i ochrony konsumentów w związku z rozwojem sztucznej inteligencji. Wypracowanie takich zasad jest konieczne, ponieważ pozwoli chociażby wyeliminować ryzyko potencjalnej stronniczości AI, np. w algorytmicznych decyzjach rekrutacyjnych, ale też zapewnić ludziom prywatność. Skoro rozwój AI powinien się opierać na zaufaniu i zasadach etyki, różne grupy interesariuszy muszą je wspólnie wypracować. Sęk w tym, że nie jest to łatwe zadanie – jak dowodzą twórcy raportu firmy doradczej Ernst & Young (EY) i niezależnej organizacji The Future Society (TFS) pt. Bridging AI’s trust gaps Aligning policymakers and companies.

Tylko współpraca nas uratuje

Od 2016 roku organy rządowe, wielostronne grupy interesów, instytucje akademickie i firmy prywatne opublikowały ponad 100 wytycznych dotyczących rozwijania sztucznej inteligencji. Sprawy nabierają tempa, a promowane zasady są wprowadzane w życie za pomocą przepisów i innych środków politycznych. Na przykład w lutym 2020 roku Komisja Europejska opublikowała Białą księgę sztucznej inteligencji (ang. White paper On Artificial Intelligence), w której szczegółowo opisano jej kompleksowe podejście do tych kwestii. Do końca czerwca zgłoszono aż 1250 uwag i opinii do dokumentu, które pochodziły również spoza krajów UE, m.in. z Brazylii, Indii czy Chin. Pokazuje to, że budowa tzw. ekosystemu doskonałości i zaufania i partnerstwo publiczno‑prywatne w przypadku badań naukowych oraz przy wdrażaniu rozwiązań opierających się na sztucznej inteligencji są karkołomnymi zadaniami.

Jednocześnie eksperci EY i TFS sugerują, że brak ukierunkowanego podejścia do etycznej sztucznej inteligencji (AI) stanowi ogromne zagrożenie dla biznesu i może zaszkodzić wielu ciekawym projektom. Trzeba jak najszybciej zdefiniować zasady etyczne dotyczące wykorzystania sztucznej inteligencji i zlikwidować lukę zaufania w społeczeństwie. Zdaniem twórców raportu, którzy rozmawiali z ponad 70 przedstawicielami organów regulacyjnych oraz ponad 280 liderami firm z całego świata, stworzenie etycznej sztucznej inteligencji wymaga współpracy.

Rozdźwięk między biznesem a polityką

Choć uczestnicy badania uznają partnerstwo publiczno‑biznesowe za klucz do opracowania jasnych ram etycznych AI, ich stanowiska dotyczące sposobu rozwiązania problemu, niestety, się różnią. Przedstawiciele firm i rządów patrzą inaczej na przyszłość etyki, regulacji i zarządzania platformami wykorzystującymi AI. Firmy bardziej troszczą się o przestrzeganie przepisów niż o kwestie etyczne. Politycy mają zdanie odwrotne. Zatem samo uzgodnienie priorytetów jest wyzwaniem. A rozbieżność między firmami a politykami jest również widoczna w ich oczekiwaniach dotyczących przyszłego kierunku zarządzania rozwojem AI.

Biorąc pod uwagę złożone i techniczne kwestie, które się pojawiają w dyskusjach na ten temat, wiele osób spodziewa się, że potrzebne będzie podejście wielostronne. Jednak rządy i firmy nie są zgodne co do tego, jaką formę powinna przybrać taka współpraca i kto powinien jej przewodzić. Badanie wykazało, że tylko 6% przedstawicieli organów regulacyjnych zgadza się na to, by to sektor prywatny moderował wielostronną dyskusję na temat przyszłych kierunków zarządzania sztuczną inteligencją, podczas gdy 38% firm uważa, że takim podejściem powinien kierować sektor prywatny.

Spór stanowi wyzwanie dla decydentów i firm w zakresie ulepszania zarządzania sztuczną inteligencją, ale też może być źródłem ryzyka regulacyjnego i rynkowego dla twórców produktów AI (zobacz ramkę Decydenci polityczni oraz przedstawiciele biznesu inaczej patrzą na to, kto miałby kierować  pracami nad zasadami rozwoju AI).

Deficyty i brak zaufania po obu stronach

Chociaż decydenci rozumieją „szerszy obraz” obaw etycznych związanych z aplikacjami wykorzystującymi AI, badanie EY i TFS sugeruje, że mogą nie zajmować się szczegółami technicznymi i biznesowymi tak, jak zrobiłyby firmy. Dwie trzecie z nich wskazało w ankiecie, że „regulatorzy nie rozumieją złożoności technologii sztucznej inteligencji i wyzwań biznesowych”. Ich odpowiedzi wskazują również na fakt, że są niezbyt skłonni podejmować wyzwania techniczne lub biznesowe związane z wdrażaniem zasad etycznych. Chociaż firmy są mniej dostosowane do najważniejszych zasad etycznych rządzących sztuczną inteligencją, przypuszczalnie mają większą głębię w kwestiach biznesowych i technicznych. Choć celem EY i TFS nie była ocena kompetencji uczestników, badanie obnażyło potencjalne braki po obu stronach: brak rozeznania w kwestiach etycznych po stronie firm i brak głębokiej wiedzy technicznej lub biznesowej po stronie decydentów.

Sama współpraca między światem biznesu a światem polityki będzie trudna ze względu na inną lukę – deficyt zaufania między obiema stronami. Decydenci nie ufają intencjom firm, a firmy nie ufają decydentom (zobacz wykres Firmy nie ufają decydentom). Prawie sześciu na dziesięciu respondentów w przedsiębiorstwach (59%) zgadza się ze stwierdzeniem, że „samoregulacja przemysłu jest lepsza niż rządowa regulacja sztucznej inteligencji”, podczas gdy podobny odsetek (63%) decydentów nie zgadza się z tym stwierdzeniem. Ponadto, podczas gdy 59% respondentów z firm zgadza się z tym, że „firmy inwestują w etyczną sztuczną inteligencję, nawet jeśli zmniejsza to zyski”, tylko 21% decydentów podziela to zdanie, a 49% się z nim nie zgadza. Tymczasem 72% firm zgadza się, że „firmy wykorzystują sztuczną inteligencję na korzyść konsumentów i społeczeństwa”, ale tylko 44% decydentów podziela ten pogląd.

Antidotum

Polskie przysłowie mówi, że gdzie dwóch się bije, tam trzeci korzysta. I w tym przypadku może być podobnie, ponieważ antidotum na deficyt zaufania może się okazać zaproszenie do pracy nad regulacjami dotyczącymi stosowania AI niezależnej strony trzeciej. Mogłaby ona odegrać konstruktywną rolę, wypełnić luki kompetencyjne i zadbać o odbudowanie zaufania między przedstawicielami polityki i biznesu oraz wśród społeczeństwa.

Obiektywnej stronie trzeciej można ufać bardziej niż firmom technologicznym, a jednocześnie łatwiej jej zrozumieć zawiłości techniczne niż decydentom. Pełnemu obaw społeczeństwu strona trzecia mogłaby zapewnić przejrzystość i uproszczenie, np. inicjując stworzenie odpowiednika etykiety „Fairtrade” lub „Organic” dla sztucznej inteligencji. Kompleksowe podejście do regulacji w połączeniu z kluczową pomostową rolą niezależnej strony trzeciej mogłoby stworzyć „infrastrukturę zaufania”. Umożliwiłaby ona decydentom ochronę bezpieczeństwa publicznego, jednocześnie zapewniając firmom opracowywanie i wdrażanie sztucznej inteligencji w sposób korzystny dla konsumentów.

Pamiętajmy, że firmy szybko się cyfryzują, wykorzystując najnowsze osiągnięcia w dziedzinie sztucznej inteligencji, internetu rzeczy, analizy danych, technologii chmurowej i innych narzędzi. Jednocześnie postęp dokonuje się w dziedzinie pojazdów autonomicznych, rozpoznawania głosu i rozpoznawania twarzy. A to oznacza, że kwestii wypracowania spójnych zasad etycznych AI nie da się odkładać w nieskończoność. Nim rządy i firmy zbudują zaufanie do sztucznej inteligencji, najpierw muszą popracować nad zaufaniem wzajemnym. To jedyna droga, by przyspieszyć transformację cyfrową, niezbędną do sprostania pilnym wyzwaniom zdrowotnym, społecznym i gospodarczym, przed którymi stoimy.

Joanna Koprowska

Redaktorka „ICAN Management Review” oraz „MIT Sloan Management Review Polska”