Reklama
OFERTA SPECJALNA na NAJWYŻSZY pakiet subskrypcji! Wersję Platinum - OFERTA LIMITOWANA
Przełomowe innowacje
Magazyn (Nr 6, wrzesień 2020)

Zaufanie do AI – nie taka prosta sprawa

1 września 2020 7 min czytania
Zdjęcie Joanna Koprowska - Redaktorka „ICAN Management Review” oraz „MIT Sloan Management Review Polska”
Joanna Koprowska
Zaufanie do AI – nie taka prosta sprawa

Streszczenie: BrakOdpowiedziDlaURL

Pokaż więcej

Jeszcze jesteśmy na początku ery sztucznej inteligencji, a ta już sporo namieszała w naszej codzienności, zmieniając to, jak pracujemy, korzystamy z internetu czy przemieszczamy się po mieście. Brak regulacji i zasad etycznych dotyczących zarządzania rozwojem AI wywołuje coraz większy niepokój opinii publicznej. Jak zmniejszyć lukę zaufania do AI oraz zadbać o bezpieczeństwo, prywatność i spokój społeczeństwa?

Obawy dotyczący uzależnienia się ludzkości od sztucznej inteligencji są coraz większe. Sceptycy postępu podsycają je wizją wymknięcia się tego zjawiska spod kontroli, zadając szereg niewygodnych pytań. Czy algorytmy zasilające pojazdy autonomiczne zapewnią bezpieczeństwo pasażerom oraz przechodniom? Czy automatyczne decyzje dotyczące wniosków kredytowych będą przejrzyste, a zarazem nie będą dyskryminować wybranych grup społecznych? Czy urządzenia do rozpoznawania twarzy będą naruszać prywatność obywateli lub omyłkowo skanować twarze obcych osób?

PRZECZYTAJ CAŁY ARTYKUŁ W WERSJI PDF

To tylko wybrane pytania, które wzbudzają niepokój opinii publicznej i wywołują dyskusję o konieczności uregulowania kwestii etycznych i ochrony konsumentów w związku z rozwojem sztucznej inteligencji. Wypracowanie takich zasad jest konieczne, ponieważ pozwoli chociażby wyeliminować ryzyko potencjalnej stronniczości AI, np. w algorytmicznych decyzjach rekrutacyjnych, ale też zapewnić ludziom prywatność. Skoro rozwój AI powinien się opierać na zaufaniu i zasadach etyki, różne grupy interesariuszy muszą je wspólnie wypracować. Sęk w tym, że nie jest to łatwe zadanie – jak dowodzą twórcy raportu firmy doradczej Ernst & Young (EY) i niezależnej organizacji The Future Society (TFS) pt. Bridging AI’s trust gaps Aligning policymakers and companies.

Tylko współpraca nas uratuje

Od 2016 roku organy rządowe, wielostronne grupy interesów, instytucje akademickie i firmy prywatne opublikowały ponad 100 wytycznych dotyczących rozwijania sztucznej inteligencji. Sprawy nabierają tempa, a promowane zasady są wprowadzane w życie za pomocą przepisów i innych środków politycznych. Na przykład w lutym 2020 roku Komisja Europejska opublikowała Białą księgę sztucznej inteligencji (ang. White paper On Artificial Intelligence), w której szczegółowo opisano jej kompleksowe podejście do tych kwestii. Do końca czerwca zgłoszono aż 1250 uwag i opinii do dokumentu, które pochodziły również spoza krajów UE, m.in. z Brazylii, Indii czy Chin. Pokazuje to, że budowa tzw. ekosystemu doskonałości i zaufania i partnerstwo publiczno‑prywatne w przypadku badań naukowych oraz przy wdrażaniu rozwiązań opierających się na sztucznej inteligencji są karkołomnymi zadaniami.

Jednocześnie eksperci EY i TFS sugerują, że brak ukierunkowanego podejścia do etycznej sztucznej inteligencji (AI) stanowi ogromne zagrożenie dla biznesu i może zaszkodzić wielu ciekawym projektom. Trzeba jak najszybciej zdefiniować zasady etyczne dotyczące wykorzystania sztucznej inteligencji i zlikwidować lukę zaufania w społeczeństwie. Zdaniem twórców raportu, którzy rozmawiali z ponad 70 przedstawicielami organów regulacyjnych oraz ponad 280 liderami firm z całego świata, stworzenie etycznej sztucznej inteligencji wymaga współpracy.

Rozdźwięk między biznesem a polityką

Choć uczestnicy badania uznają partnerstwo publiczno‑biznesowe za klucz do opracowania jasnych ram etycznych AI, ich stanowiska dotyczące sposobu rozwiązania problemu, niestety, się różnią. Przedstawiciele firm i rządów patrzą inaczej na przyszłość etyki, regulacji i zarządzania platformami wykorzystującymi AI. Firmy bardziej troszczą się o przestrzeganie przepisów niż o kwestie etyczne. Politycy mają zdanie odwrotne. Zatem samo uzgodnienie priorytetów jest wyzwaniem. A rozbieżność między firmami a politykami jest również widoczna w ich oczekiwaniach dotyczących przyszłego kierunku zarządzania rozwojem AI.

Biorąc pod uwagę złożone i techniczne kwestie, które się pojawiają w dyskusjach na ten temat, wiele osób spodziewa się, że potrzebne będzie podejście wielostronne. Jednak rządy i firmy nie są zgodne co do tego, jaką formę powinna przybrać taka współpraca i kto powinien jej przewodzić. Badanie wykazało, że tylko 6% przedstawicieli organów regulacyjnych zgadza się na to, by to sektor prywatny moderował wielostronną dyskusję na temat przyszłych kierunków zarządzania sztuczną inteligencją, podczas gdy 38% firm uważa, że takim podejściem powinien kierować sektor prywatny.

Spór stanowi wyzwanie dla decydentów i firm w zakresie ulepszania zarządzania sztuczną inteligencją, ale też może być źródłem ryzyka regulacyjnego i rynkowego dla twórców produktów AI (zobacz ramkę Decydenci polityczni oraz przedstawiciele biznesu inaczej patrzą na to, kto miałby kierować  pracami nad zasadami rozwoju AI).

Deficyty i brak zaufania po obu stronach

Chociaż decydenci rozumieją „szerszy obraz” obaw etycznych związanych z aplikacjami wykorzystującymi AI, badanie EY i TFS sugeruje, że mogą nie zajmować się szczegółami technicznymi i biznesowymi tak, jak zrobiłyby firmy. Dwie trzecie z nich wskazało w ankiecie, że „regulatorzy nie rozumieją złożoności technologii sztucznej inteligencji i wyzwań biznesowych”. Ich odpowiedzi wskazują również na fakt, że są niezbyt skłonni podejmować wyzwania techniczne lub biznesowe związane z wdrażaniem zasad etycznych. Chociaż firmy są mniej dostosowane do najważniejszych zasad etycznych rządzących sztuczną inteligencją, przypuszczalnie mają większą głębię w kwestiach biznesowych i technicznych. Choć celem EY i TFS nie była ocena kompetencji uczestników, badanie obnażyło potencjalne braki po obu stronach: brak rozeznania w kwestiach etycznych po stronie firm i brak głębokiej wiedzy technicznej lub biznesowej po stronie decydentów.

Sama współpraca między światem biznesu a światem polityki będzie trudna ze względu na inną lukę – deficyt zaufania między obiema stronami. Decydenci nie ufają intencjom firm, a firmy nie ufają decydentom (zobacz wykres Firmy nie ufają decydentom). Prawie sześciu na dziesięciu respondentów w przedsiębiorstwach (59%) zgadza się ze stwierdzeniem, że „samoregulacja przemysłu jest lepsza niż rządowa regulacja sztucznej inteligencji”, podczas gdy podobny odsetek (63%) decydentów nie zgadza się z tym stwierdzeniem. Ponadto, podczas gdy 59% respondentów z firm zgadza się z tym, że „firmy inwestują w etyczną sztuczną inteligencję, nawet jeśli zmniejsza to zyski”, tylko 21% decydentów podziela to zdanie, a 49% się z nim nie zgadza. Tymczasem 72% firm zgadza się, że „firmy wykorzystują sztuczną inteligencję na korzyść konsumentów i społeczeństwa”, ale tylko 44% decydentów podziela ten pogląd.

Antidotum

Polskie przysłowie mówi, że gdzie dwóch się bije, tam trzeci korzysta. I w tym przypadku może być podobnie, ponieważ antidotum na deficyt zaufania może się okazać zaproszenie do pracy nad regulacjami dotyczącymi stosowania AI niezależnej strony trzeciej. Mogłaby ona odegrać konstruktywną rolę, wypełnić luki kompetencyjne i zadbać o odbudowanie zaufania między przedstawicielami polityki i biznesu oraz wśród społeczeństwa.

Obiektywnej stronie trzeciej można ufać bardziej niż firmom technologicznym, a jednocześnie łatwiej jej zrozumieć zawiłości techniczne niż decydentom. Pełnemu obaw społeczeństwu strona trzecia mogłaby zapewnić przejrzystość i uproszczenie, np. inicjując stworzenie odpowiednika etykiety „Fairtrade” lub „Organic” dla sztucznej inteligencji. Kompleksowe podejście do regulacji w połączeniu z kluczową pomostową rolą niezależnej strony trzeciej mogłoby stworzyć „infrastrukturę zaufania”. Umożliwiłaby ona decydentom ochronę bezpieczeństwa publicznego, jednocześnie zapewniając firmom opracowywanie i wdrażanie sztucznej inteligencji w sposób korzystny dla konsumentów.

Pamiętajmy, że firmy szybko się cyfryzują, wykorzystując najnowsze osiągnięcia w dziedzinie sztucznej inteligencji, internetu rzeczy, analizy danych, technologii chmurowej i innych narzędzi. Jednocześnie postęp dokonuje się w dziedzinie pojazdów autonomicznych, rozpoznawania głosu i rozpoznawania twarzy. A to oznacza, że kwestii wypracowania spójnych zasad etycznych AI nie da się odkładać w nieskończoność. Nim rządy i firmy zbudują zaufanie do sztucznej inteligencji, najpierw muszą popracować nad zaufaniem wzajemnym. To jedyna droga, by przyspieszyć transformację cyfrową, niezbędną do sprostania pilnym wyzwaniom zdrowotnym, społecznym i gospodarczym, przed którymi stoimy.

O autorach
Tematy

Może Cię zainteresować

Koniec ery chatbotów w bankowości. Nadchodzą autonomiczni Agenci AI

Sektor finansowy stoi u progu rewolucji, w której autonomiczni Agenci AI mają wygenerować 450 miliardów dolarów nowej wartości do 2028 roku. Najnowszy raport Capgemini ujawnia jednak, że sukces tej transformacji zależy od jednego, często pomijanego czynnika: dojrzałości chmurowej organizacji. Jak polskie i światowe banki przygotowują się na model pracy „człowiek plus maszyna”?

personal branding CEO Jak personal branding CEO wpływa na wyniki firmy

Personal branding przestał być „miękkim PR-em”. Dziś to jedno z najbardziej wpływowych narzędzi zarządczych – kształtuje zaufanie, wspiera sprzedaż, przyciąga talenty i buduje odporność firm. Najnowsze dane pokazują jednak, że polscy liderzy wciąż nie wykorzystują pełnego potencjału, działając intuicyjnie zamiast strategicznie. Co robią najlepsi i czego powinni uczyć się zarządy?

OSINT w zarządzaniu ryzykiem biznesowym Od wywiadu służb specjalnych do zarządu. OSINT jako tajna broń biznesu w erze ryzyka 

W świecie rosnących zagrożeń cyfrowych i geopolitycznych tradycyjne metody kontroli bezpieczeństwa to za mało. OSINT staje się kluczowym narzędziem pozwalającym firmom na weryfikację partnerów, ochronę infrastruktury IT oraz zabezpieczenie reputacji. Sprawdź, dlaczego wywiad z otwartych źródeł przestał być domeną wywiadu i jak może pomóc Twojej firmie uniknąć poważnych strat.

Od bankructwa do marki premium. Czego o zarządzaniu uczy historia Delta Air Lines?

Kiedy w ciągu trzech miesięcy przychody spadają do zera, a firma musi skurczyć operacje o połowę, podręcznikowe zarządzanie sugeruje cięcia etatów. Ed Bastian, CEO Delta Air Lines, wybrał jednak inną drogę. W szczerej rozmowie z McKinsey wyjaśnia, dlaczego w czasach dominacji sztucznej inteligencji i niestabilności geopolitycznej to „wspomagana inteligencja” oraz radykalna lojalność wobec pracowników stanowią o przewadze konkurencyjnej firmy, która właśnie świętuje swoje stulecie.

AI wywraca handel do góry nogami. Jak wygrywać w erze „AI-first”?

Sztuczna inteligencja nie tylko przegląda internet – ona rekomenduje produkty i umożliwia ich bezpośredni zakup. Platformy takie jak ChatGPT, Google AI czy Perplexity zmieniają zasady gry w retailu. Detaliści stoją przed strategicznym wyborem: walczyć o bycie miejscem docelowym, poddać się rynkowej ewaluacji czy przyjąć model hybrydowy?

Promocje to za mało. Czego oczekują klienci w czasie świątecznych zakupów 2025?

Jak bardzo sfrustrowani są klienci w czasie świątecznych zakupów poziomem obsługi klienta? Jeden z kluczowych wskaźników (CX Index) dla konsumentów spada nieprzerwanie od czterech lat. Oprócz elementów stanowiących „niezbędne minimum”, takich jak bezproblemowy proces płatności, sprzedawcy powinni skupić się na pięciu priorytetach: znaczeniu osobistej ekspresji, pozycjonowaniu opartym na wartości, programach lojalnościowych, technologiach wspierających oraz szybkości biznesowej.

Budowanie odporności organizacji Prawdziwa odporność to potrzeba rzadszej, a nie szybszej regeneracji

Odporność organizacji to nie kwestia tego, jak szybko zespoły wracają do równowagi, lecz jak rzadko w ogóle muszą się podnosić. Odkryj, jak liderzy mogą budować systemy pracy, które chronią ludzi przed wypaleniem, rozkładają presję i wprowadzają kulturę regeneracji. Poznaj praktyczne wskazówki, które pomogą przekształcić wysiłek w zrównoważony sukces.

pokorna autentyczność w przywództwie Czy jesteś autentycznym liderem, a może autentycznym… bucem?

Autentyczność to cenna cecha lidera, ale może też stać się przeszkodą, jeśli nie towarzyszy jej pokora i otwartość na feedback. Dowiedz się, jak rozwijać „pokorną autentyczność”, by budować zaufanie i skutecznie wpływać na zespół.

Światło, które naprawdę pracuje razem z Tobą. Jak oświetlenie wpływa na komfort i efektywność w biurze

Nowoczesne biura coraz częściej wykorzystują światło jako narzędzie wspierające koncentrację, kreatywność i dobrostan zespołów. Eksperci Bene i Waldmann pokazują, że właściwie zaprojektowane oświetlenie staje się integralnym elementem środowiska pracy – wpływa na procesy poznawcze, emocje oraz rytm biologiczny, a jednocześnie podnosi efektywność organizacji.

Multimedia
Neverending Start-up. Jak zarządzać firmą na przekór kryzysom? Lekcje Krzysztofa Folty

Jak przetrwać transformację ustrojową, pęknięcie bańki internetowej, kryzys budowlany, krach finansowy 2008 roku i pandemię, budując przy tym firmę wartą ponad miliard złotych? Gościem Pawła Kubisiaka jest Krzysztof Folta – założyciel i wieloletni prezes TIM S.A., autor strategii „Neverending Startup”. W szczerej rozmowie dzieli się lekcjami z ponad 40 lat prowadzenia biznesu – od biura na 16 metrach kwadratowych w PRL-u, po stworzenie giganta e-commerce w branży elektrotechnicznej.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!