Streszczenie: Sztuczna inteligencja (AI) staje się coraz bardziej powszechna, co wymaga od zarządów firm proaktywnego podejścia do jej nadzorowania w kontekście misji firmy i zarządzania ryzykiem. Według ankiety McKinsey z 2019 roku, tylko 41% przedsiębiorstw w pełni rozpoznaje i priorytetyzuje zagrożenia związane z wdrażaniem AI. Ponadto, 86% członków zarządów oczekuje pogłębienia współpracy z menedżerami w obszarze nowych czynników rozwoju i ryzyka w ciągu kolejnych pięciu lat. mitsmr.pl+1mitsmr.pl+1
Sztuczna inteligencja wymaga od zarządu większego obeznania z tą technologią oraz zwrócenia uwagi na związane z nią zagrożenia i korzyści.
Możemy na razie nie dyskutować na temat tego, czy sztuczna inteligencja ostatecznie przejmie funkcje zarządu. Nie możemy jednak odkładać na później rozmowy o tym, czy zarząd firmy powinien nadzorować AI, ponieważ ta rozmowa jest istotna, niezależnie od tego, czy firma opracowuje własne systemy AI, czy kupuje wyposażone w nie oprogramowanie. Ze względu bowiem na rosnącą powszechność zastosowania AI nadszedł czas, aby każdy zarząd opracował proaktywne podejście do nadzorowania, jak sztuczna inteligencja działa w kontekście ogólnej misji firmy oraz zarządzania ryzykiem.
Według ankiety z 2019 roku na temat AI, przeprowadzonej przez firmę McKinsey wśród firm na całym świecie, mimo iż upowszechnianie sztucznej inteligencji zachodzi coraz szybciej, pilny problem nadzorowania i minimalizowania towarzyszącego technologii ryzyka pozostaje nierozwiązany. Tylko 41% respondentów powiedziało, że ich przedsiębiorstwa „wszechstronnie rozpoznają i traktują priorytetowo” zagrożenia związane z wdrażaniem AI.
Członkowie zarządów zdają sobie sprawę, że ten obowiązek spoczywa na ich barkach. Według raportu specjalnej komisji (Blue Ribbon Commission) Amerykańskiego Stowarzyszenia Członków Zarządów Firm (National Association of Corporate Directors – NACD) z 2019 roku, pod tytułem Fit for the Future: An Urgent Imperative for Board Leadership, 86% członków zarządów „zdecydowanie oczekuje pogłębienia współpracy z menedżerami w związku z nowymi czynnikami rozwoju i ryzyka w ciągu kolejnych pięciu latIndeks górny 11”.
Dlaczego jest to tak pilne? Ponieważ potencjalne ogromne korzyści z zastosowania sztucznej inteligencji łączą się z nowymi i złożonymi zagrożeniami. Na przykład częstotliwość, z jaką wyposażone w AI technologie rozpoznawania twarzy źle identyfikują osoby o innym niż biały kolorze skóry i płci żeńskiej, należy do problemów, które skłoniły ich głównych dostawców do wycofania się.
Firmy te niepokoi również stosowanie technologii do masowej inwigilacji i w konsekwencji do łamania praw obywatelskich. IBM całkowicie zaprzestał sprzedaży technologii rozpoznawania twarzy w czerwcu 2020 roku. W tym samym miesiącu Microsoft stwierdził, że nie będzie jej sprzedawać policji, dopóki Kongres nie uchwali federalnych przepisów regulujących stosowanie takich rozwiązań przez organa ścigania. Także Amazon zadeklarował, że przez rok nie zezwoli policji na korzystanie ze swojej technologii, aby dać czas na działanie ciałom legislacyjnym.
Jednak używanie wyposażonych w sztuczną inteligencję technologii rozpoznawania twarzy w działaniach policyjnych to tylko jeden z niechlubnych przykładów. Praktycznie wszystkie stosowane dziś systemy AI mogą być podatne na problemy, które wynikają z charakteru danych wykorzystywanych do ich szkolenia i działania, z założeń przyjmowanych przez same algorytmy, z braku kontroli nad systemami oraz z braku różnorodności w zespołach odpowiedzialnych za ich budowanie, szkolenie i wdrażanie.
Wiele decyzji, które zdeterminują działanie technologii AI i ich konsekwencje, zapada w dużej mierze w sposób niewidoczny dla zarządu, mimo że wiążą się z nimi zagrożenia strategiczne, operacyjne i prawne. Niemniej jednak zarządy mają obowiązek nadzorowania i wspierania menedżerów w lepszym zarządzaniu ryzykiem związanym ze sztuczną inteligencją.
Dobry nadzór wymaga podniesienia kompetencji technologicznych rady oraz umożliwienia jej lepszego wglądu w te kwestie. Zarząd, jego komitety i pojedynczy członkowie mogą podchodzić do problematyki AI jak do zagadnienia ścisłego przestrzegania przepisów, planowania strategicznego lub tradycyjnego nadzorowania zagrożeń prawnych i biznesowych. Mogą również patrzeć na nadzór nad sztuczną inteligencją z perspektywy odpowiedzialności za kwestie środowiskowe, społeczne i nadzoru korporacyjnego (ESG). Kiedy rada rozważa, jak działania firmy wpłyną na społeczeństwo, musi brać pod uwagę ogromną rolę sztucznej inteligencji. Społeczność orędowników odpowiedzialności przedsiębiorstw wobec społeczeństwa, środowiska naturalnego i udziałowców coraz częściej przekonuje, że do zakresu kompetencji rad nadzorczych należy dodać technologie, a koncentrację rad na skutkach nowych zdolności technologicznych usprawiedliwia troska o swobody obywatelskie, kwestie kadrowe i sprawiedliwość społecznąIndeks górny 22.
Zobowiązania zarządu wobec firmy
Na członkach zarządu spoczywają dobrze znane i ugruntowane obowiązki zachowania należytej staranności i lojalności. Obejmują one zobowiązanie do działania w dobrej wierze, do gromadzenia wyczerpujących informacji i staranności przy nadzorowaniu strategii, ryzyka oraz przestrzegania przepisów. Niedawno sądy stanu Delaware zwróciły uwagę, że zarządy, które chcą uniknąć prawnych konsekwencji, muszą również uczestniczyć w analizowaniu systemowych i poznawalnych zagrożeń, wdrażać efektywne protokoły sprawozdawcze i wymagać odpowiednich programów zgodności z przepisamiIndeks górny 33.
Zarządy oceniające jakość sztucznej inteligencji i skutki jej stosowania oraz rodzaj koniecznego nadzoru powinny zrozumieć, że:
Sztuczna inteligencja nie jest wyłącznie problemem zespołu do spraw technologii. Jej oddziaływanie odbija się na całej organizacji i wpływa na osoby zarządzające między innymi działem prawnym, kadrowym i marketingowym.
Sztuczna inteligencja nie jest pojedynczym obiektem. To system obejmujący technologię, zespoły ludzi, którzy nią zarządzają i mają z nią kontakt, oraz dane, które wykorzystuje do działania.
Strategiczną odpowiedzialność za systemy sztucznej inteligencji i nadzór nad nimi należy powierzyć członkowi kierownictwa wyższego szczebla. Są to ogromnie złożone i kontekstowe rozwiązania, którym nie można ufać, jeśli brakuje spójnych, strategicznych wytycznych i kierowania.
Sztuczna inteligencja nie jest statyczna. Projektuje się ją tak, aby się szybko dostosowywała, a zatem wymaga ciągłego nadzoru.
Systemy AI używane dziś przeważnie przez firmy są efektywnymi i potężnymi maszynami prognozującymi. Generują przewidywania na podstawie zestawów danych dobieranych przez inżynierów programistów wykorzystujących je, aby szkolić i „karmić” algorytmy, które są z kolei optymalizowane pod kątem celów wskazywanych – przeważnie – przez tych samych programistów. Osoby te odnoszą sukces, kiedy zbudują technologię, która działa, a przy tym zmieszczą się w terminie i budżecie. Obecnie definicja efektywnego projektu sztucznej inteligencji nie musi wcale obejmować zabezpieczeń gwarantujących jej odpowiedzialne stosowanie, a programiści zazwyczaj nie mają zasobów, aby zajmować się takimi kwestiami ani ustalać, czy systemy AI działają zgodnie z przepisami prawa lub z korporacyjnymi strategiami czy celami.
Wybory dokonywane przez programistów AI – lub menedżera HR rozważającego wdrożenie algorytmu od zewnętrznego dostawcy do skanowania życiorysów czy menedżera marketingu, który szuka wyposażonego w sztuczną inteligencję systemu do dynamicznego ustalania cen – mają poważne konsekwencje. Niektóre z ich decyzji mogą być nieszkodliwe, ale inne wręcz przeciwnie, jeśli na przykład prowadzą do trudnych do wykrycia błędów lub uprzedzeń, które likwidują różnorodność bądź naliczają klientom ceny zależne od płci. W ramach nadzoru zarządy muszą wymagać tworzenia zasad – na poziomie korporacji, jak i praktycznych zastosowań – które określają, do czego systemy AI będą używane, a do czego nie. Powinny także ustanawiać standardy, zgodnie z którymi da się oceniać działanie, bezpieczeństwo i szczelność systemów AI. Zasady te muszą być utrwalane przez praktyczne procedury, silną kulturę i struktury zapewniania zgodności z przepisami.
Obecne zagrożenia prawne i regulacyjne
Zarzuty, że sztuczna inteligencja nie podlega jeszcze regulacjom, nie są całkowicie prawdziwe. Istniejące zagrożenia prawne i regulacyjne powinny już przyciągać uwagę rad nadzorczych.
Istnieje mnóstwo przepisów i wytycznych, które mają zastosowanie wobec sztucznej inteligencji. Wskazówki opublikowane niedawno przez Federalną Komisję Handlu (Federal Trade Commission – FTC) potwierdzają, że część zautomatyzowanych procesów decyzyjnych podlega regulacjom na mocy istniejących aktów prawnych, takich jak Ustawa o rzetelnej sprawozdawczości kredytowej (Fair Credit Reporting Act) uchwalona w 1970 roku oraz Ustawa o równych szansach kredytowych (Equal Credit Opportunity Act) z 1974 roku. Co więcej, w 2017 roku FTC i Departament Sprawiedliwości przekazały Organizacji Współpracy Gospodarczej i Rozwoju (OECD) wspólne stanowisko zawierające analizę zastosowania wobec algorytmów przepisów antymonopolowych i wniosek, że istniejące zapisy o przeciwdziałaniu zmowie są wystarczające, aby podejmować kroki prawne w przypadku nadużyć.
Firmy mogą być rozliczane z tego, czy stosują systemy oparte na algorytmach zgodnie z dobrze ugruntowanymi regułami przeciwdziałania dyskryminacji. Amerykański Departament Gospodarki Mieszkaniowej i Urbanistyki (Department of Housing and Urban Development) niedawno oskarżył Facebook o naruszenie federalnej Ustawy o równym dostępie do mieszkań (Fair Housing Act) w związku ze stosowaniem algorytmów do ustalania związanych z miejscem zamieszkania strategii adresowania reklam na podstawie podlegających ochronie cech, takich jak rasa, kraj pochodzenia, wyznanie, status rodzinny, płeć i upośledzenia. Sądy stanu Kalifornia stwierdziły natomiast, że ustawa Unruha o prawach obywatelskich (Unruh Civil Rights Act) z 1959 roku ma zastosowanie w przypadku praktyk dyskryminacyjnych używanych przez firmy internetowe. Na przykład w sprawie Candelore kontra Tinder stwierdzono, że model cenowy Tindera narusza ustawę Unruha, ponieważ dyskryminuje klientów w wieku 30 lat i starszych, żądając od nich za dostęp do usługi Tinder Plus ponad dwukrotnie wyższych opłat niż od klientów poniżej 30 roku życia.
Prawny krajobraz również dostosowuje się do rosnącego zaawansowania sztucznej inteligencji i jej zastosowań w mnóstwie branż poza sektorem finansowym. Na przykład FTC wzywa do „transparentnego, zrozumiałego, uczciwego i empirycznie rozsądnego” stosowania narzędzi AI oraz domaga się odpowiedzialności i standardów. Zaktualizowane wytyczne Wydziału Kryminalnego Departamentu Sprawiedliwości podkreślają, że przy wydawaniu wyroków należy uwzględniać istnienie odpowiedniego firmowego programu zgodności z przepisami.
Możemy się spodziewać, że luki w przepisach będą wymagały kolejnych aktów prawnych, takich jak nowa Ustawa o używaniu sztucznej inteligencji w wideorozmowach kwalifikacyjnych (Artificial Intelligence Video Interview Act) stanu Illinois, która reguluje stosowanie przez pracodawców sztucznej inteligencji do analizowania rozmów o pracę prowadzonych przy użyciu technologii wideo. W tym samym czasie Zgromadzenie Ustawodawcze stanu Washington (Washington State Legislature) przyspiesza prace nad proponowaną stanową Ustawą o prywatności (Washington Privacy Act), która bezpośrednio rozstrzygnie określone komercyjne zastosowania technologii rozpoznawania twarzy. Natomiast Kongres Stanów Zjednoczonych rozważa liczne propozycje dotyczące różnych aspektów stosowania algorytmów przez wymiar sprawiedliwości.
Rządy na całym świecie promują dobrowolne przestrzeganie wytycznych dotyczących godnej zaufania lub odpowiedzialnej sztucznej inteligencji. W kwietniu 2019 roku swoje wskazówki etyczne opublikowała Unia Europejska. W tym roku Departament Obrony Stanów Zjednoczonych udostępnił własny pięciopunktowy etyczny przewodnik dotyczący AI, a Krajowa Komisja Bezpieczeństwa ds. Sztucznej Inteligencji (National Security Commission on Artificial Intelligence) wydała instrukcje na temat odpowiedzialnej AI w lipcu. Możemy się spodziewać o wiele więcej kolejnych inicjatyw na rzecz wyznaczania standardów akceptowalnego użycia sztucznej inteligencji. Niektóre będą mieć charakter aspiracyjny, inne nakazowy; jedne będą bardziej ogólne, a inne skupione na konkretnych technologiach, branżach lub zastosowaniach.
Z perspektywy zarządu oczywista jest konieczność przestrzegania istniejących reguł, ale liczy się także dotrzymywanie kroku ewoluującym standardom społecznym dotyczącym należytej staranności, w miarę jak technologie AI będą coraz bardziej powszechne i lepiej rozumiane. Ponadto nawet po ustanowieniu zasad ich stosowanie w konkretnych okolicznościach biznesowych w celu rozwiązania określonego problemu firmy może być trudne i zawiłe. Rady muszą się upewniać, że menedżerowie są wystarczająco skoncentrowani i zaopatrzeni w zasoby, aby dbać o odpowiednie przestrzeganie przepisów oraz zarządzać ogólnymi strategicznymi kompromisami i zagrożeniami związanymi z AI.
Zagrożenia dla marki i reputacji. W najbliższym czasie wzrost znaczenia odpowiedzialności za sztuczną inteligencję może z dużym prawdopodobieństwem spowodować zagadnienie reputacji marki, któremu zarząd zdecydowanie poświęca dziś istotną uwagę. Niedawne badania nad problemami napotykanymi przez osoby, którym firmy powierzają rozwijanie technologii AI, wykazało, że „najpowszechniejszymi bodźcami do działania było katastrofalne w skutkach zainteresowanie mediów oraz spadająca tolerancja mediów wobec status quo”. Interesariusze firmy – tacy jak klienci, pracownicy i opinia publiczna – wyrobią sobie zdanie na temat stosowania przez nią AI na długo przed wejściem w życie nowych przepisów i regulacji. W miarę jak technologie sztucznej inteligencji coraz intensywniej przenikają świat biznesu i nasze domy, ich oddziaływanie coraz mocniej wpływa na reputację marki, jeśli chodzi o wiarygodność, jakość i misję.
Nie sposób zaprzeczyć, że sztuczna inteligencja może odegrać rolę w eliminowaniu nierówności rasowych, płciowych i kulturowych. Konieczne jest rozwiązanie tych problemów wewnątrz samej technologii, ale to nie wystarczy. Bez wątpienia możemy pójść dalej tylko pod warunkiem szczerego zaangażowania w kwestie różnorodności, a także inkluzji na wszystkich poziomach rozwijania oraz konsumowania technologii.
Opinia publiczna bardzo czujnie obserwuje wpływ technologii na prywatność i swobody obywatelskie. Ośrodek nadzoru nad sztuczną inteligencją (Center for the Governance of AI) na University of Oxford ustalił, że ośmiu na 10 ankietowanych Amerykanów „zgadza się, iż sztuczną inteligencją i robotami należy uważnie zarządzać”. Niewykluczone, że konsumenci (osoby prywatne i firmy) odkładają na później zastanawianie się nad tym, jak odróżniać narzędzia wysokiej i niższej jakości, jak bez wątpliwości pozyskiwać technologie do zastosowania biznesowego lub domowego, lub jakich funkcji bezpieczeństwa albo założeń (dotyczących nie tylko stosowania danych) oczekują, jakim ufają lub jakie są skłonni zaakceptować. To wszystko nas jednak nie ominie.
Ponowne obawy o ciągłość działalności biznesowej. Rady nadzorcze i menedżerowie wyższego szczebla już dziś doskonale wiedzą, że przedsiębiorstwa zależne od technologii są wrażliwe na zakłócenia w przypadku awarii lub błędu systemów, a sztuczna inteligencja wzbudza w tym zakresie nowe obawy, które zasługują na uwagę rad nadzorczych. Po pierwsze, wiele systemów AI bazuje na licznych (i nieznanych) technologiach niezależnych dostawców, co może zagrażać ich wiarygodności, jeśli jakiś element okaże się wadliwy, nieobsługiwany lub obsługiwany w niewystarczającym stopniu. Po drugie, sztuczna inteligencja niesie potencjał nowych rodzajów cyberzagrożeń wymagających nowych poziomów koordynacji wewnątrz przedsiębiorstwa. Należy przy tym pamiętać, że wielu programistów przyznaje, iż tak naprawdę nie wiedzą, co ich oprogramowanie AI zrobi, dopóki tego nie zrobi; a sztuczna inteligencja, która „zejdzie na złą drogę” lub straci wiarygodność, będzie wymagać działań naprawczych, a może wycofania z produkcji lub z rynku.
Co mogą zrobić zarządy
Niezależnie od tego, jak zarząd postanowi podejść do kwestii nadzoru nad sztuczną inteligencją, odegra kluczową rolę w rozważaniu konsekwencji wybranych przez firmę technologii AI. Zanim wejdą w życie konkretne przepisy, a nawet długo po ich spisaniu, przedsiębiorstwa będą podejmować ważne decyzje o sposobie używania tych narzędzi, ich oddziaływaniu na kadry oraz o sytuacjach, w których będą zastępować ludzki osąd.
Prawdopodobnie najtrudniejsze pytania, jakie zarząd będzie musiał rozstrzygać w związku z proponowanymi zastosowaniami AI, będą brzmieć: „Czy powinniśmy używać sztucznej inteligencji w ten sposób?” i „Co musimy zrobić, aby zrozumieć, jak dana funkcja pasuje do naszych pozostałych przekonań, misji i celów strategicznych?”. Zarządy muszą decydować, gdzie menedżerowie mają wytyczać granice. Czy powinni na przykład rozpoznawać i odrzucać generowane przez AI rekomendacje, które są nielegalne (co jest łatwiejsze) bądź niezgodne z organizacyjnym systemem wartości (co jest trudniejsze)?
Zarząd może zacząć wdrażanie rekomendacji NACD o „konieczności bardziej proaktywnego, głębszego i częstszego zaangażowania w kwestie całkiem nowych i błyskawicznie zmieniających się motorów strategii i ryzyka” od analizy własnego składu. Jak zauważył jeden z członków komisji NACD w raporcie z 2019 roku: „Wielu członków zarządów czuje dyskomfort, wypowiadając się na temat nowych technologii, cyberbezpieczeństwa i pozostałych złożonych kwestii… W efekcie zazwyczaj zdają się na innych, co można uznać za zrzeczenie się obowiązku aktywnego członkostwa w zarządzie”. Kiedy w 2019 roku NACD przeprowadziło wśród członków zarządów ankietę na temat cyfrowego nadzoru, 64% respondentów przyznało, że następny członek zwerbowany do zarządu, w ramach którego pracują, powinien mieć solidną specjalistyczną wiedzę na temat technologii.
Mając kompetentnych członków, zarząd powinien podjąć następujące kroki, aby objąć inicjatywy AI odpowiednim nadzorem:
Dowiedzieć się, które części organizacji korzystają ze sztucznej inteligencji i innych nowych technologii lub zamierzają ich używać oraz dlaczego.
Wyznaczyć menedżerom regularny harmonogram składania raportów na temat zasad i procedur zarządzania tymi konkretnymi technologiami oraz określania standardów pozyskiwania AI, jej wdrażania, szkoleń, przestrzegania przepisów i nadzoru. Dobry punkt wyjścia do rozpoczęcia tych zadań przez radę stanowi zestaw narzędzi AI stworzony przez Światowe Forum Ekonomiczne.
Zachęcać do mianowania menedżera wyższego szczebla, który będzie odpowiedzialny za powyższe zadania we wszystkich pionach funkcyjnych firmy.
Promować zapewnienie odpowiednich zasobów i szkoleń dla pionu nadzoru.
Nie należy zwlekać z rozpoczęciem tych działań; nawet jeśli firma niewiele inwestuje w prace nad sztuczną inteligencją, to technologia dociera do niej w postaci nafaszerowanych AI narzędzi i usług. Prawne, strategiczne i dotyczące marki zagrożenia związane z AI są na tyle poważne, że zarząd potrzebuje adekwatnych kompetencji i procedur współpracy z kierownictwem, aby ograniczać ryzyko i równocześnie czerpać korzyści z postępu technologicznego.
PRZYPISY:
NACD Blue Ribbon Commission, Fit for the Future: An Urgent Imperative for Board Leadership, Washington, D.C., NACD, 2019.
A. Bonime‑Blanc, Gloom to Boom: How Leaders Transform Risk Into Resilience and Value, wydanie pierwsze, Nowy Jork, Routledge, 2019.
W sprawach przeciw radzie nadzorczej firmy Caremark długo argumentowano, że „braku dobrej woli, która jest niezbędnym warunkiem do pociągnięcia członków rady do odpowiedzialności, dowodzi tylko ciągłe lub systematyczne zaniedbywanie obowiązku nadzoru, takie jak absolutny brak prób sprawdzenia, czy istnieje odpowiedni system informacyjno‑sprawozdawczy”. Jednak w nowszym orzecznictwie pojawia się szerszy zestaw okoliczności, w których członkom rady można postawić zarzuty. Zobacz na przykład: pozew akcjonariuszy mniejszościowych Wells Fargo & Co., sygnatura akt C.A. No. 16‑cv‑05541‑JST, Północna Kalifornia, 4 października 2017; Marchand kontra Barnhill, sygnatura akt 212 A.3d 805, Delaware, 18 czerwca 2019; pozew akcjonariuszy mniejszościowych Clovis Oncology Inc., sygnatura akt C.A. No. 2017‑0222‑JRS, Sąd Kanclerski w stanie Delaware, 1 października 2019; oraz Hughes kontra Hu, sygnatura akt C.A. No. 2019‑0112‑JTL, Sąd Kanclerski w stanie Delaware, 27 kwietnia 2020.

