AI, roboty oraz etyka w erze COVID-19

Przed pandemią COVID-19 większość ludzi w mniejszym lub większym stopniu obawiała się sztucznej inteligencji.

Chociaż te przekonania pierwotnie mogły zostać ukształtowane przez dystopijne wizje technologii pojawiające się w literaturze i filmach science fiction, to niepokój był wzmacniany przez uzasadnione obawy. Niektóre z biznesowych zastosowań AI doprowadziły do utraty miejsc pracy, wzmocnienia tendencyjności oraz naruszeń prywatności danych osobowych.

Wygląda na to, że owe niepokoje zeszły na bok od czasu pojawienia się pandemii, jako że oparte na AI technologie zostały zaprzęgnięte do ograniczenia rozprzestrzeniania się wirusa. Jesteśmy świadkami wykorzystania robotyki do wykonywania zadań tych ludzi, którym nakazano pozostanie w domu lub którym przydzielono inne zadania w miejscu pracy.

Na przykład roboty zastępujące siłę roboczą przejmują czyszczenie podłóg w sklepach spożywczych czy sortowanie śmieci w centrach odzysku materiałów wtórnych. Ponadto AI sprzyja zwiększonemu wykorzystywaniu wirtualnych asystentów w obsłudze klienta w takich firmach jak PayPal czy maszynowemu monitorowaniu treści na takich platformach jak YouTube.

Nowy lęk

Platformy robotyczne zdalnej obecności zapewniają studentom japońskim doświadczenie studiowania zbliżone do tego, jakie daje obecność osobista. Roboty nawet służą w roli wydających okrzyki kibiców na pustych widowniach stadionów podczas meczów bejsbola na Tajwanie. Jeśli chodzi o dane, AI już pokazuje swój potencjał w trakcie wczesnych prób monitorowania liczby zakażeń i śledzenia kontaktów osobistych między ludźmi.

Bez wątpienia, wielu z nas jest skłonnych zapomnieć o poprzednim lęku wobec robotów i AI, kiedy postrzegana przez nas wartość technologii przeważa nad jej oczekiwanymi minusami. Ale w takiej nowej akceptacji AI i robotów tkwią pewne zagrożenia. Teraz, kiedy roboty zastępują nas w coraz większej liczbie zadań, gdy dążymy do odzyskania jakiejkolwiek namiastki normalności, warto pomyśleć o tym, co będzie potem. Co się stanie, gdy ludzie będą chcieli odzyskać swoją pracę? A co jeśli śledzenie nas dla celów bezpieczeństwa stanie się zbyt inwazyjne lub zbyt przerażające, a jednocześnie będzie już powszechne?

Nowa normalność nadciąga w tempie ekspresowym

Trudno sobie wyobrazić, aby po tym, jak (miejmy nadzieję) opracowana zostanie szczepionka na COVID-19, a pandemia się cofnie, życie miało wrócić do stanu z początku 2020 roku. Nasze doświadczenia najbliższych miesięcy ułatwią zaakceptowanie automatyzacji jako stałego elementu naszego życia. Firmy, które zatrudniły roboty podczas kryzysu, mogą uznać, że znaczny odsetek ich dotychczasowych pracowników już nie jest im potrzebny. Klienci, którzy spędzają znacznie więcej czasu, niż to było dotąd, na interakcjach z robotami, mogą przywyknąć do tego typu interakcji. Gdy przyzwyczaisz się do tego, że jedzenie dostarcza ci robot, możesz nie zauważyć, że miejsce pracy kiedyś należące do człowieka zniknęło. W istocie jest możliwe, że niektórzy ludzie będą chcieli utrzymać zasadę dystansu społecznego nawet wtedy, gdy nie będzie już ściśle wymagana.

Jako społeczeństwo jak dotąd nie kwestionowaliśmy tego, w jakich rodzajach zadań roboty zastąpią ludzi – ponieważ w dobie tej pandemii technologia odgrywa ważną rolę. Jeśli maszyny pomagają nam zachować zdrowie i utrzymać dobrostan, nasze zaufanie to nich wzrasta.

Wraz z tym, jak coraz mniej czasu spędzamy z ludźmi spoza naszych sieci najbliższych relacji osobistych i związanych z pracą, nasze więzi z lokalnymi społecznościami mogą zacząć słabnąć. Tym samym zmniejszyć się mogą nasze obawy związane z konsekwencjami stosowania robotów i AI. Poza tym, że stracimy z pola widzenia skalę utraty miejsc pracy spowodowaną wykorzystywaniem robotów i sztucznej inteligencji.

Możemy też szybko stać się ślepi na różne formy uprzedzeń wpisane w funkcjonowanie AI oraz inwazyjność technologii używanych do śledzenia rozprzestrzenia się koronawirusa.

Musimy mieć na uwadze kwestie związane z uprzedzeniami oraz prywatnością

Musimy rozważyć szereg krytycznych kwestii, zanim w większym stopniu zaufamy AI i robotom w trakcie pandemii.

Po pierwsze, wraz ze wzrostem poziomu akceptacji AI i poczucia bezpieczeństwa w społeczeństwie organizacje muszą być świadome tego, że AI może odzwierciedlać pewne utarte schematy myślowe, w tym uprzedzenia.

Na przykład potencjał algorytmów AI do wspomagania procesu decyzyjnego w służbie zdrowia jest ogromy częściowo dlatego, że mogą się one uczyć na dużych zbiorach danych. AI można wykorzystać przy podejmowaniu decyzji na temat kolejności leczenia chorych na oddziałach intensywnej opieki medycznej – na przykład do ustalenia, kto jako pierwszy powinien otrzymać respirator – a to może mieć wpływ na to, kto przeżyje, a kto nie. Zważywszy na to, że choroby serca są często niewłaściwie diagnozowane u kobiet, a czarnoskórzy pacjenci otrzymują często zbyt małe dawki środków przeciwbólowych, wiemy, że zestawy danych często odzwierciedlają pewne utarte schematy myślowe i uprzedzenia. Może to utrudniać rzetelną analizę tych danych.

Problem z prywatnością

Oczywiście te problemy istniały przed pojawieniem się AI, ale mogą zostać znacznie głębiej zakodowane w samej strukturze systemu opieki zdrowotnej, jeśli nie dokonamy ich korekty przed rozpowszechnieniem wykorzystania AI.

Po drugie, narastający problem stanowią kwestie prywatności związane ze zbieraniem danych oraz ich prawdziwością i organizacje muszą zwrócić na te kwestie szczególną uwagę. Zbieranie danych na ogromną skalę może być konieczne dla ograniczenia rozprzestrzeniania się choroby: firmy na całym świecie oferują aplikacje na smartfony śledzące kontakty jednostek z osobami zakażonymi wirusem lub zdrowiejącymi. Na przykład Google i Apple wspólnie tworzą aplikację pozwalającą uzyskać zgodę na ujawnianie przez smartfony, czy ich użytkownicy są zakażeni, czy nie. Można przytoczyć przekonujący argument, że jest to uzasadnione do zakończenia pandemii. Jednak gdy już utrwali się precedens tego rodzaju, jak odebrać tego typu uprawnienia rządom, firmom itd.? Czy klauzule wygaśnięcia zostaną wbudowane w realizowane przez organizacje plany zbierania i wykorzystywania danych?

Możliwość wtórnego wykorzystania obszernych zasobów danych bez wątpienia będzie stanowić zachętę dla organizacji, aby dostęp do nich utrzymać, zważywszy zwłaszcza na korzyści finansowe, jakie można uzyskać dzięki takim danym. Weźmy jako przykład powyższą aplikację wspólną Google’a i Appl’a. Co będzie, kiedy ludzie zażądają zwrotu swoich danych lub zasady ochrony i prywatności danych UE będą wymagały pozbycia się danych, gdy przestaną być potrzebne? Istnieją już dobrze udokumentowane przypadki zabronionego wykorzystywania potajemnego zbierania i udostępniania danych. Organizacje zaangażowane w zbieranie i analizę danych – oraz nadzór nad nimi – muszą się zająć tymi kwestiami już teraz, a nie później, gdy ludzie będą mniej wyrozumiali w przypadku zawłaszczenia ich danych do innych zastosowań lub kiedy takie dane zostaną wykorzystane w sposób etycznie wątpliwy.

Czas na odrzucenie starych schematów

Oczywiście można odrzucić pewne normy, regulacje oraz inne środki ochrony, takie jak ochrona prywatności danych w czasach powszechnego zagrożenia, kiedy może to być konieczne w perspektywie krótkoterminowej dla ochrony ludzi i ratowania życia. Ale nie możemy zaniedbać przygotowań do tego, co przyjdzie po ustąpieniu obecnego globalnego kryzysu. Takie działania obejmują opracowanie strategii przekwalifikowania dla tych, których praca uległa zakłóceniu w wyniku pandemii – a to już dotyczy znacznie powyżej 30 milionów ludzi w samych Stanach Zjednoczonych – gdy będą chcieli powrócić w szeregi pracujących, zważywszy na to, że część z tych miejsc pracy jest wysoce narażona na zastąpienie ludzi przez automatyzację.

Musimy przeanalizować i usunąć szkodliwe utarte schematy wnioskowania i uprzedzenia, jakie pojawiają się w aplikacjach AI – tendencyjność, której te systemy nauczyły się z naszych zachowań i którą wzorowały na interakcjach z nami. I chociaż sytuacja, w której żyjemy, jest bezprecedensowa, musimy aktywnie zająć się planowaniem i ochroną w zakresie szerokiego stosowania robotów i AI. Jeśli tego nie zrobimy, może nas czekać inna forma kryzysu.