Reklama
Skorzystaj z -13% – oferta na Dzień Kochania Siebie! 💗
AI SZTUCZNA INTELIGENCJA

AI, roboty oraz etyka w erze COVID-19

19 maja 2020 7 min czytania
Ayanna Howard
Jason Borenstein
AI, roboty oraz etyka w erze COVID-19

Streszczenie: Przed pandemią COVID-19 sztuczna inteligencja (AI) budziła obawy społeczne, częściowo z powodu dystopijnych wizji w literaturze i filmach science fiction, ale także z powodu realnych zagrożeń, takich jak utrata miejsc pracy, wzmacnianie uprzedzeń czy naruszenia prywatności. mitsmr.pl+1mitsmr.pl+1
Pandemia przyspieszyła wdrażanie AI i robotów w różnych sektorach, w tym w opiece zdrowotnej, gdzie technologie te wspierały diagnostykę, monitorowanie pacjentów oraz dostarczanie leków. Jednak szybkie wdrażanie tych rozwiązań uwypukliło kwestie etyczne, takie jak odpowiedzialność za decyzje podejmowane przez AI, ochrona danych osobowych oraz zapewnienie sprawiedliwości i równości w dostępie do technologii. mitsmr.pl
Ważne jest, aby rozwój i implementacja AI odbywały się z uwzględnieniem norm etycznych, zapewniając transparentność, odpowiedzialność oraz poszanowanie praw człowieka. Współpraca między sektorem technologicznym, naukowcami, decydentami oraz społeczeństwem jest kluczowa dla zapewnienia, że AI będzie służyć dobru publicznemu, minimalizując ryzyko negatywnych skutków społecznych. mitsmr.pl+3mitsmr.pl+3mitsmr.pl+3

Pokaż więcej

Przed pandemią COVID‑19 większość ludzi w mniejszym lub większym stopniu obawiała się sztucznej inteligencji.

Chociaż te przekonania pierwotnie mogły zostać ukształtowane przez dystopijne wizje technologii pojawiające się w literaturze i filmach science fiction, to niepokój był wzmacniany przez uzasadnione obawy. Niektóre z biznesowych zastosowań AI doprowadziły do utraty miejsc pracy, wzmocnienia tendencyjności oraz naruszeń prywatności danych osobowych.

Wygląda na to, że owe niepokoje zeszły na bok od czasu pojawienia się pandemii, jako że oparte na AI technologie zostały zaprzęgnięte do ograniczenia rozprzestrzeniania się wirusa. Jesteśmy świadkami wykorzystania robotyki do wykonywania zadań tych ludzi, którym nakazano pozostanie w domu lub którym przydzielono inne zadania w miejscu pracy.

Na przykład roboty zastępujące siłę roboczą przejmują czyszczenie podłóg w sklepach spożywczych czy sortowanie śmieci w centrach odzysku materiałów wtórnych. Ponadto AI sprzyja zwiększonemu wykorzystywaniu wirtualnych asystentów w obsłudze klienta w takich firmach jak PayPal czy maszynowemu monitorowaniu treści na takich platformach jak YouTube.

Nowy lęk

Platformy robotyczne zdalnej obecności zapewniają studentom japońskim doświadczenie studiowania zbliżone do tego, jakie daje obecność osobista. Roboty nawet służą w roli wydających okrzyki kibiców na pustych widowniach stadionów podczas meczów bejsbola na Tajwanie. Jeśli chodzi o dane, AI już pokazuje swój potencjał w trakcie wczesnych prób monitorowania liczby zakażeń i śledzenia kontaktów osobistych między ludźmi.

Bez wątpienia, wielu z nas jest skłonnych zapomnieć o poprzednim lęku wobec robotów i AI, kiedy postrzegana przez nas wartość technologii przeważa nad jej oczekiwanymi minusami. Ale w takiej nowej akceptacji AI i robotów tkwią pewne zagrożenia. Teraz, kiedy roboty zastępują nas w coraz większej liczbie zadań, gdy dążymy do odzyskania jakiejkolwiek namiastki normalności, warto pomyśleć o tym, co będzie potem. Co się stanie, gdy ludzie będą chcieli odzyskać swoją pracę? A co jeśli śledzenie nas dla celów bezpieczeństwa stanie się zbyt inwazyjne lub zbyt przerażające, a jednocześnie będzie już powszechne?

Nowa normalność nadciąga w tempie ekspresowym

Trudno sobie wyobrazić, aby po tym, jak (miejmy nadzieję) opracowana zostanie szczepionka na COVID‑19, a pandemia się cofnie, życie miało wrócić do stanu z początku 2020 roku. Nasze doświadczenia najbliższych miesięcy ułatwią zaakceptowanie automatyzacji jako stałego elementu naszego życia. Firmy, które zatrudniły roboty podczas kryzysu, mogą uznać, że znaczny odsetek ich dotychczasowych pracowników już nie jest im potrzebny. Klienci, którzy spędzają znacznie więcej czasu, niż to było dotąd, na interakcjach z robotami, mogą przywyknąć do tego typu interakcji. Gdy przyzwyczaisz się do tego, że jedzenie dostarcza ci robot, możesz nie zauważyć, że miejsce pracy kiedyś należące do człowieka zniknęło. W istocie jest możliwe, że niektórzy ludzie będą chcieli utrzymać zasadę dystansu społecznego nawet wtedy, gdy nie będzie już ściśle wymagana.

Jako społeczeństwo jak dotąd nie kwestionowaliśmy tego, w jakich rodzajach zadań roboty zastąpią ludzi – ponieważ w dobie tej pandemii technologia odgrywa ważną rolę. Jeśli maszyny pomagają nam zachować zdrowie i utrzymać dobrostan, nasze zaufanie to nich wzrasta.

Wraz z tym, jak coraz mniej czasu spędzamy z ludźmi spoza naszych sieci najbliższych relacji osobistych i związanych z pracą, nasze więzi z lokalnymi społecznościami mogą zacząć słabnąć. Tym samym zmniejszyć się mogą nasze obawy związane z konsekwencjami stosowania robotów i AI. Poza tym, że stracimy z pola widzenia skalę utraty miejsc pracy spowodowaną wykorzystywaniem robotów i sztucznej inteligencji.

Możemy też szybko stać się ślepi na różne formy uprzedzeń wpisane w funkcjonowanie AI oraz inwazyjność technologii używanych do śledzenia rozprzestrzenia się koronawirusa.

Musimy mieć na uwadze kwestie związane z uprzedzeniami oraz prywatnością

Musimy rozważyć szereg krytycznych kwestii, zanim w większym stopniu zaufamy AI i robotom w trakcie pandemii.

Po pierwsze, wraz ze wzrostem poziomu akceptacji AI i poczucia bezpieczeństwa w społeczeństwie organizacje muszą być świadome tego, że AI może odzwierciedlać pewne utarte schematy myślowe, w tym uprzedzenia.

Na przykład potencjał algorytmów AI do wspomagania procesu decyzyjnego w służbie zdrowia jest ogromy częściowo dlatego, że mogą się one uczyć na dużych zbiorach danych. AI można wykorzystać przy podejmowaniu decyzji na temat kolejności leczenia chorych na oddziałach intensywnej opieki medycznej – na przykład do ustalenia, kto jako pierwszy powinien otrzymać respirator – a to może mieć wpływ na to, kto przeżyje, a kto nie. Zważywszy na to, że choroby serca są często niewłaściwie diagnozowane u kobiet, a czarnoskórzy pacjenci otrzymują często zbyt małe dawki środków przeciwbólowych, wiemy, że zestawy danych często odzwierciedlają pewne utarte schematy myślowe i uprzedzenia. Może to utrudniać rzetelną analizę tych danych.

Problem z prywatnością

Oczywiście te problemy istniały przed pojawieniem się AI, ale mogą zostać znacznie głębiej zakodowane w samej strukturze systemu opieki zdrowotnej, jeśli nie dokonamy ich korekty przed rozpowszechnieniem wykorzystania AI.

Po drugie, narastający problem stanowią kwestie prywatności związane ze zbieraniem danych oraz ich prawdziwością i organizacje muszą zwrócić na te kwestie szczególną uwagę. Zbieranie danych na ogromną skalę może być konieczne dla ograniczenia rozprzestrzeniania się choroby: firmy na całym świecie oferują aplikacje na smartfony śledzące kontakty jednostek z osobami zakażonymi wirusem lub zdrowiejącymi. Na przykład Google i Apple wspólnie tworzą aplikację pozwalającą uzyskać zgodę na ujawnianie przez smartfony, czy ich użytkownicy są zakażeni, czy nie. Można przytoczyć przekonujący argument, że jest to uzasadnione do zakończenia pandemii. Jednak gdy już utrwali się precedens tego rodzaju, jak odebrać tego typu uprawnienia rządom, firmom itd.? Czy klauzule wygaśnięcia zostaną wbudowane w realizowane przez organizacje plany zbierania i wykorzystywania danych?

Możliwość wtórnego wykorzystania obszernych zasobów danych bez wątpienia będzie stanowić zachętę dla organizacji, aby dostęp do nich utrzymać, zważywszy zwłaszcza na korzyści finansowe, jakie można uzyskać dzięki takim danym. Weźmy jako przykład powyższą aplikację wspólną Google’a i Appl’a. Co będzie, kiedy ludzie zażądają zwrotu swoich danych lub zasady ochrony i prywatności danych UE będą wymagały pozbycia się danych, gdy przestaną być potrzebne? Istnieją już dobrze udokumentowane przypadki zabronionego wykorzystywania potajemnego zbierania i udostępniania danych. Organizacje zaangażowane w zbieranie i analizę danych – oraz nadzór nad nimi – muszą się zająć tymi kwestiami już teraz, a nie później, gdy ludzie będą mniej wyrozumiali w przypadku zawłaszczenia ich danych do innych zastosowań lub kiedy takie dane zostaną wykorzystane w sposób etycznie wątpliwy.

Czas na odrzucenie starych schematów

Oczywiście można odrzucić pewne normy, regulacje oraz inne środki ochrony, takie jak ochrona prywatności danych w czasach powszechnego zagrożenia, kiedy może to być konieczne w perspektywie krótkoterminowej dla ochrony ludzi i ratowania życia. Ale nie możemy zaniedbać przygotowań do tego, co przyjdzie po ustąpieniu obecnego globalnego kryzysu. Takie działania obejmują opracowanie strategii przekwalifikowania dla tych, których praca uległa zakłóceniu w wyniku pandemii – a to już dotyczy znacznie powyżej 30 milionów ludzi w samych Stanach Zjednoczonych – gdy będą chcieli powrócić w szeregi pracujących, zważywszy na to, że część z tych miejsc pracy jest wysoce narażona na zastąpienie ludzi przez automatyzację.

Musimy przeanalizować i usunąć szkodliwe utarte schematy wnioskowania i uprzedzenia, jakie pojawiają się w aplikacjach AI – tendencyjność, której te systemy nauczyły się z naszych zachowań i którą wzorowały na interakcjach z nami. I chociaż sytuacja, w której żyjemy, jest bezprecedensowa, musimy aktywnie zająć się planowaniem i ochroną w zakresie szerokiego stosowania robotów i AI. Jeśli tego nie zrobimy, może nas czekać inna forma kryzysu.

O autorach
Tematy

Może Cię zainteresować

Agentowe narzędzia AI do kodowania: co powinni wiedzieć liderzy

Większość menedżerów utknęła w pętli „czatowania” z AI, traktując narzędzia takie jak ChatGPT jedynie jako sprawniejszą wyszukiwarkę. Tymczasem agentowe narzędzia AI, dotychczas kojarzone wyłącznie z pisaniem kodu, stają się nowym fundamentem pracy umysłowej. Pozwalają one budować trwałą „pamięć instytucjonalną” i automatyzować złożone procesy – od analizy konkurencji po due diligence – bez konieczności pisania choćby jednej linii kodu. Dowiedz się, dlaczego narzędzia takie jak Claude Code to nie tylko gratka dla deweloperów, ale kluczowy element przewagi strategicznej nowoczesnego lidera.

Algorytmy na wybiegu: Jak model „AI-first” zmienia rynek mody

Współczesny sektor mody i dóbr luksusowych przechodzi fundamentalną zmianę, w której sztuczna inteligencja przestaje być jedynie narzędziem pomocniczym, a staje się głównym architektem strategii operacyjnej. Wg BCG, firmy przyjmujące model „AI-first” muszą zmierzyć się z nową rzeczywistością, w której konsumenci porzucają tradycyjne wyszukiwarki na rzecz platform takich jak ChatGPT czy Perplexity, zmuszając marki do walki o widoczność w świecie zdominowanym przez algorytmy rekomendacyjne.

Co traktat ONZ o cyberprzestępczości może oznaczać dla Twojej firmy

Nowy traktat Organizacji Narodów Zjednoczonych ustanawia międzynarodowe ramy prowadzenia dochodzeń i ścigania przestępstw online, takich jak ataki ransomware czy oszustwa finansowe, które często mają charakter transgraniczny. Choć dokument ten wprost definiuje cyberprzestępczość oraz precyzuje zakres odpowiedzialności organów ścigania i przedsiębiorstw w takich przypadkach, obawy dotyczące prywatności i swobód obywatelskich wciąż nie zostały w pełni rozstrzygnięte. Firmy o zasięgu globalnym powinny już teraz rozpocząć przygotowania do nadchodzącego egzekwowania nowych przepisów.

empatia Czy empatia stanie się kluczową kompetencją przywódczą?

W erze rosnącej złożoności i niepewności, kluczową rolę w sukcesie organizacji odgrywa styl przywództwa oparty na empatii, partnerstwie i bezpieczeństwie psychologicznym. Tradycyjne modele hierarchiczne ustępują miejsca transformacyjnemu przywództwu, które aktywuje potencjał zespołów i sprzyja innowacjom.

AI w biznesie 5 trendów AI, które zdefiniują strategię liderów w 2026 roku

Sztuczna inteligencja do 2026 roku przekształci się z pojedynczych narzędzi w złożone, agentowe super-aplikacje, które zmienią sposób zarządzania, organizacji pracy i strategii konkurencyjnej. Transformacja ta ma wymiar globalny, z rosnącym znaczeniem lokalnej specjalizacji i integracji AI z infrastrukturą fizyczną oraz mediami generatywnymi. W efekcie powstaje multipolarna gospodarka oparta na inteligentnej infrastrukturze i zrozumieniu lokalnych potrzeb.

Enszityfikacja: Jak pogoń za marżą niszczy wartość „inteligentnych” produktów

Kiedyś jednym z symboli jakości była trwałość produktu fizycznego. Dziś, dzięki cyfryzacji, firmy dążą do sprawowania kontroli nad produktem długo po tym, jak opuścił on linię produkcyjną. To, co miało być rewolucją w komforcie i personalizacji, coraz częściej zmienia się w tzw. enszityfikację – proces, w którym innowacja ustępuje miejsca agresywnej monetyzacji, a klient z właściciela staje się jedynie subskrybentem własnych przedmiotów.

Mapa ryzyka 2026: Globalna perspektywa jest ważniejsza niż kiedykolwiek

W świecie rozdartym między nieuchronną integracją gospodarczą a politycznym zwrotem ku nacjonalizmom, liderzy biznesu stają przed paradoksem: jak budować wartość, gdy tradycyjne bezpieczne przystanie zmieniają swój charakter? Analiza danych z 2025 roku pokazuje, że choć politycy mogą dążyć do izolacji, kapitał nie posiada tego luksusu. Zapraszamy do głębokiego wglądu w globalne rynki akcji, dynamikę walut i nową mapę ryzyka krajowego, która zdefiniuje strategie inwestycyjne w 2026 roku.

Plotki w biurze: błąd systemu czy ukryty feedback?

Plotka biurowa to rzadko objaw toksycznej kultury, a najczęściej sygnał, że oficjalna komunikacja w firmie zawodzi. Zamiast uciszać nieformalne rozmowy, liderzy powinni traktować je jako cenny mechanizm informacji zwrotnej. Sprawdź, jak zrozumieć potrzeby zespołu ukryte między wierszami i skutecznie zarządzać organizacją w obliczu nieuniknionych zmian.

Głos jako interfejs przyszłości: Jabra Evolve3 jako infrastruktura pracy opartej na AI

Głos staje się nowym interfejsem pracy z AI, a jakość audio przesądza o skuteczności współpracy hybrydowej. Sprawdź, jak seria słuchawek Jabra Evolve3 tworzy infrastrukturę gotową na erę komend głosowych i spotkań wspieranych przez sztuczną inteligencję.

AI lub dymisja: prezesi osobiście angażują się w technologię

Era eksperymentów ze sztuczną inteligencją w biznesie dobiegła końca. Najnowszy raport BCG AI Radar 2026 ujawnia: co drugi CEO uważa, że jego posada zależy od sukcesu wdrożenia AI. Dowiedz się, dlaczego szefowie największych firm na świecie rezygnują z delegowania zadań i sami stają się „Głównymi Dyrektorami ds. AI”, podwajając wydatki na technologię, która w tym roku ma wreszcie zacząć zarabiać.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!