Strona główna > Autorzy > Thomas H. Davenport
jest profesorem technologii informacyjnej i zarządzania w Babson College, pracownikiem naukowym w MIT Initiative on the Digital Economy i starszym doradcą firmy Deloitte. Jest współautorem książki All In on AI: How Smart Companies Win Big With Artificial Intelligence, Harvard Business Review Press, 2023.
Jeśli oglądaliście film będący połączeniem kina akcji i kina przygodowego Wszystko wszędzie naraz, być może odebraliście go w ten sam sposób jak my. Imponujący i ekscytujący? Bez wątpienia – to jeden z powodów, dla których zdobył siedem Oscarów. Zapowiedź przyszłości? Być może – film zawiera bowiem jedną z wizji tego, jak mógłby wyglądać tzw. multiverse. Nieco dziwaczny i niejasny? Tak – przynajmniej dla nas.
Joann Stonier, która do niedawna pełniła funkcję dyrektorki do spraw danych (chief data officer – CDO) w Mastercardzie, podczas ostatniej dyskusji panelowej dokonała trafnego porównania pomiędzy filmem Wszystko wszędzie naraz a generatywną sztuczną inteligencją. Powiedziała, że „wszystko wszędzie” to dobry sposób na opisanie tej technologii – ekscytującej, zagmatwanej i jednocześnie ważnej. Stonier odgrywała rolę jednego z nielicznych menedżerów na stanowisku CDO, którzy od wielu lat skupiają się mocno na problematyce etyki wykorzystywania danych. Przeprowadziliśmy z nią wywiad podczas jej ostatnich dni na tym stanowisku; Stonier jest obecnie pracownicą naukową (Mastercard fellow), ale nadal będzie się zajmowała kwestiami związanymi z etyką wykorzystywania danych i sztucznej inteligencji (AI).
Po wywiadzie poczuliśmy pewną ulgę, przekonaliśmy się bowiem, że Stonier i Mastercard nadal szukają swojej drogi w kontekście AI. Dotyczy to wielu firm. Ponad połowa respondentów niedawnej ankiety serwisu VentureBeat stwierdziła, że ich firmy eksperymentują z AI, ale tylko 18% tych przedsiębiorstw rozpoczęło jej wdrażanie. Taki sam był odsetek respondentów, którzy oznajmili, że w nadchodzącym roku zamierzają przeznaczyć na tę technologię więcej pieniędzy.
Oczywiście, firma Mastercard jest specem od danych, analityki i AI. Rok temu pisaliśmy o jej dążeniach do tego, aby stać się „potęgą w zakresie AI”, a Stonier opisała, jak jej firma wykorzystuje dane, będąc gościem podkastu Me, Myself and AI, prowadzonego przez „MIT Sloan Management Review”. Mastercard działa w sferze AI od ponad dekady, przede wszystkim w obszarze cyberbezpieczeństwa. Fakt, że lider rynku i zarazem firma z tak bogatym doświadczeniem w sferze sztucznej inteligencji nadal stara się wypracować szczegóły strategii w zakresie generatywnej AI, powinien być pocieszeniem dla wielu organizacji i menedżerów.
Obecnie wiele dużych firm – globalnie ok. 70% – doszło do przekonania, że sztuczna inteligencja jest ważna, więc szuka zastosowań dla technologii w różnych obszarach swojej działalności. W większości przedsiębiorstwa te mają również świadomość, że zastosowanie AI ma wymiar etyczny i że muszą dopilnować, aby systemy, które tworzą lub wdrażają, były przejrzyste, bezstronne i sprawiedliwe.
Wiele przedsiębiorstw, które zajmują się etyczną stroną sztucznej inteligencji (AI), jest wciąż na początkowym etapie rozstrzygania tej kwestii. Niektóre nakłoniły swoich pracowników, aby w pracy nad użyciem i wykorzystaniem AI kierowali się zasadami etycznymi. Inne opracowały wstępny zbiór procedur służących nadzorowi nad AI. Większość firm nie zrobiła jednak nawet tego. Jak wynika z jednej z ostatnich ankiet, 73% amerykańskich menedżerów wyższego szczebla oświadczyło, że ich zdaniem wytyczne w sferze sztucznej inteligencji są ważne, ale tylko 6% z nich zadbało o ich nakreślenie.
Właściwy proces tworzenia etycznych podstaw funkcjonowania AI w przedsiębiorstwie powinien, według nas, obejmować pięć etapów:
Etap kaznodziejstwa – przedstawiciele firmy propagują znaczenie etyki w sferze AI;
Etap tworzenia procedur – firma obmyśla i zatwierdza wewnętrzne procedury etycznego podejścia do AI;
Etap ewidencjonowania – firma zbiera dane na temat każdego przypadku użycia lub zastosowania AI (przy zastosowaniu takich metod jak karty modeli);
Etap oceny – firma przeprowadza usystematyzowaną analizę każdego przypadku użycia (lub zleca ją zewnętrznemu partnerowi), aby ustalić, czy dany przypadek spełnia kryteria dotyczące etyki w sferze AI;
Etap działania – firma albo akceptuje przypadek użycia w istniejącej wersji, albo odsyła przypadek do korekty przez zgłaszającego go „właściciela”, albo przypadek trafia do lamusa.
Dopiero na wyższych etapach – oceny i działania – firma jest w stanie faktycznie stwierdzić, czy zastosowania AI spełniają ustanowione przez nią kryteria w sferze przejrzystości, bezstronności i sprawiedliwości. Aby przystąpić do pracy nad tymi etapami, firma musi dysponować sporą liczbą projektów AI, procesów i systemów gromadzenia informacji wraz ze strukturami nadzoru służącymi podejmowaniu decyzji dotyczących konkretnych zastosowań. Wiele przedsiębiorstw nie spełnia jeszcze tych wstępnych warunków, ale w miarę osiągania przez te firmy większej dojrzałości w sferze AI i kładzenia na nią większego nacisku spełnienie tych warunków okaże się konieczne.
Nawet po przeprowadzeniu krótkich i mało zaawansowanych szkoleń osoby bez specjalistycznych umiejętności technicznych mogą skutecznie zautomatyzować skomplikowane procesy. Dzięki temu mogą przyczynić się do osiągnięcia istotnych korzyści przez swoje organizacje.
Firmy w coraz większym stopniu przyswajają ideę wspomagania nietechnicznych pracowników merytorycznych – ludzi posiadających głęboką wiedzę fachową w dziedzinach biznesowych – poprzez naukę bezpośredniego automatyzowania procesów, które sprawiają im trudności i zabierają czas. Na przykład pracownicy pionu zasobów ludzkich są wyjątkowo wykwalifikowani do identyfikowania prozaicznych i powtarzalnych elementów swojej pracy, takich jak namierzanie kandydatów, a następnie, po pewnym szkoleniu, tworzenia automatyzacji, które uwolnią ich od uciążliwych obowiązków, takich jak podwójne (duplicative) wprowadzanie i czyszczenie danych.
Chociaż rozwój takich aplikacji przez tzw. obywateli korporacyjnych (citizens within the organization) wymaga starannego planowania i nadzoru, o tyle narzędzia programistyczne o niskim lub zerowym kodzie (low code, no code) stały się powszechnie dostępne i umożliwiają podejmowanie takich inicjatyw. W szczególności chodzi o zrobotyzowaną automatyzację procesów (robotic process automation – RPA) i szerszy pakiet inteligentnej automatyzacji (inteligent automation – IA), umożliwiającej przeprojektowanie i automatyzację przepływów pracy. Są obecnie na tyle proste, że eksperci funkcjonalni mogą sami projektować, rozwijać i wdrażać aplikacje IT oraz modele analityczne. Nie wszystkie projekty wymagają pośrednictwa informatyków, którzy być może nie do końca rozumieją problemy użytkowników końcowych. Narzędzia do automatyzacji przeprowadzanej przez obywateli korporacyjnych pozwalają ludziom nieposiadającym głębokiej wiedzy technicznej tworzyć złożone systemy poprawiające ich doświadczenia zawodowe. Narzędzia te już teraz generują znaczącą wartość dla wielu firm.
W tym artykule, opierając się na rozmowach, jakie przeprowadziliśmy z przedstawicielami sześciu firm – AT&T, Dentsu, Johnson & Johnson (J&J), PwC, Voya Financial i Wesco – opisujemy ich starania w dołączeniu do trendu automatyzacji obywatelskiej (citizen automation). Ponadto wyjaśniamy szczegółowo, jak inne firmy mogą wykształcić w sobie tego rodzaju zdolności i jakie są korzyści i wyzwania związane z tym trendem.
Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!