Przewodzenie i odnoszenie sukcesów z zespołem wyposażonym w narzędzia ze sfery sztucznej inteligencji wymaga wzięcia pod uwagę kluczowych aspektów naboru pracowników, szkoleń oraz zarządzania ryzykiem.
Postęp techniczny osiągnięty ostatnio w sferze uczenia maszynowego, szczególnie w obszarze uczenia głębokiego (deep learning), jest następstwem coraz częstszego włączania przez firmy sztucznej inteligencji (AI) w procesy i bieżące zadaniaIndeks górny 11. Niektóre z takich nowych rozwiązań, jak np. DeepMind AlphaGo Google’a oraz modele OpenAI GPT‑2 and GPT‑3, mogą działać na poziomie wręcz eksperckim, i to w dziedzinach, w których – jak sądziliśmy – systemy automatyczne nie będą w stanie dorównać ludziomIndeks górny 22.
Patrząc od strony wyników biznesowych, najciekawsze rozwiązania wykorzystują uczenie głębokie do rozwiązywania problemów związanych z nadzorowanym nauczaniem. To forma uczenia maszynowego, w której podawane są zmienne wejściowe i wyjściowe. Algorytm ma za zadanie poznać związek między „tym, co na wejściu” a „tym, co na wyjściu”. Jest „nadzorowany” w tym sensie, że uczy się na podstawie danych szkoleniowych, gdzie „to, co na wejściu” i „to, co na wyjściu” jest znane. Takie algorytmy ze sfery uczenia głębokiego pozwalają tworzyć oprogramowanie w nowy sposób. Zamiast bezpośrednio podawać przepis w postaci kodu na wykonanie danego zadania, model uczy się na podstawie danych, jak samodzielnie to zadanie wykonać. Algorytmy tego rodzaju są szczególnie pomocne w różnych wariantach prognozowaniaIndeks górny 33.
Pozyskanie utalentowanych pracowników i umożliwienie im rozwoju tak, by odnosili sukcesy w tworzeniu takich systemów AI, może być sporym wyzwaniem dla firm. Wypracowanie zdolności organizacji w sferze AI / uczenia maszynowego wymaga dogłębnej zmiany dotychczasowych procesów biznesowych. Oczywiście wymaga to zatrudnienia i przeszkolenia osób posiadających umiejętności programistyczne – jednak skuteczne zarządzanie AI ma jeszcze większe znaczenieIndeks górny 44. Menedżerowie są ostatecznie odpowiedzialni za kształtowanie strategii organizacji (jej kształt i kierunek), tak by maksymalizować zwrot inwestycji związanych z każdą nową technologią. Wiąże się to z odpowiedzialnością za zarządzanie czynnikami ryzyka towarzyszącymi tworzeniu systemów AI. Skuteczne zarządzanie rozwiązaniami wykorzystującymi AI może przynieść w efekcie szybszy wzrost produktywności i dać firmom przewagę konkurencyjną.
Zatrudnianie i szkolenie: uwagi dla menedżerów
Podstawowym wymogiem dla liderów chcących budować system AI, pozwalający odnosić sukcesy, jest zatrudnianie i szkolenie odpowiedniego personelu. Zespół AI to w zasadzie grupa osób zajmujących się zarządzaniem danymi, ale dostarczających również innego rodzaju produktów. Przykładowo, zamiast prowadzić eksperymenty mające na celu określenie skutków nowej kampanii reklamowej, zespół AI może wypracować system klasyfikacji obrazów produktów pozwalający ustalić, jak rozplanować układ półek w sklepie. Zespoły korzystają z wielu takich samych narzędzi, w tym powszechnie stosowanych języków programowania, jak Python czy R, środowisk przetwarzania danych wykorzystujących chmurę czy technologii bazodanowych.
Kwestie, o których powinni pamiętać liderzy i ich zespoły, to m.in.: Czy jest sposób, by uzyskać szybki dostęp do znacznych mocy obliczeniowych? Zarządzanie systemami AI o jakości produkcyjnej często najlepiej wychodzi przy zastosowaniu usług wykorzystujących chmurę, ale dla niektórych firm lepszym wyjściem może być stworzenie własnego centrum danych. Niezależnie od przyjętego rozwiązania zespół AI musi mieć dostęp do odpowiednich urządzeń.
Czy mamy osoby o odpowiednich umiejętnościach technicznych, które wspierają stabilność systemów obliczeniowych? Stabilność infrastruktury danych oraz urządzeń i systemów obliczeniowych są kluczowe przy budowaniu rozwiązań, które można rozbudowywać. To oznacza konieczność zatrudniania takich specjalistów IT, którzy ułatwią analitykom danych i inżynierom od AI tworzenie wiarygodnych modeli.
Czy dane są zbierane, porządkowane i udostępniane w sposób rzetelny i zgodny z zasadami?
Zawodowcy w dziedzinie zarządzania danymi mogą zapewnić, że „dane surowe” będą dostępne w formacie i jakości wymaganych do zmaksymalizowania wartości AI przy jednoczesnym minimalizowaniu ryzyka.
Po to, by była produktywna i dostarczała wartości w nowym kontekście, podobnie jak inne sfery IT, AI wymaga wielu znaczących uprzednich inwestycji w takich obszarach, jak: doświadczenie techniczne, procesy biznesowe, dane, kultura organizacyjnaIndeks górny 55. Na początkowym etapie te dodatkowe inwestycje i zmiany w systemie organizacyjnym mogą tworzyć wrażenie, że AI i cała sfera zarządzania danymi osłabiają produktywność; jak by nie patrzeć, więcej zasobów poświęca się na uzyskanie częściowo takich samych efektów. Z czasem jednak to, co mogło wydawać się drobnymi zmianami w produktywności, przyniesie faktyczne zwroty z inwestycji. Razem z kolegami zajmującymi się badaniami tej sfery nazywamy ten fenomen „Krzywą J produktywności” (Productivity J‑Curve); nasze badania wspierają tezę, że takie inwestycje pomagają firmom osiągać efekty, na których zależy interesariuszomIndeks górny 66.
W swojej pracy, realizowanej wspólnie z zespołem Economic Graph Research and Insights LinkedIn, odnotowałem, że większość wartości, jaką utalentowany zespół AI przynosi od strony biznesowej, ma odzwierciedlenie w tych dodatkowych środkach. Jest to uzasadnione – wiele z niematerialnych zasobów, jak nowe procesy, tworzy więcej wartości wtedy, gdy łatwiej jest pozyskać umiejętności związane z AI.
Nowe narzędzia i platformy, jak Google TensorFlow i biblioteki open source do uczenia maszynowego PyTorch, ułatwiły szybsze szkolenie modeli głębokiego nauczania oraz rozwijanie umiejętności w zespołach AI. Korzystałem z danych dostępnych za pośrednictwem LinkedIn, by prześledzić powszechność kompetencji AI w firmach; zauważyłem, że wartość rynkowa organizacji notowanych na giełdach, które już stosują AI, wzrosła między 3 a 7 procent od czasu, gdy w 2015 rokuIndeks górny 77 na rynek wszedł TensorFlow.
Ten rodzaj rozwiązań open source pozwala firmom przyspieszyć działania związane z nauczaniem maszynowym bez ponoszenia kosztów rozwoju nowych platform rozwojowych na własną rękę. Tymczasem wymogi techniczne potrzebne do wspierania systemów produkcyjnych pisane z TensorFlow czy PyTorch już zostały zintegrowane przez wiodących dostawców usług wykorzystujących chmurę. Z perspektywy menedżera najlepszym wyjściem jest zatrudnienie osób, które już znają takie platformy bądź szybko opanują ich znajomość. Natomiast z perspektywy szkoleniowej zastosowanie takiej platformy pozwala skupić się na tworzeniu koncepcji, zamiast na skomplikowanych językach programistycznych. To znaczy, że pracownicy już pełniący funkcje inżynierów oprogramowania lub analityków danych mogą szybko posiąść umiejętności potrzebne im w roli inżynierów AI. Programy typu Deeplearning.ai and Fast.ai pozwalają przy tym poznać te rozwiązania dzięki szkoleniom online.

Po to, by była produktywna i dostarczała wartości w nowym kontekście, podobnie jak inne sfery IT, AI wymaga wielu znaczących uprzednich inwestycji w takich obszarach, jak: doświadczenie techniczne, procesy biznesowe, dane, kultura organizacyjna.
Dochodzenie do skutecznego zarządzania sferą AI
Nawet jeśli w danej organizacji działa silny zespół techniczny, każda firma wykorzystująca AI musi skutecznie inwestować w rozwój, by maksymalizować zwrot z inwestycji w AI. Stosowanie systemów AI niesie przy tym ze sobą wiele wyzwań, czynników ryzyka i kryje wiele pułapek. Zarządzanie ryzykiem wymaga opracowania skutecznej struktury zarządzania i raportowania, gdzie ważną rolę odgrywają wybory dotyczące struktury organizacyjnejIndeks górny 88. Przykładowo, czy inżynierowie AI tworzą produkty dla wewnętrznych klientów, czy sami wchodzą w skład takich zespołów wewnętrznych klientów? Niektóre firmy preferują model „piasta‑szprychy” (hub‑and‑spoke), gdzie główny zespół analityczny wspiera wiele różnych wewnętrznych grup; inne wolą umiejscowić osoby zajmujące się przetwarzaniem danych wewnątrz każdej z takich grup.
Gdy specjaliści rozwijający sferę AI nie są członkami wewnętrznych grup, część z takich „wewnętrznych klientów” może mieć obawy, że AI zastąpi ich lub podważy ich pozycję w ramach firmyIndeks górny 99. Mogą stawać na drodze wdrażaniu nowych procesów, jeśli będą je postrzegać jako zagrożenie. W takich przypadkach głównym zadaniem menedżerów jest przekonanie zespołów do nowych rozwiązań – w czym kluczową rolę odgrywa skuteczne komunikowanie i tłumaczenie, czym jest AI. Jest to zestaw działań podejmowanych w ramach pracy – tylko tyle i aż tyleIndeks górny 1010. Menedżerowie mogą łagodzić wewnętrzne obawy dotyczące AI dzięki jasnemu planowaniu zmian w systemie pracy, jakie przyniesie wdrożenie nowych technologii.
Kiedy w firmie działa silny zespół techniczny, każda organizacja wykorzystująca AI musi z powodzeniem inwestować w rozwój samej organizacji po to, by maksymalizować zwrot z inwestycji w AI.
Inny sposób to wyposażenie menedżerów wyższego szczebla w odpowiednią ilość informacji, tak by mogli motywować zespoły do korzystania z możliwości, jakie zapewniają dane. Dzięki szkoleniom w obszarze AI dla menedżerów wyższego szczebla i udrożnieniu przepływu informacji tak, by mieli oni wgląd w różne aspekty prowadzonego biznesu, inne osoby w organizacji będą musiały zaakceptować nowe technologie po to, by dotrzymać kroku pozostałym. Jeżeli firma szacuje wysokość sprzedaży, stosując nowe techniki, liderzy AI powinni wysyłać takie raporty menedżerom najwyższego szczebla po to, by mogli z nich korzystać/odnosić się do nich na spotkaniach z menedżerami średniego szczebla. W przypadku, gdy zespoły AI są rozproszone po całej organizacji, osoby zarządzające są bardziej odpowiedzialne za całościowy obraz wskazujący, gdzie nowe technologie powinny być wdrażane. Tak czy inaczej, firma ma się lepiej, jeśli osoby decyzyjne rozumieją, które problemy może rozwiązać AI, a do rozwiązania których lepiej nadadzą się inne narzędzia.
Kolejnym elementem, jakim z całą stanowczością muszą zająć się menedżerowie, jest problem zafałszowania danych, wynikający ze stosowania pewnych nieuprawnionych założeń. W przypadku uczenia maszynowego może być trudno wywnioskować „dlaczego” system wygenerował takie, a nie inne przewidywania. Przykładowo, określenie powodów, dla których czyjaś zdolność kredytowa wzrosła lub zmalała, może być trudne przy zastosowaniu modeli czarnej skrzynki. Problemem jest nie tylko to, że działania na zafałszowanych zbiorach danych prowadzą do powstania nieskutecznych i nieodpowiednich modeli w kontekstach produkcyjnych. Algorytmy są pisane przez ludzi; wybory dokonywane przez uprzedzonych w stosunku do jakiejś kwestii ludzi lub powstające w skomplikowanych systemach społecznych również mogą dawać wyniki sprzeczne z celami i wartościami danej organizacji. MenedżerowieIndeks górny 1111 muszą ściśle monitorować to, jak ich organizacja pozyskuje, przetwarza i eksportuje dane. Zawsze, gdy to możliwe, systemy powinny podlegać audytom po to, by upewnić się, że realizują właściwe cele.

Na koniec: zarządzanie czynnikami ryzyka związanymi z systemami AI wymaga zrozumienia różnicy między korelacją a związkiem przyczynowym. Uczenie maszynowe jest najczęściej stosowane dla generowania pewnych przewidywań w ramach uczenia nadzorowanego. Jakie zadanie stoi przed takim modelem? To, czy na zdjęciu zostanie rozpoznany kot, może nie mieć znaczenia – jest to efekt przewidywania (korelacji). Ma znaczenie odpowiedź na pytanie, dlaczego rosną koszty pozyskania klientów dla konkretnej linii produktów; to jest pytanie o przyczynę i skutek. W obydwu przypadkach menedżerowie muszą myśleć jak naukowcy: stawiać tezę, znaleźć zestaw właściwych narzędzi i danych potrzebnych do oceny sytuacji i podejmować decyzje na podstawie pewniejszych informacji. Wdrożenie AI oraz uczenia maszynowego w procesy stosowane w danej organizacji jest ryzykowne, ale zwrot z takiej inwestycji może być potencjalnie bardzo wysoki – o ile właściwe dodatkowe inwestycje będą poczynione.
Tak jak w przypadku wcześniejszych zmian w sferze technologii informatycznych AI wymaga, by osoby zarządzające same się rozwijały w ślad za nowymi możliwościami firmy/organizacji. Osób skutecznie władających AI przybywa w skali całego świata; wszystko zależy od nowej klasy menedżerów potrafiących również wydobyć to, co najlepsze, z zespołów technicznych odpowiedzialnych za badania i rozwój nowych rozwiązań.
PRZYPISY
R. Perrault, Y. Shoham, E. Brynjolfsson, et al., “Artificial Intelligence Index 2019 Annual Report,” Human‑Centered Artificial Intelligence Institute (Stanford, California: Stanford University, December 2019).
D. Silver, A. Huang, C.J. Maddison, et al., “Mastering the Game of Go With Deep Neural Networks and Tree Search,” Nature 529, no. 7587 (Jan. 28, 2016): 484‑489; A. Radford, J. Wu, R. Child, et al., “Language Models Are Unsupervised Multitask Learners,” OpenAI (2019): 9; and T.B. Brown, B. Mann, N. Ryder, et al., “Language Models Are Few‑Shot Learners,” arXiv, June 5, 2020, https://arxiv.org.
A. Agrawal, J. Gans i A. Goldfarb, “Prediction Machines: The Simple Economics of Artificial Intelligence” (Boston: Harvard Business Review Press, 2018).
C. Cornwell, I.M. Schmutte iD. Scur, “Building a Productive Workforce: The Role of Structured Management Practices,” discussion paper no. 1644, Centre for Economic Performance, London, August 2019.
P. Tambe, “Big Data Investment, Skills, and Firm Value,” Management Science 60, no. 6 (June 2014): 1452‑1469.
E. Brynjolfsson, D. Rock i C. Syverson, “The Productivity J‑Curve: How Intangibles Complement General Purpose Technologies,” American Economic Journal: Macroeconomics, (publikacja wkrótce).
D. Rock, “Engineering Value: The Returns to Technological Talent and Investments in Artificial Intelligence,” nieopublikowany szkic roboczy, MIT Sloan School of Management, Cambridge, Massachusetts, May 2019.
S. Helper, R. Martins, and R. Seamans, “Who Profits From Industry 4.0? Theory and Evidence From the Automotive Industry,” NYU Stern School of Business, New York, Jan. 31, 2019.
A. Goldfarb, B. Taska, and F. Teodoridis, “Artificial Intelligence in Health Care? Evidence From Online Job Postings,” AEA Papers and Proceedings 110 (May 2020): 400‑404.
E. Brynjolfsson, T. Mitchell, and D. Rock, “What Can Machines Learn, and What Does It Mean for Occupations and the Economy?” AEA Papers and Proceedings 108 (May 2018): 43‑47; E.W. Felten, M. Raj, and R. Seamans, “A Method to Link Advances in Artificial Intelligence to Occupational Abilities,” AEA Papers and Proceedings 108 (May 2018): 54‑57; and M. Webb, “The Impact of Artificial Intelligence on the Labor Market,” nieopublikowany szkic roboczy, Stanford University, Stanford, California, January 2020.
B. Cowgill and C.E. Tucker, “Algorithmic Fairness and Economics,” Journal of Economic Perspectives, forthcoming; and A. Lambrecht and C. Tucker, “Algorithmic Bias? An Empirical Study of Apparent Gender‑Based Discrimination in the Display of STEM Career Ads,” Management Science 65, no. 7 (July 2019): 2966‑2981.