Firmy wracają do wykorzystywania uczenia maszynowego i analityki, zdestabilizowanych przez globalną pandemię.
Ekonomiczny wpływ COVID‑19 jest bezprecedensowy, dramatycznie zmieniając rynki oraz perspektywy wzrostu gospodarczego. Transport, przetwórstwo żywności, handel detaliczny, handel elektroniczny oraz wiele innych branż musiało dokonać transformacji z dnia na dzień. Bezrobocie w Stanach Zjednoczonych osiągnęło poziom nieznany, odkąd sięgamy pamięcią, a PKB ma spaść na całym świecie. Jak sytuację podsumowało jedno z pism ekonomicznych: „Dzisiaj prawie wszystko na świecie jest superdziwne i zdestabilizowane”.
Dane, które wykorzystujemy do podejmowania decyzji zarządczych, dopadła i wywróciła do góry nogami obecna sytuacja na nieprzewidywalnym rynku. I nie jest to trywialna sprawa: w ciągu ostatniego dziesięciolecia obserwowaliśmy zwrot w stronę procesu decyzyjnego opartego na danych, spowodowanego m.in. lawinowym wzrostem dostępnych źródeł danych. Dane z punktów sprzedaży, Internetu rzeczy, dane z telefonów komórkowych, dane tekstowe z portali społecznościowych, dane głosowe i wideo – wszystkie są automatycznie zbierane i raportowane. W połączeniu z postępem w zakresie uczenia maszynowego oraz sztucznej inteligencji umożliwiły one liderom i organizacjom stosowanie zaawansowanej analityki danych do podejmowania bardziej świadomych decyzji.
Ale globalna pandemia spowodowała zmiany, które dotyczą także danych. Modele uczenia maszynowego przewidują przyszłość na podstawie informacji z przeszłości, ale żadna niedawna przeszłość nie przypomina teraźniejszości.
Aby lepiej zrozumieć wpływ obecnej sytuacji na analitykę danych, zwróciliśmy się do wielu dyrektorów i analityków. Zapytaliśmy ich, czego doświadczyli w ostatnich miesiącach oraz jak planują dostosować i wdrożyć na nowo modele uczenia maszynowego, a także o to, jak organizacje radzą sobie w nowym otoczeniu ekonomicznym.

Dzisiaj prawie wszystko na świecie jest superdziwne i zdestabilizowane. Również dane
Zwrot w stronę analityki deskryptywnej krótkich cykli ekonomicznych
Każdy menedżer analityki, z jakim rozmawialiśmy, opisywał tę samą podstawową reakcję pojawiającą się, gdy pandemia zaczęła destabilizować ich działalność: niezależnie od tego, czy pandemia spowodowała gwałtowny spadek popytu na produkty lub usługi ich firmy (jak to było na przykład w przypadku ubrań) czy też dramatyczny wzrost takiego popytu (jak to było w przypadku papieru toaletowego), miało miejsce nieomal natychmiastowe odejście od bardziej zaawansowanej analityki skoncentrowanej na przewidywaniu i optymalizacji w stronę analityki deskryptywnej (opisowej), takiej jak raporty i wizualizacja danych. Analityka deskryptywna pomogła firmom lepiej zrozumieć, co się dzieje.
Z powodu zmienności sytuacji wszystkie cykle raportowania uległy gwałtownemu skróceniu. Wzrosło za to zapotrzebowanie na tablice wskaźników podawanych w czasie rzeczywistym. Jak to opisał pewien menedżer z globalnej firmy oferującej dobra konsumpcyjne: „Nie przejmowaliśmy się szczegółowymi prognozami; staraliśmy się jedynie właściwie dopasować dystrybucję”.
Potwierdza to Dan Rogers, dyrektor ds. analizy danych i działań operacyjnych w 84.51°, firmie zajmującej się analityką marketingową, a należącą do Kroger Company – właściciela największej sieci supermarketów w USA. „Początkowo mnóstwo zasobów zaangażowaliśmy w raportowanie deskryptywne, próbując zrozumieć, co się dzieje i jaki jest wpływ pandemii na naszą firmę – powiedział. – Całe zespoły wyznaczono do tego zadania; wykonywały one w większości te same zadania analityczne co wcześniej, ale w przyspieszonym tempie. Wymagaliśmy, aby raporty miesięczne czy kwartalne zostały zastąpione przez raporty tworzone w cyklach tygodniowych, a nawet dziennych”. Jego zespoły wprowadziły też pewne ograniczone działania w obszarze modelownia deskryptywnego, aby określić wpływ pandemii. „Ta praca zmieniła się w modelowanie predykcyjne umożliwiające prognozowanie na bieżąco wpływu pandemii oraz lepsze zrozumienie nowej normalności, w jakiej się znaleźliśmy”.
W niektórych firmach zespoły zajmujące się analityką danych poproszono o skupienie się na konkretnych problemach biznesowych. Kadra kierownicza producenta samochodów, firmy Ford, była w mniejszym stopniu zainteresowana powszechnie tworzonymi raportami i analityką tablic wskaźników podczas pandemii, twierdzi Craig Brabec, dyrektor firmy zajmujący się globalną analityką danych. Zamiast tego zamawiała spersonalizowane analizy dotyczące konkretnej sytuacji (na przykład zakres opóźnień działania kolei w meksykańskim porcie Veracruz) oraz sięgała do nowych źródeł danych.
Analityka predykcyjna oraz zautomatyzowane uczenie maszynowe schodzą na boczny tor
Nawet w normalnych czasach prognozowanie popytu należy do najtrudniejszych wyzwań stojących przed analitykami danych. Zmieniający się popyt konsumencki, płynne warunki rynkowe oraz ruchy konkurencji – wszystko to sprawia, że przewidywanie popytu to metoda prób i błędów. Gdy atakuje pandemia, strukturalne zmiany w zakresie popytu mają katastrofalne skutki dla modeli uczenia maszynowego, które zbyt wolno dostosowują się do przetwarzania odbiegających od normy danych. Jak zażartował pewien menedżer: „Nasze zautomatyzowane modele uczenia maszynowego zajmujące się prognozowaniem popytu nie poradziły sobie zbyt dobrze z ośmioma tygodniami zer”. Gdy firmy przesunęły punkt ciężkości na analitykę deskryptywną, aby zrozumieć zmiany trendów, wstrzymały jednocześnie działanie swoich modeli uczenia maszynowego, zajmujących się prognozowaniem popytu. Zaczęły polegać na prostych podejściach prognostycznych, takich jak zadawanie pytań w stylu: „Co wysłaliśmy wczoraj?”, bądź wykorzystywaniu modeli uśredniania danych rozłożonych w czasie, np. obliczania średniej ruchomej przy jednoczesnym uważnym śledzeniu danych popytowych, by sprawdzić, czy pojawiają się nowe prawidłowości.
W przypadku zautomatyzowanego uczenia maszynowego wiele firm pozwala na dalsze działanie swoich modeli, wykorzystując pandemię jako wyjątkową okazję do uczenia się. Ściśle monitorując to, jak owe modele dostosowują się do odbiegających od normy danych, analitycy danych mogli lepiej zrozumieć ich solidność (lub jej brak). Lydia Hassell, pracująca dla producenta ubrań, firmy Hanesbrands, nadzoruje ponad 100 000 modeli uczenia maszynowego, służącego do przewidywania popytu. Twierdzi, że wykorzystuje częstsze cykle raportów niezgodności uczenia maszynowego. „Te raporty rozbieżności dostarczają szczegółów odchyleń od modeli uczenia maszynowego – wyjaśniła. – O ile zazwyczaj sporządzamy takie raporty raz w miesiącu, teraz zaczęliśmy to robić co tydzień, a nawet częściej, aby lepiej monitorować, co się dzieje z modelami uczenia maszynowego”. Hassel natychmiast zaczęła więc wykorzystywać te raporty do aktualizowania i testowania nowych modeli, których zadaniem będzie prognozowanie popytu w 2021 roku.
Niektóre firmy sięgają po nowe zewnętrzne źródła danych, aby spróbować przewidzieć popyt. Brabec z firmy Ford twierdzi, że aby zrozumieć i przewidzieć popyt konsumencki, analitycy zaczęli stosować agregowane dane o podróżach pojazdów połączonych w sieć. Pokazują one wzrost czy spadek zainteresowania wykorzystaniem samochodów w skali kraju, a także poziomy zanieczyszczenia powietrza oraz dane dotyczące wyszukiwania samochodów w internecie. „Niektóre z tych danych mogą nie stanowić wiodących wskaźników sprzedaży samochodów – powiedział – ale wydaje się, że przynajmniej sprzedaż samochodów zmienia się wraz z tymi danymi, które sugerują, że rynek się otwiera”.
Inne firmy, którym brakuje istotnych danych do stosowanych przez nie modeli, po prostu zmieniają swoją politykę na bardziej konserwatywną. To dotyczy szczególnie modeli ryzyka kredytowego. Na przykład wiele banków zwiększyło znacznie wymogi w zakresie oceny zdolności kredytowej: na przykład bank JPMorgan Chase podniósł wymaganą punktację oceny zdolności kredytowej dla nowych i refinansowanych hipotek do 700, a minimalny wkład własny do 20%. Pewien członek kadry kierowniczej firmy zajmujący się analityką powiedział nam, co następuje w odniesieniu do modeli kredytowych banku: „Osoby mające punktację 800 i wyższą są OK; inni na realizacji takiej polityki tracą. Tworzymy modele naszych klientów dokładnie tak jak przed erą COVID‑19, po czym dodajemy dodatkowy czynnik ryzyka”.

W przypadku zautomatyzowanego uczenia maszynowego wiele firm pozwala na dalsze działanie swoich modeli, wykorzystując pandemię jako wyjątkową okazję do uczenia się
Następne kroki do restartu
Jak będziemy dalej postępować w kwestii analityki predykcyjnej i uczenia maszynowego, zważywszy na obserwowaną obecnie destabilizację danych? Jaka będzie nowa normalność danych i ile nam zajmie dojście do tej normalności? Na podstawie naszych rozmów z dyrektorami ds. analityki danych sugerujemy rozważenie następujących elementów strategii na bliską i dalszą przyszłość:
Należy rozważyć, na ile ważne są dane – co należy usunąć, co zachować, co przypisać. Czy odbiegające od normy dane z czasów pandemii należy usunąć? Czy należy je zastąpić danymi przypisanymi na podstawie danych sprzed pandemii COVID‑19? Czy dane sprzed COVID‑19 mają w ogóle jakiekolwiek znaczenie na przyszłość? Odpowiedź na te pytania będzie z pewnością zależeć od sektora. Użycie średnich ruchomych – w ramach których wyliczasz średnią podzestawu danych dla zrównoważenia przypadkowych odchyleń – oraz innych technik wygładzania prognostycznego było wskazywane przez szereg menedżerów od analityki jako sposób na dokonanie wyboru proporcji wykorzystania danych sprzed i po pandemii.
Wykorzystaj dane zewnętrzne w większym stopniu. Próby modelowania zdarzeń o niskim prawdopodobieństwie, a przy tym wysoce destabilizujących, będą wymagały zwiększenia ilości danych zewnętrznych wykorzystywanych do lepszego uwzględnienia tego, jak świat się zmienia. Właściwe dane zewnętrzne mogłyby zapewnić wcześniejsze ostrzeganie, niż to jest w przypadku danych wewnętrznych. Jeden z dyrektorów, którego firma wykorzystuje dane z Uniwersytetu Johnsa Hopkinsa na temat COVID‑19, stwierdził, że nową miarą efektywności może być wzięcie pod uwagę tego, jak szybko dane zewnętrzne można zintegrować z istniejącymi systemami dla wykorzystania w modelach analitycznych.
Zwiększ znaczenie audytu modeli i stres testów. Wielu liderów analityki wspomniało potrzebę uważnego przyglądania się swoim modelom uczenia maszynowego i modelom preskryptywnym. Powiedzieli, że planują częstsze audyty danych wsadowych, założeń modeli oraz wyników modeli. Jak modele zareagują na popyt zerowy, popyt dziesięciokrotnie zwiększony czy takie anomalie jak ujemna cena ropy naftowej? Techniki opracowane dla kontroli jakości w inżynierii przemysłowej, takie jak limity kontrolne i próbkowanie odbioru, muszą zostać zastosowane do uczenia maszynowego, aby zagwarantować, że modele są pod kontrolą.
Zbuduj portfolio wyspecjalizowanych modeli. Pewien menedżer firmy zajmującej się dobrami konsumpcyjnymi wspomniał, że gdy zespół zajmujący się danymi w jego firmie lepiej zrozumiał, co się dzieje w związku z pandemią, zaczął stosować modele stworzone do przewidywania rozprzestrzeniania się huraganów. Rozważ planowanie scenariusza i tworzenie symulacji dla zbudowania wyspecjalizowanych modeli, które w razie potrzeby można „zdjąć z półki i użyć”. Czego się nauczyłeś od chwili wybuchu epidemii COVID‑19, a co z tego mógłbyś wykorzystać, jeśli następnej zimy pojawi się druga i być może gorsza fala zakażeń?
Każdy, z kim rozmawialiśmy, wspominał skrócone czasy cykli dla opracowania i wdrożenia modeli. Pewien człowiek powiedział nam, że nowa normalność w obszarze analityki danych będzie „w całości dotyczyć elastyczności i szybkości”. Zdolność do szybkiego tworzenia spersonalizowanych modeli adaptacyjnych będzie kluczowym czynnikiem przesądzającym o sukcesie: to świat odmienny od świata względnie stabilnych danych i analityki z przeszłości. Jak to skomentował pewien dyrektor zajmujący się analityką: „Lepiej przywyknijmy do tego, że przez jakiś czas będziemy musieli działać na podstawie złych danych”.