Postępująca cyfryzacja i związany z nią wysyp innowacyjnych produktów czy usług spowodowały, że analityka przestała być postrzegana wyłącznie jako pożyteczne narzędzie wspierające innowacje. Stała się główną siłą napędową gospodarki. Analityka wyznacza dziś nowe trendy: technologiczne, organizacyjne i kulturowe.
Trendy technologiczne
Gospodarka cyfrowa sprawia, że dominujące tendencje w technologii są bezpośrednio powiązane z kreatywnym wykorzystaniem danych. Trzy najważniejsze z nich to powszechna łączność między ludźmi i obiektami (internet rzeczy), zwinność i adaptowalność rozwiązań, przejawiająca się w wykorzystaniu sztucznej inteligencji oraz automatyzacja, wynikająca z wykorzystywania algorytmów uczenia maszynowego. Wszystkie te tendencje są napędzane potrzebami gospodarki cyfrowej i w bardzo dużym stopniu zależą od danych. Jednak dane to tylko surowiec, paliwo, natomiast silnikiem jest analityka. Dane bez analityki to wartość potencjalna, jeszcze niezrealizowana. Żyjemy zatem w gospodarce analitycznej. Wartość dodana jest generowana poprzez przetwarzanie danych w silniku analitycznym. To pozwala na odnalezienie rzeczywistej wartości danych: drzemiących w nich relacji, powiązań i koincydencji zdarzeń.
Z punktu widzenia technologicznych trendów w gospodarce analitycznej pojawił się nowy punkt widzenia. Analityka stała się obecnie motorem rozwoju technologii. Stosowane dzisiaj algorytmy znamy od lat sześćdziesiątych, ale przez dziesięciolecia podejście do analiz było uzależnione od postępów w dziedzinie informatyki. Gdy pojawiły się procesory wielordzeniowe, ponownie przeanalizowano i przepisano algorytmy, aby wykorzystać zalety obliczeń wielowątkowych. W chwili pojawienia się tanich serwerów typu commodity możliwe okazało się zbudowanie wielkich klastrów, co zaowocowało kolejnym przepisaniem algorytmów, aby działały na wielu maszynach. Skokowy wzrost mocy obliczeniowej procesorów graficznych sprawił, że powstaje obecnie nowa generacja algorytmów analitycznych przystosowanych do uruchamiania na GPU (procesorach graficznych projektowanych do wykonywania wielowątkowo dużych wolumenów prostych operacji). Jednocześnie obserwujemy fundamentalną zmianę, odwrócenie relacji. Generowane przez gospodarkę cyfrową zapotrzebowanie na nowe typy analiz powoduje, że zaczynamy analizować możliwe paradygmaty, projektować nowe architektury komputerowe i platformy obliczeniowe, zoptymalizowane z punktu widzenia ich użyteczności i możliwości obliczeniowych.
Analityka zaczyna napędzać technologię, tak aby jak najlepiej wspierała główne trendy gospodarki cyfrowej: łączność, zwinność i adaptowalność oraz automatyzację. Wprawdzie systemy dla inteligentnych fabryk, miast, samochodów i domów nie są inteligentne w taki sam sposób jak ludzie, ale oczekujemy, że będą w czasie rzeczywistym uczyć się ze swojego doświadczenia i dostosowywać się do otoczenia. Oznacza to, że muszą odbierać bodźce ze środowiska, wchodzić w interakcje i adekwatnie reagować. Pomimo użycia algorytmów sieci neuronowych systemy te nie działają i nie będą działać jak ludzki mózg, jednak to właśnie biologia powinna nas inspirować. Procesy kognitywne zachodzą w mózgu tam, gdzie są przechowywane informacje. To niezwykle istotna obserwacja: najefektywniejszym paradygmatem jest przeniesienie algorytmów analitycznych do miejsca, w którym powstają i znajdują się dane. Jeśli chcemy przejść od internetu rzeczy do inteligencji rzeczy, potrzebujemy nowych paradygmatów obliczeniowych, dzięki którym uczenie maszynowe będzie zachodzić w połączonych w sieć urządzeniach peryferyjnych, przy niskim zużyciu energii i pasma komunikacyjnego.
Istnieje już wiele przykładów zdecentralizowanego, rozproszonego, analitycznego przetwarzania danych: układy scalone specyficzne dla aplikacji, układy FPGA, układy wykorzystujące GPU. Projektowane są specjalne chipy AI, przeznaczone do wykorzystania w smartfonach czy pojazdach. Analityka rozproszona jest bezpośrednią konsekwencją palących potrzeb gospodarki cyfrowej.
Inteligencja rzeczy (w odróżnieniu od internetu rzeczy) powoli staje się rzeczywistością. W miarę jak firmy zaczynają stosować analitykę do swoich danych strumieniowych, rośnie świadomość możliwości, jakie drzemią w IoT. Coraz częściej słyszymy, że zyski z nowych wdrożeń przekraczają najśmielsze oczekiwania.

Dużą część tych sukcesów zawdzięczamy organizacjom, które poważnie podeszły do tematu internetu rzeczy i stworzyły infrastrukturę zaprojektowaną dla aplikacji IoT. Wiele firm dostrzegło, że największą korzyść przynoszą zintegrowane platformy do obsługi pełnego cyklu życia IoT: zarządzania danymi, odpowiedniej analityki i wsparcia operacyjnych decyzji. Procesy pozyskiwania i przechowywania danych są ważne, ale ich wartość pochodzi z analitycznego wglądu w te dane i jego operacjonalizacji. Każde kompletne rozwiązanie IoT musi zapewniać środowisko do analizy eksploracyjnej danych, jednak dopiero wykorzystanie modeli matematycznych w elementach operacyjnych generuje wymierną wartość.
Przemysł wytwórczy, szczególnie obiekty o dużej zdolności wytwórczej, wykorzystuje dane z czujników i zaawansowane analizy w celu zwiększenia wydajności. Wczesna identyfikacja zróżnicowania procesu lub produktu pozwala na wczesną korektę, co skutkuje zmniejszeniem defektów i zwiększoną wydajnością. Procesy, które wymagają stałego monitorowania szybkozmiennych parametrów, takich jak temperatura, ciśnienie czy lepkość, lub wymagają precyzyjnego rozmieszczenia montowanych komponentów, przetwarzają dane z gęsto rozmieszczonych czujników w czasie rzeczywistym.
Firmy energetyczne, poza normalnym raportowaniem operacyjnym, coraz częściej wykorzystują mierniki PMU (Phasor Measurement Unit). Początkowo dane PMU były wykorzystywane do wizualizacji i raportowania parametrów prądu, takich jak napięcie czy natężenie. Nowe możliwości dostępne dzięki analizie strumieniowej pozwalają na wykorzystanie tych danych do identyfikacji zdarzeń zachodzących w oddalonych elementach sieci energetycznej. Reakcja operatora sieci na uderzenie pioruna jest zupełnie inna niż na awarię transformatora. Rozpoznanie różnicy w czasie zbliżonym do rzeczywistego ma kluczowe znaczenie dla wyboru i wdrożenia odpowiedniego działania naprawczego. Dane IoT pomagają szybko dokonać tego ustalenia.
Ten tekst jest częścią projektu How to do IT. To twój sprawdzony przewodnik po cyfrowej transformacji i technologiach dla biznesu. Zapisz się na newsletter projektu!
Beneficjentem rozwoju technologii i możliwości analitycznych są także gałęzie gospodarki ukierunkowane na sprzedaż produktów i świadczenie usług masowemu odbiorcy. Dziś rozwój tych branż jest w coraz większym stopniu uzależniony od umiejętnego przetwarzania danych, również w czasie rzeczywistym. W zarządzaniu relacjami z klientem detalicznym, w analizie ryzyka nieprawidłowości i nadużyć, w optymalizacji sieci dystrybucyjnych czy zarządzaniu ryzykiem finansowym dane i analityka pełnią kluczową rolę.
To właśnie dzięki analityce można skutecznie budować przewagę konkurencyjną. Rozwój technologii informatycznych pozwala efektywniej wymieniać się danymi, a czynniki kulturowe wręcz stymulują wzrost ich podaży. Z roku na rok obserwujemy pojawiające się zupełnie nowe źródła informacji o zachowaniach konsumentów czy postępach w realizacji procesów biznesowych. Zdarzenia możemy analizować już w momencie ich wystąpienia, a nie po ich zakończeniu i zarejestrowaniu. Oprócz wcześniej wymienionych to najważniejszy obecnie trend technologiczny. Najlepszym przykładem jego zastosowania jest proaktywne zapobieganie rezygnacji z usług, np. telekomunikacyjnych czy bankowych. Jeszcze do niedawna dominowały modele predykcyjne wykorzystujące algorytmy uczenia maszynowego wyliczające prawdopodobieństwo zdarzenia, obecnie coraz częściej używa się algorytmów wykrywających anomalie i generujących alerty w czasie rzeczywistym. Podobna zasada działania cechuje algorytmy monitorujące poziom bezpieczeństwa transakcji bankowych online czy też algorytmy rekomendujące produkty w sklepach internetowych na podstawie aktualnej sekwencji kroków klienta.
Zawody i specjalizacje powstałe dzięki AI
TRENERZY | |
Trener znaczenia ludzkiego języka | Uczy systemy AI, aby wykraczały poza dosłowne znaczenie komunikacji, na przykład poprzez wykrywanie sarkazmu |
Projektant interakcji inteligentnych maszyn | Modeluje zachowanie maszyny na podstawie zachowania pracownika, aby na przykład system sztucznej inteligencji mógł uczyć się z działania księgowego, jak automatycznie dopasowywać płatności do faktur |
Trener światopoglądowy | Trenuje systemy AI rozumienia globalnej perspektywy, tak aby różne perspektywy kulturowe były brane pod uwagę przy ustalaniu na przykład, czy algorytm jest „fair” |
INTERPRETATORZY | |
Projektant kontekstowy | Projektuje inteligentne decyzje na podstawie kontekstu biznesowego, zadań procesowych oraz czynników indywidualnych, zawodowych i kulturowych |
Analityk przejrzystości | Klasyfikuje różne typy nieprzejrzystości używanych algorytmów sztucznej inteligencji (i odpowiadające im skutki dla działalności firmy) oraz tworzy ich bibliotekę |
Strateg przydatności AI | Określa, czy wdrożyć sztuczną inteligencję (w porównaniu z tradycyjnymi mechanizmami regułowymi lub skryptowymi) dla konkretnych zadań i procesów |
EWALUATORZY | |
Etyk automatyzacji | Ocenia nieekonomiczny wpływ inteligentnych maszyn, zarówno na plus, jak i na minus |
Ekonomista automatyzacji | Ocenia potencjalny koszt niskiej wydajności maszyny |
Menedżer ds. relacji z maszynami | Promuje algorytmy, które działają dobrze na większą skalę w biznesie kosztem algorytmów o słabej wydajności |
Źródło: H. James Wilson, Paul R. Daugherty, and Nicola Morini‑Bianzino, The Jobs That Artificial Intelligence Will Create, „MIT Sloan Management Review”, March 2017 |
Trendy organizacyjne i kulturowe
Automatyzacja i rozszerzanie funkcjonalności procesów biznesowych nieodmiennie kojarzy się z zastępowaniem ludzi przez maszyny, co ma nieuchronnie prowadzić do ograniczania zatrudnienia. Temu stereotypowi przyjrzał się „MIT Sloan Management Review” w ramach siódmej już edycji badania Analityka jako źródło innowacji w biznesie1, w ramach którego przebadano ponad 2500 respondentów z całego świata. Grupa pytań dotyczyła podejścia firm do automatyzacji i rozszerzenia funkcjonalności procesów biznesowych wynikających z zastosowania analityki oraz związanych z tym wniosków i obserwacji.
Okazało się, że podczas gdy znaczna część firm automatyzuje (36%) lub rozszerza funkcjonalność (41%) procesów biznesowych z wykorzystaniem analityki, to jednocześnie 34% z nich obserwuje pojawianie się nowych zadań dla pracowników wynikających z zastosowania analityki, a 16% przyznało, że odnotowało przypadki przypisywania ludziom zadań wcześniej zautomatyzowanych. W raporcie respondentów podzielono na trzy grupy: innowatorów – firmy o silnej kulturze analitycznej, w których podejmuje się decyzje głównie na podstawie danych; praktyków – grupa użytkowników analityki, wykorzystujących ją głównie do poprawy efektywności operacyjnej, rzadziej do tworzenia innowacyjnych rozwiązań; oraz początkujących – rozpoczynających przygodę z analityką, podejmujących większość decyzji na podstawie intuicji menedżerskiej. Jeśli przyjąć, że innowatorzy wcześniej byli na etapie praktyków, a jeszcze wcześniej początkujących, to interpretacja wykresu na poprzedniej stronie będzie łatwiejsza. Wraz z rosnącym doświadczeniem i stopniem wykorzystania analityki w firmie coraz więcej procesów jest automatyzowanych i wzbogacanych. Pracownicy – uwolnieni od rutynowych, powtarzalnych czynności – mogą zająć się nowymi, twórczymi wyzwaniami.
Z badania Accenture opublikowanego w „MIT Sloan Management Review”2 wyłania się ciekawy pejzaż typów zadań wynikających z interakcji człowieka z inteligentną maszyną. Pojawiają się nowe zawody i specjalizacje, takie jak trenerzy – uczący maszyny lepszego rozumienia kontekstu i specyfiki poszczególnych zadań; interpretatorzy – wyjaśniający wyniki działania maszyn z ludzkiej i biznesowej perspektywy; czy ewaluatorzy – optymalizujący działanie maszyn.
Wiele z tych nowych wyzwań wymaga współpracy, która często zmusza do niestandardowego myślenia i współdziałania w poprzek silosów organizacyjnych, a także w szerszym ekosystemie cyfrowym, obejmującym partnerów, klientów, a w niektórych przypadkach nawet konkurentów. W tym samym badaniu „MIT Sloan Management Review” respondenci wykazujący dużą zdolność do innowacji (ci, którzy w pewnym stopniu lub zdecydowanie zgadzają się, że analityka pomaga im wprowadzać innowacje) udostępniają dane zarówno wewnętrznie, jak i poza granicami firmy znacznie częściej niż inne organizacje: 80% tych przedsiębiorstw deklaruje, że wewnętrznie udostępnia dane, w porównaniu z 53% deklaracji pozostałych respondentów.

Współpraca wewnątrz firmy i udostępnianie danych wymaga wizji i koordynacji, zwłaszcza w większych, złożonych organizacjach. Należy pamiętać, iż nadrzędnym celem jest wykorzystanie danych i analityki jako dźwigni innowacyjności, wykraczającej poza codzienny biznes. Tutaj coraz bardziej popularna i znacząca staje się rola CAO (Chief Analytics Officer). Istnieje wiele nazw dla tej funkcji, począwszy od dyrektora analityki, jednak CAO podkreśla znaczenie, jakie firma przywiązuje do analityki. Pozycja CAO nazywana jest ostatnim wielkim „C”, po takich funkcjach, jak Chief Digital Officer i Chief Data Officer (CDO). Różnice między tym ostatnim a CAO wynikają głównie z nieco odmiennych priorytetów: podczas gdy CDO koncentruje się głównie na zarządzaniu danymi, tak strategicznie, jak i operacyjnie, ich jakości i dostępności, to CAO koncentruje się głównie na potrzebach biznesowych i sposobach ich zaspokojenia przy użyciu danych i analityki. CAO rozumie dogłębnie biznes, zna nowoczesne metody analityczne i sposoby ich wykorzystania. CAO jest właścicielem strategii firmy w obszarze wykorzystania i rozwoju analityki, a także apostołem analitycznej kultury organizacyjnej nastawionej na innowacyjność3. Bez klarownej strategii popartej bieżącym zainteresowaniem i konkretnymi zachętami ze strony decydentów trudno mówić o transformacji firmy w kierunku gospodarki cyfrowej i analitycznej. Chief Analytics Officer i jego zespół są gwarantami, że podjęte strategiczne decyzje będą na bieżąco wprowadzane w życie. Doskonałą ilustracją skuteczności takiego podejścia jest przykład wielkiej meksykańskiej grupy finansowej Gruppo Financiero Norte4. Kluczem do długofalowego sukcesu okazało się utrzymanie i podsycanie zainteresowania zarządu grupy poczynaniami działu analitycznego – Central Analytics Business Unit – kierowanego przez CAO. Skuteczną metodą okazało się przyjęcie odpowiedzialności za efekty finansowe zastosowania analityki oraz ich konsekwentne i rzetelne rozliczanie, począwszy od prostych, szybkich projektów, a skończywszy na długotrwałych, wieloletnich programach. Największą zasługą CAO, oprócz bieżącej komunikacji z zarządem grupy, był staranny dobór członków zespołu, których oprócz silnych kompetencji technicznych cechowały umiejętności negocjacyjne i dyplomacja, umiejętność komunikacji z odbiorcami biznesowymi oraz przedsiębiorczość. To gotowy przepis na idealnego pracownika w czasach gospodarki analitycznej.
(1) S. Ransbotham, D. Kiron, Analytics as a Source of Business Innovation, „MIT Sloan Management Review”, February 2017
(2) James Wilson, Paul R. Daugherty, Nicola Morini‑Bianzino, The Jobs That Artificial Intelligence Will Create, „MIT Sloan Management Review”, March 23, 2017
(3) Lisa Morgan What A Chief Analytics Officer Really Does, „InformationWeek”, 02/2017
(4) Jose A. Murillo Yuri Levin Mikhail Nediak Ivan A. Sergienko How One Company Made Its Analytics Investment Pay Off, „Harvard Business Review”, January 2018
Przeczytaj komentarze ekspertów »
Jak unikać błędów przy robotyzacji
Robotyzacja i automatyzacja procesów produkcyjnych to naturalny etap przygotowania przedsiębiorstwa do przemysłu 4.0.
Zanim rozpocznie się wdrożenie
Nim jeszcze firma zdecyduje się na transformację technologiczną, powinna włączyć IT w proces podejmowania kluczowych decyzji w przedsiębiorstwie.
Informacja zarządcza w MŚP – niewykorzystany potencjał
Poznaj rozwiązania Business Intelligence, które pozwalają małym i średnim przedsiębiorstwom generować profesjonalne raporty bez potrzeby angażowania zewnętrznych firm eksperckich.
Marketing, sprzedaż i obsługa klienta nastawione na dane
25 maja zaczną obowiązywać nowe przepisy o ochronie danych osobowych. Większość firm wciąż nie dostosowała swojej działalności do wymagań prawnych. Czy firmy stać na takie ryzyko?