Reklama
OFERTA SPECJALNA na NAJWYŻSZY pakiet subskrypcji! Wersję Platinum - OFERTA LIMITOWANA
Analityka i Business Intelligence

Różne oblicza analityki w czasie rzeczywistym

1 października 2016 24 min czytania
Alicja Wiecka
Różne oblicza analityki w czasie rzeczywistym

Najbardziej spektakularnym efektem powszechnej cyfryzacji wydaje się niespotykany w historii wysyp nowych, wyrafinowanych produktów i usług. Codziennie pojawiają się ich setki, jeśli nie tysiące, a te najbardziej złożone opierają się nie tylko na interfejsach typu użytkownik‑urządzenie, ale wykorzystują także coraz bardziej złożoną komunikację między samymi urządzeniami.

Według autorów raportu Industrial Internet of Things: Unleashing the Potential of Connected Products and Services (World Economic Forum 2015), rynek znajduje się właśnie w okresie przejściowym między fazą „Nowe produkty i usługi” (New Products & Services) i fazą „Biznes oparty na wynikach” (Outcome Economy). Powszechna absorbcja tej ostatniej jest kwestią najbliższych 2–3 lat (zobacz ramkę Ścieżka adaptacji i oddziaływania przemysłowego Internetu).

Nadchodząca faza jest efektem wykorzystania dwóch atrybutów cyfrowej rzeczywistości: łatwości łączenia i konfiguracji elementów składowych ekosystemu („dzięki połączeniu usługi X z usługą Y otrzymamy innowacyjną usługę Z”) oraz dostępności analityki big data („z analizy wynika, że część klientów korzysta inaczej z produktu A, stwórzmy zatem dla nich specjalny produkt A1”). We wkraczającej właśnie do głównego nurtu fazie „Biznes oparty na wynikach” produkty i usługi o statycznej charakterystyce, nawet bardzo atrakcyjnej i innowacyjnej, będą z czasem przegrywały wyścig z produktami i usługami dynamicznie dopasowującymi się do kontekstu ich użycia. Ta faza to przyspieszenie powstawania różnych cyfrowych ekosystemów, w których główną cechą produktów i usług jest możliwość stałej wymiany informacji w sieci łączącej ludzi, urządzenia i organizacje. Według autorów raportu, kluczową wartością dodaną jest zdolność do automatyzacji decyzji i podejmowania stosownych działań w czasie rzeczywistym. W tym świecie człowiek projektuje ekosystem, który następnie zaczyna działać autonomicznie. Połączone urządzenia stale komunikują się ze sobą, a człowiek jest jedynie informowany o podejmowanych decyzjach. W przypadku prostszych ekosystemów można oprzeć się na statycznych regułach decyzyjnych, natomiast ekosystemy nowej generacji wymagają zaawansowanych modeli analitycznych i metod sztucznej inteligencji wykorzystywanych w czasie rzeczywistym.

Czym jest analityka w czasie rzeczywistym

Jest to proces analityczny odbywający się w tym samym czasie co badane zjawisko. Tak właśnie działamy na co dzień i większość decyzji podejmujemy w czasie rzeczywistym na podstawie mniej lub bardziej zautomatyzowanej analizy otaczającego nas świata. Kiedy dzwoni telefon i rozmówca oferuje nam sprzedaż polisy ubezpieczeniowej, już w trakcie rozmowy analizujemy całą sytuację: czy mamy podobną polisę, kiedy kończy się jej ważność, jaka jest różnica w cenie itd. Nawet jeśli zakończymy rozmowę lub poprosimy o przesłanie oferty e‑mailem, to i tak przeanalizowaliśmy sytuację i podjęliśmy decyzję w czasie rzeczywistym. Kiedy analizujemy w domu przesłaną nam ofertę, podejmujemy decyzję z odroczonym działaniem: ewentualny zakup dokona się dużo później niż moment podjęcia decyzji.

W tradycyjnej analityce przeważają decyzje z odroczonym działaniem: konieczne jest zebranie i usystematyzowanie danych, a następnie ich analiza i interpretacja. Dane są gromadzone i przetwarzane w zdefiniowanych interwałach czasowych – raz dziennie lub co godzinę – a działania podjęte na podstawie ich analizy są wykonywane z podobnym opóźnieniem. Jednak w sytuacji, z którą mamy do czynienia coraz częściej, gdy możliwości techniczne pozwalają na gromadzenie praktycznie dowolnej ilości danych w sposób ciągły, nie musimy już czekać z ich analizą i wyciągnięciem wniosków. Jeśli jednak analiza i interpretacja mają się wydarzyć natychmiast, konieczna jest zmiana dotychczasowego paradygmatu. Dane, owszem, są gromadzone, ale tylko w celu wykrycia ogólnych prawidłowości i wzorców. Na ich podstawie tworzy się modele analityczne, które następnie są umieszczane w strumieniu danych. Mówiąc obrazowo, najpierw budujemy tamę i sprawdzamy, jakie ryby żyją w rzece, konstruujemy haczyki i podbieraki, ale sam połów odbywa się w bieżącej wodzie. Decyzje, czy rybę należy wypuścić, czy odłowić, podejmowane są dynamicznie i kontekstowo.

Analizy strumieniowe możemy podzielić na trzy typy. Różnią się one umiejscowieniem danych, które są przetwarzane:

  • na krawędzi (edge analytics) – dane analizowane w urządzeniu (na przykład w bramkach, czujnikach, maszynach itp.);

  • w strumieniu (in‑stream analytics) – dane analizowane między urządzeniem a serwerem (na przykład logi bezpieczeństwa w sieci);

  • w spoczynku (at rest analytics) – strumień danych na bieżąco aktualizuje bardziej złożone, zgromadzone wcześniej informacje.

Już teraz analityka w czasie rzeczywistym jest wykorzystywana w wielu obszarach, w których kluczową cechą całego procesu jest natychmiastowe podjęcie złożonej decyzji wynikającej z bieżącego kontekstu. Można tu wymienić przykłady z dziedziny relacji klientów z dostawcami i producentami, takie jak marketing kontekstowy czy dynamiczna alokacja zasobów w sieciach mobilnych, oraz bieżące wykrywanie nadużyć finansowych czy ataków hakerskich. Z zastosowań przemysłowych warto przywołać prewencyjne zarządzanie parkiem maszynowym, sieciami energetycznymi i flotą pojazdów, gdzie analityka pozwala wykrywać zagrożenia o dużym prawdopodobieństwie wystąpienia. Analityka ma także zastosowanie w przestrzeni publicznej, wspomaga takie obszary jak inteligentne miasta (smart cities) lub zdalna opieka medyczna.

Inteligentne urządzenia

Według firmy Gartner, w 2016 roku liczba połączonych urządzeń przekroczy 6 miliardów, a w 2020 roku osiągnie poziom 20 miliardów. Oznacza to, że dziennie przyłączamy ponad dziesięciokrotnie więcej urządzeń, niż rodzi się dzieci. Gdzie i po co są instalowane takie urządzenia? Wbrew pozorom otaczają nas wszystkich i coraz częściej, może czasem nieświadomie, jesteśmy ich użytkownikami lub beneficjentami ich inteligencji.

ConnectedCar

Coraz częściej słyszymy o samochodach komunikujących się za pośrednictwem sieci i inteligentnym zarządzaniu flotą. Podstawą są samochody i maszyny robocze wyposażone w szereg czujników i urządzeń aktywnych pozwalających na monitorowanie w czasie rzeczywistym funkcjonowania i lokalizacji pojazdów. Navistar, międzynarodowy producent samochodów użytkowych, dzięki stałemu monitorowaniu przebiegu eksploatacji swoich produktów jest w stanie z wyprzedzeniem planować i realizować zadania serwisowe. Dostarcza to wymiernych korzyści właśnie w obszarze kosztów operacyjnych – minimalizacja nieplanowanych przestojów nawet o 70% ogranicza straty, a możliwość zaplanowania serwisu i wymiany części pozwala optymalizować te działania i zredukować ich koszt nawet o 30%. Ułatwiony jest też proces identyfikowania przyczyn awarii oraz skraca się czas konieczny do wprowadzenia odpowiednich zmian w projekcie lub procesie produkcyjnym. Ten ostatni element z pewnością docenią producenci samochodów osobowych – to dzięki niemu będą oni w stanie ograniczyć koszty wezwań do serwisu nowych samochodów zaraz po rozpoczęciu ich eksploatacji.

Zebrane dane analityczne z przebiegu eksploatacji maszyny (na przykład: ciśnienie płynów, temperatura itp.) pozwalają na zrozumienie istoty występujących problemów. Umożliwiają także budowanie rekomendacji dla operatora i kierowcy, a co za tym idzie – wydłużenie okresu eksploatacji maszyny i zmniejszenie kosztów jej funkcjonowania. Tak proste rzeczy, jak odpowiednie dobranie biegu w czasie jazdy, wskazywanie optymalnej trasy omijającej korki czy wyłączanie silnika w momencie dłuższego postoju, mogą ograniczyć zużycie paliwa i poziom emisji spalin. W skali jednego pojazdu są to niewielkie korzyści, ale w kontekście całej floty mają znaczącą wartość biznesową. Dzięki monitorowaniu floty w czasie rzeczywistym i umiejętności reagowania na dynamicznie zmieniające się warunki i zadania przez nią realizowane możliwe jest wprowadzanie optymalizacji kolejnych działań. Przenosi się to z poziomu samej maszyny do warstwy usług i dostarczanych produktów. Ta zmiana oznacza dla producentów dużą szansę. Są w stanie odejść od oferowania produktu, w tym przypadku samochodu, który ma określone funkcje – są gotowi brać odpowiedzialność za ciągłość funkcjonowania floty pojazdów, zarządzać samodzielnie pracami serwisowymi, a docelowo migrować do modelu, gdzie nie będą oferować produktów, tylko paletę usług logistycznych.

Monitorowanie produkcji

Monitorowanie pracy urządzeń ma długą tradycję w przemyśle górniczym i wydobywczym. W ostatnich latach coraz intensywniej jest wykorzystywana analityka czasu rzeczywistego. Jedną z najbardziej zaawansowanych firm w tej dziedzinie jest amerykański Devon, eksploatujący złoża ropo- i gazonośne w Stanach Zjednoczonych i Kanadzie. Devon analizuje strumienie danych w dwóch głównych obszarach: do precyzyjnego sterowania nowymi odwiertami oraz do monitorowania pracy urządzeń w komercyjnie eksploatowanych szybach.

W ujęciu historycznym symulacja złoża jest jednym z najbardziej zaawansowanych zastosowań analitycznych w operacjach wydobywczych. Devon przeszedł na wyższy poziom, stosując analitykę do kontrolowania w czasie rzeczywistym procesu wiercenia i geosterowania wiertnicami. Dzięki zastosowaniu modeli predykcyjnych inżynierowie nadzorujący odwiert otrzymują informację o prawdopodobnym składzie i grubości kolejnych warstw skalnych. Umożliwia to bieżące korekty położenia świdrów, a także dostosowanie tempa i sposobu wiercenia, co w praktyce przekłada się na zmniejszenie liczby nieudanych odwiertów, a w rezultacie – niższe koszty budowy nowych szybów. W 2015 roku, po kilku latach stosowania analityki strumienia danych, Devon osiągnął najlepsze wskaźniki w branży dla nowych odwiertów.

Drugim obszarem, w którym Devon wykorzystuje analitykę czasu rzeczywistego, jest monitorowanie bieżącej eksploatacji. Wszystkie szyby wyposażono w sensory, które co 6 milisekund przesyłają dane do lokalnych centrów wspierających. Gromadzenie tak wielkich ilości danych wiązałoby się z ogromnymi kosztami infrastruktury informatycznej, postawiono więc na analitykę strumienia danych i zautomatyzowane generowanie alertów o anomaliach w funkcjonowaniu urządzeń. Inżynierowie nadzorujący produkcję otrzymują informacje o potencjalnym zagrożeniu, o prawdopodobieństwie wystąpienia awarii oraz o przewidywanych kosztach usunięcia takiej awarii w porównaniu z kosztami prewencyjnego wstrzymania wydobycia i wymiany wadliwego elementu szybu.

Wkraczamy w fazę powstawania różnych cyfrowych ekosystemów, w których główną cechą produktów i usług jest możliwość stałej wymiany informacji w sieci łączącej ludzi, urządzenia i organizacje.

Dzięki takiemu podejściu ekipy techniczne, które dotychczas wizytowały instalacje wydobywcze według ustalonego harmonogramu, teraz są kierowane do szybów o najwyższym stopniu zagrożenia awarią. Devon, oprócz zwiększenia efektywności wydobycia i redukcji kosztów utrzymania instalacji wiertniczych, znacząco zmniejszył skalę zanieczyszczeń środowiska związanych z niekontrolowanymi wyciekami.

Przemysłowy Internet Rzeczy i inteligentne urządzenia otwierają drogę dla kolejnej rewolucji przemysłowej – Przemysłu 4.0. Dzięki stałemu monitorowaniu produkcji i możliwości wpływania na jej przebieg możliwe staje się ciągłe przezbrajanie linii z zachowaniem optymalnego działania. Oferowane serie produktów są krótsze, bardziej spersonalizowane, zakłady funkcjonują sprawniej i w sposób dopasowany do konsumenta. Zmienia się także sam produkt. Po opuszczeniu fabryki producent nie traci z nim kontaktu, a konsument nie jest pozostawiony bez opieki. To nowe pole dla innowacji w modelach biznesowych (ich rozszerzeniu) oraz produktach i usługach.

Rolnictwo, podobnie jak przemysł wydobywczy i produkcyjny, również jest bezpośrednim beneficjentem Internetu Rzeczy. Firma John Deere, potentat rynku maszyn rolniczych, rozwija ofertę dla rolnictwa, konstruując nie tylko niezawodne maszyny, ale także dostarczając ekosystem urządzeń, aplikacji i usług zmierzających do podniesienia wydajności produkcji z każdego akra upraw. Internet Rzeczy oraz możliwość realizowania zaawansowanej analityki w czasie rzeczywistym dały firmie nowe pole do innowacji i umożliwiły odejście od klasycznego modelu biznesowego.

Różne oblicza analityki w czasie rzeczywistym

Różne oblicza analityki w czasie rzeczywistym

Cybersecurity

Transformacja wynikająca z możliwości analizy sygnałów i zdarzeń nie dotyczy tylko i wyłącznie urządzeń mechanicznych. W cyfrowych czasach, gdy nasza aktywność coraz częściej znajduje odzwierciedlenie w sieci, znaczenia nabiera cyberbezpieczeństwo. Do niedawna zwalczanie cyberprzestępczości polegało głównie na spenetrowaniu czarnego rynku w celu zakupienia zestawu gotowych narzędzi używanych do wytwarzania złośliwego oprogramowania. Były to w pewnym sensie wystandaryzowane komponenty, a przez to relatywnie łatwe do zwalczenia. Obecnie grupy przestępcze inwestują w tworzenie produktów jednorazowych, ściśle wyspecjalizowanych i nakierowanych na precyzyjnie określone cele. Jest to w dużej części oprogramowanie działające w sposób subtelny i długofalowy, często manifestujące obecność po długim czasie, w momencie kiedy zostaje uruchomione przez cyberprzestępców. Dlatego firmy i instytucje są zmuszone do zmiany strategii obrony. Dobrym przykładem jest włoski operator telekomunikacyjny Telecom Italia. Strategią przyjętą przez operatora jest skoncentrowanie się na działaniach proaktywnych: wczesnym wykrywaniu niepokojących trendów i obserwowaniu zdarzeń będących zwiastunami zagrożeń, dzięki czemu możliwe jest uruchomienie działań prewencyjnych dostosowanych do skali i typu zagrożenia.

System monitorujący oprócz danych spływających z infrastruktury sieciowej i centrów przetwarzania danych korzysta także z tak zwanej sfery cyfrowej i jej otwartych zasobów, takich jak: zasoby sieci WWW, media społecznościowe, czaty i blogi, dzięki czemu można efektywnie wykrywać podejrzane działania, zapobiegać już zaplanowanym atakom lub identyfikować dotychczas nierozpoznane luki w zabezpieczeniach. W Telecom Italia postawiono na wizualizację i analizę danych w czasie rzeczywistym. Narzędzie, które w pierwszym rzędzie ma za zadanie uzupełnić tradycyjną logikę analityki. Wizualizacja pozwala analitykom prowadzić poszukiwania z innej perspektywy, wykrywać nowe powiązania, które charakteryzowały wcześniejsze incydenty, kodyfikować te powiązania i implementować w tradycyjnych systemach zabezpieczeń, a także ułatwia efektywne wykrywanie korelacji, odzwierciedla dynamikę zjawisk w czasie i ich rozprzestrzenianie się w sieci.

Budowanie rozwiązań Internetu Rzeczy wykorzystujących inteligentne urządzenia oraz zaawansowaną analitykę wymaga przełamania jeszcze wielu barier. Kluczowa z nich to niepewność zwrotu z inwestycji, co jest nieodłącznym składnikiem innowacyjności. Kolejne aspekty obejmują bezpieczeństwo informacji i procesów w publicznych sieciach oraz potrzebę połączenia często bardzo inżynierskich i technicznych kompetencji z zadaniami z zakresu data science i zaawansowanej analizy danych.

PRZECZYTAJ TAKŻE: Big Data otwiera nowe możliwości »

Nowe spojrzenie na big data 

Stanisław Krauze PL

Pojęcie big data robi zawrotną karierę i otwiera nowe możliwości biznesowe dla firm różnej wielkości.

Rozwiązania dla ludzi

Budując inteligentne rozwiązania przyszłości, nie można pominąć obywatela. Z perspektywy każdego z nas cyfrowy świat połączonych urządzeń może dostarczyć wielu korzyści przekładających się na podniesienie jakości życia i ułatwienie codziennych czynności. W sferze publicznej oczekujemy jak najlepiej skrojonych i dostosowanych do naszych potrzeb usług.

Smart City

Pierwszym miejscem, w którym dostrzegamy wpływ tej ewolucji, są inteligentne miasta (smart cities). W najszerszym ujęciu pojęcie odnosi się do miasta gromadzącego informacje z wielu źródeł własnych, takich jak sensory czy kamery rozlokowane w różnych punktach. Następnie wykorzystuje je do monitorowania i zarządzania miastem oraz udostępnia obywatelom w czasie rzeczywistym. Na świecie są już tysiące miast, które realizują koncepcję smart city w taki właśnie sposób. W Polsce po tej klasy rozwiązania sięgnęła między innymi Warszawa, i to na tyle skutecznie, iż może poszczycić się prestiżową nagrodą w konkursie Mayors Challenge organizowanym przez Bloomberg Philanthropies. Dzięki inteligentnym urządzeniom oraz odpowiednio zbudowanej warstwie aplikacyjnej osoby niepełnosprawne mogą łatwiej korzystać z instytucji publicznych. Aplikacja umożliwia nawigację w mieście oraz wewnątrz budynków, ułatwia korzystanie z instytucji publicznych. Sukcesywnie też obserwujemy zmiany, jakie zachodzą w sposobie świadczenia transportu publicznego, gdzie informacja o rozkładach jazdy, opóźnieniach i wsparcie w planowaniu podróży odbywają się właśnie dzięki analityce czasu rzeczywistego na podstawie zbieranych na bieżąco danych. Miasta wyposażone w sensory, jednym z nich jest Christchurch w Nowej Zelandii, to interaktywna informacja o: natężeniu hałasu, jakości powietrza, zużyciu energii i wody. Dzięki temu powstaje „czujące miasto” z aktualizowanymi mapami obrazującymi jakość życia, ale także pozwalającymi władzom publicznym reagować na zachodzące zdarzenia. Analiza i monitorowanie połączonych danych z mediów społecznościowych, zgłoszeń od mieszkańców oraz stanu infrastruktury pozwala odpowiednio wcześnie wykrywać awarie oraz optymalizować zaangażowanie służb w aktywną naprawę tkanki miejskiej. W opisanych sytuacjach mamy do czynienia z interaktywnym raportowaniem w czasie rzeczywistym. Kompleksowe informacje pozwalają podejmować adekwatne do sytuacji decyzje zarówno urzędnikom i służbom miejskim, jak i zwykłym obywatelom mającym dostęp do odpowiednich aplikacji.

Kolejnym krokiem w ewolucji inteligentnych miast jest zaangażowanie analityki czasu rzeczywistego w procesy podejmowania decyzji. Spływające z wielu źródeł dane są na bieżąco analizowane przez zestaw algorytmów wykrywających zdarzenia istotne z punktu widzenia zarządzania smart city. Operatorzy systemu otrzymują odpowiednie alerty i rekomendowane działania. Wbudowana analityka umożliwia symulację i wizualizację sytuacji po podjęciu decyzji, a także oszacowanie jej ekonomicznego wpływu na funkcjonowanie miasta. Takie cechy ma wdrażana właśnie platforma smart city w La Coruñi w Hiszpanii.

Jeszcze dalej poszły władze brytyjskiego Plymouth, które dzięki zastosowaniu analityki predykcyjnej są w stanie na bieżąco oceniać ryzyko awarii infrastruktury miejskiej. Ocenia się, że prewencyjna konserwacja urządzeń przyczyniła się do oszczędności rzędu 500 tysięcy funtów w pierwszym roku funkcjonowania systemu. Innym zastosowaniem tej technologii jest monitorowanie i predykcja poziomu zagrożenia rozbojami na podstawie aktualnego ruchu ludzi, pory roku i dnia, pogody i innych czynników.

Skala korzyści zależy od poziomu rozwoju systemów monitorowania i reagowania. Te najmniej złożone są oparte na analizie retrospektywnej – obserwujemy przeszłe zdarzenia i na ich podstawie, wykorzystując osobiste doświadczenie, podejmujemy decyzję. Rozwiązania na średnim poziomie rozwoju bazują na analizach reaktywnych w czasie rzeczywistym – jesteśmy w stanie wpływać na nasze otoczenie, zbierając i odpowiednio przetwarzając analitycznie dane i sygnały. Z kolei najbardziej zaawansowane systemy predykcyjne pozwalają na oszacowanie ryzyka i podjęcie działań wyprzedzających.

Telemedycyna

Analityka czasu rzeczywistego otwiera zupełnie nowy rozdział w dziedzinie zdalnego świadczenia usług medycznych. Telemedycyna to możliwości zdalnego kontaktu z lekarzem, który na podstawie otrzymanych danych stawia diagnozę, a często także komunikuje się z pacjentem za pośrednictwem tele- czy wideokonferencji. Obecnie coraz powszechniejsze staje się wykorzystanie telemedycyny do zdalnego monitorowania stanu zdrowia pacjentów, głównie osób przewlekle chorych, opuszczających szpital lub ludzi w podeszłym wieku z ograniczoną sprawnością. Dzięki systemom telemedycznym można monitorować parametry życiowe, reagować na ich zmiany, monitorować zażywanie leków i efekty ich przyjmowania. Urządzenia stale monitorujące nasze parametry życiowe (na przykład: puls, ciśnienie, saturację, EKG czy KTG, poziom glukozy we krwi itp.) przekazują te informacje w postaci stałego strumienia danych. Operator systemu telemedycznego zobowiązany jest do stałego nadzoru nad spływającą informacją, co wiąże się z zaangażowaniem przeszkolonego medycznie personelu. Nowoczesne systemy umożliwiają implementację prostych reguł i alertów, które pozwalają na odpowiednio wczesną identyfikację nieprawidłowości, a przy okazji ograniczają błędy wynikające z przeoczeń personelu. Systemy najnowszej generacji mają wbudowane zaawansowane algorytmy analityczne, które umożliwiają bieżącą interpretację napływających danych. Najistotniejszą cechą tych systemów jest dostarczanie personelowi konkretnych rekomendacji działania. Na podstawie historycznych danych, profilu pacjenta i bieżących trendów w danych algorytmy analityczne rekomendują reakcję analogiczną do reakcji w przeszłości albo ostrzegają, że sytuacja jest wyjątkowa, bezprecedensowa w historii monitoringu danego pacjenta, i rekomendują podjęcie zindywidualizowanych działań. Taka kategoryzacja alertów oszczędza czas personelu, który zgodnie z procedurami powinien przejrzeć historię pacjenta i na jej podstawie podjąć odpowiednie działania, a także oszczędza czas lekarzy specjalistów, którzy są informowani jedynie o nowych anomaliach, kiedy wymagana jest dokładniejsza analiza przypadku lub nawet bezpośrednia interwencja.

Interesującym przykładem jest Geneia, amerykańska firma technologiczna i konsultingowa, która stworzyła platformę o nazwie Theon. Gromadzi ona wyniki badań klinicznych, parametry fizjologiczne i dane biometryczne pacjentów, pozyskiwane zarówno ze statycznych źródeł, jak i w postaci strumienia danych, jak to ma miejsce w przypadku zdalnego monitorowania pacjentów. Analitycy Geneii na bieżąco weryfikują jakość modeli predykcyjnych, a jednym z najważniejszych czynników sukcesu jest aktywna informacyjna pętla zwrotna: wszystkie fałszywe alerty są starannie weryfikowane i opisywane przez personel medyczny, dzięki czemu mogą zostać wykorzystane do ciągłego uczenia modeli.

Interakcje klient‑firma

W erze transformacji cyfrowej zachowanie i tryb podejmowania decyzji przez klientów na zawsze uległy zmianie. Dzięki powszechnemu dostępowi do Internetu i popularyzacji smartfonów klienci, zwłaszcza młodzi, mogą wirtualnie przebywać w wielu miejscach (sklepach, firmach) jednocześnie, przez co ich okno koncentracji na kierowanym do nich przekazie skróciło się do kilku minut, a nierzadko nawet sekund. Konsumenci, którzy są w kontakcie ze „markami‑partnerami”, coraz częściej oczekują natychmiastowej i adekwatnej reakcji lub oferty. Craig Davis, były wiceprezes jednej z największych agencji reklamowych na świecie (JWT), ujął to wyzwanie w jednym zdaniu: „Musimy przestać wtrącać się w to, czym interesują się ludzie, i stać się tym, czym oni się interesują”.

Oczekiwania są zazwyczaj bardzo różne, w zależności od momentu i kontekstu sytuacji, w której akurat znajduje się konsument. Może to być potrzeba zasięgnięcia informacji przed podjęciem decyzji zakupowej (na przykład porównanie ceny oglądanego na stronie operatora telefonu w wyszukiwarce internetowej lub sprawdzenie opinii użytkowników na forach) lub poszukiwanie usługi, która znajduje się w sąsiedztwie (na przykład: kawiarnia, bankomat, serwis etc.). Może to być również nagła potrzeba zapewnienia dodatkowych środków na koncie na przykład po nieudanej transakcji kartą płatniczą. Niezwykle istotne staje się właściwe zinterpretowanie kontekstu sytuacji, w której znalazł się konsument, i przewidzenie, jaka akcja będzie najbardziej adekwatna do podjęcia w czasie mieszczącym się w oknie jego uwagi i zainteresowania. Kluczowa staje się zdolność organizacji do monitorowania danych o interakcjach z klientem we wszystkich punktach styku z firmą w czasie rzeczywistym, analiza kontekstu i wzorców zachowania klienta, a także dobór optymalnej w danym momencie akcji i sposobu komunikacji. Jeśli klient dzwoni do call center kilka minut po wypełnieniu formularza z reklamacją na stronie WWW, to priorytetem jest dostarczenie mu wszelkich potrzebnych informacji, o które zapyta, a nie oferowanie nowego produktu lub usługi.

Organizacje coraz częściej rozumieją, że powinny nadążać za procesem podejmowania decyzji przez klientów. Aby podejmować adekwatne działania w najlepszym możliwym momencie, należy analizować napływające nieustannie strumienie danych i rozpoznawać istotne biznesowo zdarzenia. Analitycy rynku z Forrester Research nazywają ten rodzaj informacji wiedzą ulotną (perishable insight), którą można odkryć i wykorzystać w działaniu jedynie w czasie rzeczywistym.

Marketing kontekstowy

Przykładem doskonale ilustrującym potencjał drzemiący w takiej ulotnej wiedzy jest przypadek dużej, międzynarodowej firmy telekomunikacyjnej. Po analizie sposobu korzystania z urządzeń mobilnych, a zwłaszcza sposobu korzystania z mobilnego dostępu do Internetu, wytypowano kilkanaście sytuacji, w których taki nieskrępowany dostęp ma szczególne znaczenie dla użytkownika. Był to na przykład szybko wyczerpujący się w trakcie intensywnego użytkowania pakiet danych. Postanowiono, że zamiast aktywnie zachęcać użytkowników tradycyjnymi kampaniami marketingowymi, należy poczekać na wystąpienie jednej z tych sytuacji i wtedy zaoferować dokupienie odpowiedniej usługi.

Oczywiście, aby uruchomić tego typu spersonalizowane kampanie dostosowane do aktualnej sytuacji użytkownika, dane o połączeniach muszą być wychwytywane i analizowane w czasie ich trwania. Nie może być mowy o gromadzeniu danych i ich statycznej analizie. Algorytmy porównujące bieżące zachowanie użytkownika do zdefiniowanych wcześniej wzorców powinny działać w danej chwili. Wracając do przytoczonego przykładu: na podstawie tempa wykorzystywania pakietu algorytmy wyznaczają moment, w którym zostanie wyczerpany, określają, jakiej wielkości pakiet będzie wystarczający do końca okresu rozliczeniowego, oraz sugerują cenę, którą użytkownik powinien być gotowy zapłacić. Tak zmodyfikowany proces oraz komunikacja kontekstowa okazały się strzałem w dziesiątkę: oferty dopasowane do aktualnych potrzeb klienta cieszyły się dziesięciokrotnie większym wzięciem niż tradycyjne kampanie oparte na statycznych regułach. Inwestycje niezbędne do uruchomienia nowatorskich kampanii zwróciły się w dwa miesiące.

Oferty dopasowane do aktualnych potrzeb klienta cieszą się nawet dziesięciokrotnie większym wzięciem niż te oparte na statycznych regułach.

Innym bardzo ciekawym przykładem zastosowania analityki w czasie rzeczywistym jest Shop Direct, największy brytyjski sklep internetowy, mający 4 miliony zarejestrowanych klientów dokonujących zakupów za pośrednictwem trzech portali tematycznych. Każdy z kanałów online, w którym klient ma styczność z marką (portal zakupowy, aplikacja mobilna, profil Facebook itd.), zbiera i analizuje dane o zachowaniu klienta. Jest to powszechnie znany mechanizm, każdy z nas spotkał się z mniej lub bardziej zaawansowanymi mechanizmami rekomendacji opartymi na algorytmach analitycznych („klienci, którzy oglądali ten przedmiot, oglądali również…” albo „może również zainteresuje Cię….”). Jednak podejście Shop Direct jest nieco inne: jednocześnie są analizowane zarówno historyczne interakcje klienta we wszystkich punktach styku, jak i bieżąca sesja. Jeśli z danych historycznych wynika, że im dłużej klient zastanawiał się nad zakupem, tym częściej finalnie rezygnował z zakupu, algorytm na bieżąco przelicza prawdopodobieństwo, że klient zrezygnuje i na tej podstawie kalkuluje indywidualny rabat na konkretny przedmiot. Analityka zachowania klienta na portalu zakupowym, w połączeniu z jego profilem wartościowym, pozwala na projektowanie akcji, które w czasie trwania interakcji umożliwiają wyświetlenie spersonalizowanego komunikatu, zmiany kolejności ułożenia produktów na stronie, a nawet układu całych podstron.

Wykrywanie oszustw

Analityka w czasie rzeczywistym ma również niezwykle istotne znaczenie dla bezpieczeństwa naszych oszczędności. W czasach, gdy niemal wszyscy mają dostęp do swojego konta przez Internet, a w portfelu kilka kart płatniczych, pokusa użycia przez złodzieja skradzionych lub sklonowanych kart oraz przechwyconych kodów autoryzacyjnych jest ogromna. Banki i inne instytucje finansowe rozbudowują systemy wykrywające i zapobiegające nadużyciom, a poziom ich złożoności i wymagań technicznych stale rośnie. Złożoność problemu najlepiej ilustruje autoryzacja transakcji kartami – czy to gotówkowych w bankomacie, czy bezgotówkowych w tradycyjnych lub internetowych sklepach. Czas przeznaczony na autoryzację to nie więcej niż kilka sekund – w przeciwnym przypadku rosną kolejki i irytacja użytkowników. Błędna autoryzacja oznacza bolesną stratę finansową, odmowa autoryzacji i zatrzymanie karty uczciwemu klientowi oznacza reklamację, a nawet stratę klienta na rzecz konkurencji. Systemy do wykrywania nadużyć mają kilka sekund, aby przeanalizować dotychczasową historię transakcji, zweryfikować, czy miejsce transakcji nie jest podejrzane (na przykład poprzednia transakcja o godz. 10.00 w Warszawie, a bieżąca o 11.30 w Poznaniu) i sprawdzić wiele innych aspektów. Systemy bazujące na regułach przeważnie wykorzystują specyficzne strategie definiujące kolejność weryfikacji poszczególnych parametrów. Bardziej zaawansowane systemy, wykorzystujące wbudowaną analitykę, działają o wiele szybciej, a przede wszystkim skuteczniej. Dla przykładu, Nets, skandynawski operator płatności obsługujący 33 miliony kart płatniczych, zdecydował się na implementację systemu wykorzystującego do autoryzacji kart analityczne sieci neuronowe. Rezultaty przekroczyły najśmielsze oczekiwania: liczba wykrywanych nadużyć wzrosła o ponad 60%, przy jednoczesnej redukcji fałszywych alarmów o ponad jedną trzecią.

Analityka w czasie rzeczywistym, będąc naturalną konsekwencją rozwoju technologicznego, gwałtownie zyskuje na znaczeniu, a lista obszarów jej zastosowania jest niemal nieograniczona. Ze względu na odmienny od tradycyjnej analityki charakter wymaga nie tylko przygotowania infrastruktury technicznej, ale przede wszystkim zmiany filozofii działania, odpowiedniego nastawienia i umiejętności użytkowników. Pytania, które należy sobie zadać, to „kiedy” i „jak szybko” zacząć ją wykorzystywać na co dzień.

Pobierz artykuł pdf niezabezpieczony

Pobierz artykuł pdf zabezpieczony

O autorach
Tematy

Może Cię zainteresować

Magazyn
Premium
Dlaczego uważni liderzy lepiej zarządzają zmianą
Samoświadomi i opanowani menedżerowie skuteczniej przeprowadzają swoje zespoły przez okresy niepewności związanej ze zmianami kierunku działania organizacji. Wdrażanie strategicznych zmian ma ogromny wpływ na wyniki przedsiębiorstw. Niezależnie od tego, czy chodzi o zwinne wykorzystanie nowej szansy rynkowej, czy o budowanie długoterminowej odporności. Wielu liderom jest jednak trudno skutecznie przeprowadzić zespół przez ten proces. Takie inicjatywy […]
Premium
W erze cyfrowej zaangażowanie nabiera nowego znaczenia

Automatyzacja bez ludzi nie działa. W erze AI to zaangażowanie, odpowiedzialność i zaufanie stają się nową walutą innowacyjnych organizacji.

chiński e-commerce i social commerce
Premium
Superaplikacje, social commerce i AI, czyli chiński przepis na sukces w e-handlu

Superaplikacje, handel społecznościowy i sztuczna inteligencja tworzą w Chinach nowy model handlu. Ashley Dudarenok tłumaczy, dlaczego przyszłość e-commerce należy do zintegrowanych ekosystemów i inteligentnych agentów AI.

Premium
Zaangażowania można się nauczyć

Zaangażowanie to nie magia, lecz kompetencja. Można je trenować – tak jak empatię, odpowiedzialność czy współpracę – pod warunkiem, że liderzy stworzą ku temu właściwe warunki.

strategie ochrony innowacji
Premium
Jak chronić innowacje przed kopiowaniem

Jak skutecznie bronić innowacji przed kopiowaniem? Czasem wystarczy mądrze zaprojektować produkt – tak, by jego kluczowych elementów nie dało się łatwo odtworzyć ani wykorzystać.

Premium
Efekt domina w zarządzaniu dobrostanem

Kultura dobrostanu staje się nowym filarem przywództwa. Firmy, które inwestują w wellbeing liderów i zespołów, uruchamiają efekt domina – rozwijają kompetencje, wzmacniają kulturę organizacyjną i budują przewagę na rynku.

Wybieram MIT

Cyfrowa transformacja to dziś nie wybór, lecz konieczność. Jak pokazuje doświadczenie Grupy Symfonia, przemyślane inwestycje w technologie potrafią odmienić kierunek rozwoju firmy i stać się impulsem do trwałej przewagi konkurencyjnej.

Premium
Jak zautomatyzować operacje bez nadwyrężania budżetu

Automatyzacja nie musi oznaczać milionowych nakładów. Dzięki tanim i elastycznym technologiom nawet małe firmy mogą usprawnić procesy i zwiększyć produktywność.

środowiska wirtualne w procesie design thinking
Premium
Jak praca zdalna zmienia design thinking

Design thinking wkracza w nowy wymiar. Dzięki środowiskom wirtualnym zespoły mogą współtworzyć, testować i analizować pomysły w czasie rzeczywistym – niezależnie od miejsca i strefy czasowej. To nie tylko narzędzie pracy zdalnej, lecz także przestrzeń do pogłębionej empatii, eksperymentowania i szybszego wdrażania innowacji.

Premium
Strategia zakorzeniona w przyszłości firmy

Technologia bez wizji to tylko narzędzie. Aby automatyzacja miała sens, musi wynikać z celów, wartości i przywództwa – a nie z mody na cyfrowość.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!