Najpopularniejsze tematy:

Premium

Materiał dostępny tylko dla Subskrybentów

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Jesteś Subskrybentem? Zaloguj się

Premium

Subskrybenci wiedzą więcej!

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

X
Następny artykuł dla ciebie
Wyświetl >>

Autonomiczne samochody czy asystenci głosowi rozpalają masową wyobraźnię.  Rozwiązania te stanowią część szerszego zjawiska, jakim jest dynamiczny rozwój metod sztucznej inteligencji oraz systemów kognitywnych. Jeszcze nigdy w historii analityka leżąca u podstaw tego rozwoju nie była tak powszechnie komentowana. Już niedługo systemy te diametralnie zmienią biznes.

Zastosowanie metod analitycznych w biznesie ma długą tradycję i wypracowane sposoby wykorzystania, nawet w przypadku bardzo złożonych algorytmów prognostycznych czy optymalizacyjnych. Jednak rozwój sztucznej inteligencji i systemów kognitywnych rodzi pytania o wizję i kierunek zmian w obszarze analityki oraz konsekwencje dla sposobu prowadzenia biznesu i wykorzystania danych w procesie podejmowania decyzji. Spośród pojawiających się pytań najważniejsze są: Czy rozwój sztucznej inteligencji i systemów kognitywnych oznacza kres tradycyjnie rozumianej analityki? Jakie są perspektywy i granice rozwoju tych rozwiązań? Co w praktyce ten rozwój oznacza dla firm i ich prezesów? Jak skutecznie wykorzystywać dostępne obecnie metody analityczne w procesach podejmowania decyzji i na jakie zmiany się przygotować?

Aby odpowiedzieć na te pytania, konieczne jest bliższe przyjrzenie się sztucznej inteligencji (Artificial Intelligence – AI) i systemom kognitywnym (Cognitive Computing – CC) zarówno z punktu widzenia końcowego użytkownika, jak i menedżera odpowiedzialnego za modelowanie procesów i wykorzystanie danych w przedsiębiorstwie. Kolejnym krokiem jest prześledzenie związków pomiędzy tymi metodami a tradycyjnie uprawianą analityką i przyjrzenie się synergiom. Wreszcie porównanie mechanizmów podejmowania decyzji – tych strategicznych, podejmowanych centralnie, i tych operacyjnych, podejmowanych na styku firmy z jej otoczeniem: klientami i dostawcami.

W powszechnym rozumieniu sztuczna inteligencja to system informatyczny, który może rozumować podobnie jak człowiek. Tak zdefiniowane rozwiązanie określa się mianem „silnego AI”. Jednak rozwój systemów sztucznej inteligencji do tego punktu jeszcze nie dotarł. Na razie maszyny nie potrafią myśleć jak ludzie. Są sztuczne, ale w niewielkim stopniu inteligentne. Co więcej, rozwiązania z etykietką AI najczęściej nie mają nic wspólnego ze sztuczną inteligencją. Producenci nowoczesnych urządzeń chętnie wyposażają maszyny, samochody czy oprogramowanie w cechy kojarzone z AI. Wszystko, co nowe, nieoczekiwane, wykorzystujące algorytmy, określane jest mianem inteligentnego. W rzeczywistości jednak sztuczną inteligencją nie jest. Tylko niewielka część z tych rozwiązań ma kluczowe cechy AI, i to określane jako tzw. słabe AI – czyli systemy inteligentnie realizujące wąsko określone zadania. Słabe AI to na przykład roboty produkcyjne czy oprogramowanie zamieniające mowę w tekst pisany.

Przyznać trzeba jednak, że nawet rozwiązania wykorzystujące słabe AI wykonują z niezwykłą precyzją i wydajnością czynności zarezerwowane dotychczas dla ludzi. Algorytmy są na przykład w stanie wykrywać na zdjęciach diagnostycznych różne formy raka ze skutecznością, jaką mogą poszczycić się doświadczeni radiolodzy. Dlatego wydaje się, że są to systemy o nadludzkich możliwościach. Są dokładne, wydajne, bezawaryjne. W przeciwieństwie do ludzi działają w trybie ciągłym bez oznak zmęczenia czy utraty koncentracji. Nikt przecież nie spodziewa się, że system, który kieruje autonomicznym samochodem, zdekoncentruje się zaciekawiony przydrożnym bilbordem reklamowym.

W opinii wielu osób wyznacznikiem siły sztucznej inteligencji jest zwycięstwo komputera nad mistrzem świata w Go. To bardzo skomplikowana gra, a zwycięstwo maszyny nad człowiekiem jest niewątpliwie wielkim osiągnięciem jej konstruktorów. System informatyczny, który świetnie radzi sobie z Go, zupełnie nie umie grać w szachy, a więc dalej reprezentuje słabe AI.

Być może jednak taka forma ukierunkowanej zadaniowo sztucznej inteligencji w zupełności nam wystarczy. Systemy AI zastępują człowieka. Perfekcyjnie wykonują powierzone im zadania (niektóre nawet bardzo skomplikowane, na przykład kierowanie autonomicznym samochodem). Nieustannie przy tym doskonalą swoje możliwości dzięki technologii zwanej głębokim uczeniem (deep learning).

Systemy wykorzystujące słabe AI wciąż jednak wykonują tylko jedno zadanie. Komputer, który gra w Go, nie potrafi grać w szachy lub samotnika. Co więcej, nie potrafi nauczyć się grać w szachy, wykorzystując doświadczenia z Go. System, który kontroluje autonomiczny samochód, nie jest w stanie kontrolować domowego oświetlenia.

Czy wobec tego sztuczna inteligencja w wydaniu słabym przynosi wystarczająco istotną jakościowo zmianę, aby można było mówić o zrewolucjonizowaniu sposobu, w jaki uprawiamy analitykę? Czy można mówić o końcu analityki, jaką znamy?

Sztuczna inteligencja jest koncepcją rewolucyjną nie tylko dla laików, ale także dla większości producentów oprogramowania, zwłaszcza tych wyspecjalizowanych w rozwiązaniach typu Data Management czy Business Intelligence. Jednak tak naprawdę AI jest wynikiem ewolucji, a także renesansu znanych od dawna metod analitycznych, które do tej pory pozostawały w uśpieniu, głównie z powodu niewystarczających mocy obliczeniowych komputerów i gigantycznych kosztów gromadzenia i przechowywania dużych wolumenów danych.

AI jest zwieńczeniem pewnego kontinuum, w którym możemy wyróżnić kilka kamieni milowych, biorąc pod uwagę zarówno kryterium chronologiczne, jak i typ oraz stopień złożoności zastosowanych algorytmów (patrz ramka Analityczne kontinuum). Nie oznacza to jednak, że jedne metody są zastępowane przez inne, nowsze, podczas gdy wcześniejsze są powoli wypierane. Trzeba raczej powiedzieć o współistnieniu, wzajemnym uzupełnianiu się i selektywnym stosowaniu właściwych metod do konkretnych problemów biznesowych.

Pierwszy ze wspomnianych kamieni milowych to analityka deskryptywna, opisowa, która wykrywa prawidłowości i związki ilościowe między zmiennymi w danych historycznych. Pozostawia człowiekowi decyzję, w jaki sposób zinterpretować i zastosować zdobytą wiedzę w procesie podejmowania decyzji odnośnie do przyszłych zdarzeń. Jako przykład zastosowania analityki deskryptywnej można podać przygotowanie wykresu słupkowego lub histogramu dla zobrazowania statystycznego rozkładu zmiennej albo dużo bardziej złożony algorytm analizujący skupienia (cluster), grupujący klientów w celu poprawy skuteczności marketingu bezpośredniego. Decyzje podejmowane na bazie analizy deskryptywnej mają z reguły charakter syntetyczny, globalny (skutkują na przykład skierowaniem komunikacji do konkretnego klastra klientów lub wycofaniem produktu o niskiej rentowności). Zdarzają się jednak decyzje o charakterze jednostkowym (na przykład przyznanie darmowego produktu klientowi, który w danym miesiącu kupił najwięcej towarów za najwyższą kwotę).

Następnym punktem analitycznego kontinuum jest metoda zwana analityką predykcyjną. Polega na wykorzystaniu uczenia maszynowego do budowy rozwiązania, którego zadaniem będzie przewidywanie, z pewnym prawdopodobieństwem, wydarzeń z przyszłości. Dane historyczne zawierają szereg zmiennych opisujących sekwencję zdarzeń z przeszłości, a także ich rezultat. Zestaw danych historycznych z odpowiedzią (rezultatem) służy do wytrenowania algorytmu, zestaw danych historycznych bez odpowiedzi jest analizowany przez wytrenowany algorytm, który przypisuje prawdopodobieństwo zajścia zdarzenia lub prawdopodobieństwo, że wydarzenie nie będzie miało miejsca w zdefiniowanym horyzoncie czasowym.

Takim zdarzeniem może być popełnienie przez klienta nadużycia finansowego, rezygnacja z jednej lub kilku usług albo wystąpienie uszkodzenia konkretnej części w konkretnej maszynie. Wyniki działania algorytmu mieszczą się w przedziale prawdopodobieństwa z pominięciem wartości skrajnych (nigdy nie mamy całkowitej pewności wystąpienia zdarzenia = 1 ani całkowitej pewności jego niewystąpienia = 0). Pomiędzy tymi wartościami występuje obszar niepewności, stawiający człowieka przed koniecznością podjęcia decyzji. Z reguły na podstawie dodatkowej analizy oceny ryzyka biznesowego człowiek podejmuje decyzję dotyczącą punktu odcięcia: wszystkie przyszłe wydarzenia z prawdopodobieństwem wystąpienia większym od X są traktowane jako pewne, czyli równe 1, a o pozostałych wnioskuje się, że potencjalne korzyści lub straty nie uzasadniają podejmowania działań proaktywnych. Decyzje z reguły mają charakter indywidualny (działania są podejmowane wobec konkretnego klienta lub konkretnej maszyny) i nieautomatyczny (maszyna przygotowuje rekomendację działania, ale o podjęciu działania decyduje człowiek).

Kolejny etap analitycznego kontinuum to analityka preskryptywna. Polega na tym, że człowiek dostarcza maszynie kompletny i spójny zespół reguł, dzięki którym system informatyczny, biorąc pod uwagą wszelkie ograniczenia funkcjonowania biznesu, jest w stanie automatycznie przypisać konkretne działanie do konkretnego przyszłego zdarzenia. Na tej zasadzie działają na przykład algorytmy optymalizacyjne.

Zarekomendowane przez algorytm działania mogą podlegać dodatkowej decyzji człowieka (na przykład maszyna przygotowuje listę „klient – najlepsza oferta marketingowa”, ale człowiek może wstrzymać realizację części lub całości kampanii marketingowej) lub mieć charakter w pełni automatyczny, formę bardzo zaawansowanej i skomplikowanej polityki działania. I tak na przykład wystąpienie określonej sekwencji zdarzeń może skutkować prewencyjnym zablokowaniem karty kredytowej albo wyświetleniem internaucie rekomendowanej oferty. Analityka preskryptywna może także wykorzystywać algorytmy uczenia maszynowego, a konkretnie uczenia maszynowego ze sprzężeniem zwrotnym.

Najpierw człowiek dostarcza maszynie zestaw reguł biznesowych i ograniczeń, który de facto jest polityką działania. Na tej podstawie system informatyczny może podejmować decyzję pozwalającą osiągnąć założony cel. Po pewnym czasie rozkład statystyczny napływających danych może ewoluować i osiągnięcie założonego celu może wymagać modyfikacji zestawu reguł. Stąd już tylko krok do algorytmów AI.

Proste systemy konwersacyjne będą przeobrażać się w takie, które podpowiedzą, ile produktów danego rodzaju powinniśmy sprzedać w przyszłym roku.

Sztuczna inteligencja to ostatni etap kontinuum analitycznego. Jest de facto uczeniem ciągłym i iteracyjną interakcją człowieka z maszyną. Specyficzną formą wykorzystania metod sztucznej inteligencji są systemy kognitywne potrafiące komunikować się z ludźmi za pomocą języka naturalnego – rozumiejące komendy głosowe czy tekstowe, odpowiadające na pytania.

Obecnie prawdziwym hitem rynkowym są systemy konwersacyjne, osobiści asystenci, tacy jak Alexa czy Siri. Kierunek, w którym zmierzają te rozwiązania, to wyjście poza proste pytania i odpowiedzi dotyczące pogody, sytuacji na drogach czy informacji czerpanych z Internetu. Powoli proste systemy konwersacyjne będą przeobrażać się w takie, które oferują głębszy wgląd i możliwość odpowiedzi na pytania typu: „Ile produktów danego rodzaju możemy sprzedać w przyszłym roku?”, „Które grupy klientów wymagają zbadania z użyciem analityki predykcyjnej?”.

W niedalekiej przyszłości osobisty asystent używający algorytmów przetwarzających język naturalny (NLP – Natural Language Processing) połączony z algorytmami uczenia maszynowego będzie dostarczał cennych informacji o znaczeniu biznesowym.

Zainteresowanie takimi asystentami jest obecnie bardzo duże, a potencjalni użytkownicy pytają również o możliwość zbudowania asystenta wyspecjalizowanego w problematyce prawnej czy medycznej. Zależy im na tym, aby taki asystent oprócz możliwości przeszukiwania dostępnej literatury i tekstowej informacji medycznej był w stanie analizować również zdjęcia dostarczane przez rozmaite systemy obrazowania diagnostycznego.

Wykorzystanie analityki w biznesie najprawdopodobniej rozwinie się w trzech kierunkach.

Intensywny rozwój algorytmów uczenia maszynowego. Już teraz do szerszego użycia wchodzi kilka ciekawych typów sieci neuronowych, na przykład sieci konwolucyjne (convolutional network). To rodzaj sieci neuronowej wyspecjalizowanej w analizie obrazów czy detekcji twarzy. Dobrym przykładem komercyjnego wykorzystania sieci konwolucyjnej w biznesie jest analityka plików DICOM (Digital Imaging and Communications in Medicine). To specjalny typ plików wykorzystywanych w medycynie do przechowywania obrazów diagnostycznych, na przykład z rezonansu magnetycznego wraz z dołączonym opisem. Jest bardzo wiele możliwości zastosowania analityki obrazów, na przykład do wczesnego wykrywania i lepszego zrozumienia raka. Autonomiczne samochody także wykorzystują sieci konwolucyjne, ale w połączeniu z sieciami rekurencyjnymi. Sieci rekurencyjne (recurrent network) są bardzo skuteczne w analizie następstw, analizie szeregów czasowych. Mogą więc być wykorzystane także do analizy tekstu, rozumianego jako następstwo pojęć.

Dzięki szybko rosnącej mocy obliczeniowej komputerów uczenie maszynowe i progresywne algorytmy będą coraz powszechniej wykorzystywane. Głębokie uczenie pozwoli zautomatyzować budowę modeli predykcyjnych. Maszyna sama przeanalizuje zbiór danych historycznych, wszystkie dostępne informacje, bez ograniczania się do reprezentatywnej próby. Wyselekcjonuje zmienne o największej sile predykcyjnej i zbuduje model, wykorzystując do tego na przykład procesory graficzne z kart graficznych komputerów.

Nadal będą trwały intensywne prace nad rozumieniem informacji, którą przekazują systemy informatyczne wchodzące w interakcje z ludźmi. Nazywamy to interakcją w języku naturalnym albo analityką ekspresji. To sytuacja, w której człowiek uruchamia proces analityczny, zadając pytanie lub stawiając problem. Maszyna dostarcza rozwiązanie i podsumowuje jego znaczenie. Na przykład: gdy człowiek pyta o korelację pomiędzy wysokim poziomem cholesterolu a podwyższonym ciśnieniem krwi, maszyna wskazuje, od jakiego poziomu cholesterolu korelacja z wystąpieniem wysokiego ciśnienia krwi jest istotna statystycznie, a więc wysoce prawdopodobna.

Sztuczna inteligencja i systemy kognitywne będą wykorzystywane na dużą skalę w obecnych narzędziach analitycznych. Ich nowsze wersje umożliwią dwukierunkową komunikację z narzędziem, a proces analityczny ulegnie większej automatyzacji. Pierwszy kontakt z danymi nie będzie polegać na wyświetlaniu wierszy i kolumn. Maszyna zrobi o wiele więcej. Przeanalizuje otrzymane dane, wyświetli odpowiednie wykresy ilustrujące powiązania między zmiennymi, opatrzy je odpowiednim komentarzem i zada kontekstowe pytania. To będzie logiczne przeanalizowanie danych i dostarczenie czegoś w rodzaju ich narracyjnego objaśnienia. Opowiedzenie historii. Przełożeni często oczekują od podwładnych takich właśnie historii, a maszyna pomoże je przygotować. Istnieją już narzędzia, które zapytane o korelację między ciśnieniem krwi a poziomem cholesterolu wykonają diagram, a jeśli danych będzie bardzo dużo, zaproponują tzw. mapę ciepła (heat map).

Powstaną też wąsko wyspecjalizowane systemy (patrz ramka Sztuczna inteligencja w biznesie) wykorzystujące wbudowaną sztuczną inteligencję do konkretnych biznesowych celów, w analityce, w służbie zdrowia, w obszarze interakcji z klientem, w sprzedaży detalicznej, w wykrywaniu nadużyć czy zarządzaniu ryzykiem.

Już dziś można spotkać systemy wspierające proces udzielania niewielkich kredytów, które mogą automatycznie podjąć decyzję o przyznaniu kredytu, a następnie monitorować zachowanie kredytobiorcy, aby przewidzieć wystąpienie ewentualnych problemów ze spłatą. Pierwsza część działania zautomatyzowana, ocena wiarygodności kredytowej i sama decyzja o udzieleniu kredytu nie jest przedmiotem ingerencji człowieka (oczywiście poza przewidzianymi prawem sytuacjami, kiedy zainteresowany nie zgodzi się z decyzją i złoży reklamację). Inny algorytm monitorujący sposób spłaty zaciągniętego kredytu dostarcza listę zagrożonych kredytów wraz z propozycją ścieżki windykacyjnej, a człowiek decyduje, czy taką windykację uruchamiać.

Lista zastosowań AI w istniejących rozwiązaniach biznesowych jest długa. Niektóre teoretyczne możliwości znajdą uznanie i szerokie zastosowanie, inne pozostaną na etapie koncepcji lub niszowego wykorzystania, niemniej sztuczna inteligencja na trwale zmieni sposoby wykorzystania analityki w codziennym biznesie.

Zgodnie z dominującym obecnie trendem, sztuczna inteligencja będzie wykorzystywana głównie w formie dedykowanych aplikacji, a nie zamkniętych systemów. Systemy udostępniające algorytmy AI będą powszechnie wyposażane w otwarte interfejsy programistyczne (API – Application Programming Interface). Użytkownicy niekoniecznie muszą mieć gotowy produkt z systemem kognitywnym. Tak naprawdę potrzebują zestawu narzędzi, które umożliwią zbudowanie wyspecjalizowanych aplikacji dokładnie odpowiadających ich potrzebom biznesowym. To istotna część współczesnej ekonomii: dostarczanie zestawów narzędzi do budowy aplikacji. Już teraz istnieją platformy udostępniające użytkownikom biblioteki algorytmów uczenia maszynowego, interfejsy graficzne umożliwiające budowę aplikacji i narzędzia integracji danych umożliwiające dwukierunkową komunikację aplikacji ze światem zewnętrznym. Jednym z kluczowych uwarunkowań skutecznego wykorzystania AI jest dostęp aplikacji do dużych wolumenów odpowiednich danych. Algorytmy uczenia maszynowego potrzebują danych do działania. Za pięć lat najbardziej pożądane będą dane, na których systemy będą mogły efektywnie pracować, a nie superalgorytmy albo interfejsy programistyczne. Już teraz spora część świadomych, zaawansowanych użytkowników domaga się, żeby wraz z systemem dostarczać zgromadzone i odpowiednio przygotowane dane zewnętrzne, na których system będzie mógł funkcjonować w początkowej fazie, stopniowo wykorzystując napływające nowe dane. Rynek zmierza właśnie w tym kierunku.

Warto też pamiętać, że ewolucja sposobu wykorzystania analityki w przedsiębiorstwie nie ma charakteru linearnego. Wykorzystywane technologie analityczne i wdrażane zmiany organizacyjne mogą mieć różną kolejność i natężenie, w zależności od specyfiki firmy i kontekstu biznesowego (patrz ramka Analityczna ścieżka rozwoju). Najważniejsza jest otwartość na zmiany.

Co te trendy oznaczają dla firm? Jak wpłyną na sposób funkcjonowania prezesów i całych organizacji? Łatwy dostęp do danych, różnorodne metody analityczne, możliwość szybkiego tworzenia aplikacji wykorzystujących analitykę w codziennym biznesie – to sprawia, że na naszych oczach znikają bariery technologiczne i finansowe powszechnego stosowania analityki.

Gdy jednak International Institute for Analytics przeprowadził badanie (1) dotyczące stopnia wykorzystania analityki wśród największych globalnych firm, zanotował istotną różnicę pomiędzy tak zwanymi Digital Natives, czyli młodymi firmami o zdecydowanie cyfrowym profilu, a tymi dłużej obecnymi na rynku. Firmy z grupy Digital Natives wyróżniają się tym, że odniosły sukces dzięki innowacyjności wspieranej powszechnym zastosowaniem analityki. Analityczne myślenie i działanie od początku było wpisane w ich DNA. Warto wziąć z nich przykład. Aby skutecznie budować pozycję firmy w ultrakonkurencyjnym świecie, trzeba uczynić analitykę kluczowym elementem firmowej strategii i filozofii działania. Należy przy tym wziąć pod uwagę kilka istotnych aspektów:

1. Demokratyzacja analityki i orientacja na innowacyjność. Firmy ery cyfrowej i start‑upy jak magnes przyciągają wybitne jednostki, oferując przestrzeń dla kreatywności i realizacji własnych pomysłów. Tradycyjne organizacje promujące innowacyjność, udostępniające dane nie tylko analitykom, ale wszystkim, którzy chcą zweryfikować swoje koncepcje, nagradzające i promujące kreatywnych pracowników, budują zdrową konkurencję i wyższy poziom identyfikacji z pracodawcą. A to przyciąga kolejnych chętnych.

2. Przyzwolenie na eksperymenty i otwartość na nieuniknione porażki. Ryzyko porażki jest wpisane w naturę start‑upów. Ugruntowane firmy powinny oczywiście ograniczać ryzyko i nie „stawiać na jednego konia”. Jednak strategia proaktywnego testowania nowych produktów, usług czy procesów biznesowych tworzonych na podstawie analizy danych radykalnie unowocześniania portfolio i poprawia efektywność działania.

3. Podejmowanie decyzji na podstawie danych. W czasach, gdy większość menedżerów podejmuje decyzje, bazując na wynikach analiz i raportów, takie stwierdzenie wydaje się banalne. Jednak w przypadku analityki preskryptywnej i metod uczenia maszynowego, zwłaszcza sieci neuronowych, decyzje wypracowane przez algorytmy są bardzo często nieintuicyjne, nie budzą zaufania. Rezygnacja z bezpośredniego podejmowania decyzji i pozostawienie człowiekowi jedynie funkcji kontrolnych, okresowej weryfikacji i korekty działania algorytmów, wymaga zmiany nastawienia i rezygnacji z pełnej kontroli nad procesem.

Współczesny konsument oczekuje innowacyjnych, atrakcyjnych cenowo produktów i inteligentnej, spersonalizowanej obsługi. Rozwój i powszechna dostępność technologii analitycznych sprawiają, iż dziś zaspokojenie tych potrzeb wydaje się łatwiejsze niż kiedykolwiek. Jednak to rolą menedżerów jest zbudowanie organizacji zdolnej do wykorzystania tej szansy w stopniu zapewniającym przewagę nad konkurencją.

Ten tekst jest częścią projektu How to do IT. To twój sprawdzony przewodnik po cyfrowej transformacji i technologiach dla biznesu. Zapisz się na newsletter projektu!

Alicja Wiecka

Dyrektor zarządzający SAS Polska.


Najpopularniejsze tematy