Strona główna > Autorzy > Tomasz Stachlewski
Head of Technology CEE w Amazon Web Services (AWS)
Sztuczna inteligencja (AI) odgrywa coraz bardziej kluczową rolę w transformacji cyfrowej w Polsce. Coraz więcej firm dostrzega jej potencjał w zakresie zwiększania efektywności, redukcji kosztów oraz podnoszenia jakości procesów biznesowych. Mimo rosnącego zainteresowania AI, wiele polskich przedsiębiorstw zmaga się z wyzwaniami, które znacząco spowalniają proces jej wdrażania. Główną barierą są ograniczenia finansowe, które uniemożliwiają lub utrudniają inwestycje w nowoczesne technologie.
Tematem najnowszego wydania jest zorganizowanie pracy zespołowej w nowych warunkach pracy zdalnej i hybrydowej. Liderzy stanęli przed wyzwaniem dostosowania swoich organizacji do zmienionych realiów środowiska pracy. Jak pogodzić wyzwania związane z pracą hybrydową z potrzebą innowacyjności i wspierania kultury organizacyjnej? Jak w dobie kryzysu menedżer może wesprzeć pracowników i złagodzić ich niepokoje? Jakie korzyści może przynieść firmie stworzenie zespołów x, zorientowanych zewnętrznie? Odpowiedzi na te pytania i inne pytania znajdują się w bieżącym numerze.
Chmura, jak każde inne narzędzie, może być obiektem optymalizacji kosztów. Szczęśliwie, istnieje wiele możliwości, aby taką optymalizację zastosować i tym samym ograniczyć wydatki.
Miliony firm na całym świecie korzysta z rozwiązań chmurowych. Jednym z głównych powodów jest właśnie redukcja kosztów utrzymania infrastruktury IT, jakie daje chmura. Można zatem bezpiecznie założyć, że taka ilość firm nie może się mylić i faktycznie „w chmurze można taniej”. Zastanówmy się, gdzie szukać optymalizacji w przypadku komentowanego studium.
Pierwszym błędem wielu firm, a także Fakturexu, jest posiadanie zbyt rozbudowanej infrastruktury. Przywykliśmy do przeszacowywania potrzeb w świecie własnych serwerowni, nie ma jednak potrzeby, aby ten błąd powtarzać w chmurze. Okazuje się, że firmy mają średnio ponad dwukrotnie przeszacowaną infrastrukturę – tzn. uruchomione serwery są zbyt potężne dla działających na nich systemów – zarówno jeśli chodzi o moc obliczeniową i pamięć. Tym samym w prosty sposób można by je zastąpić serwerami o mniejszej mocy obliczeniowej, i to bez żadnego negatywnego wpływu na działające na nich systemy. Dwa razy mniejsze serwery to dwa razy mniejsze koszty.
W chmurze „gasimy światła”! Ta zasada, którą każdy z nas zna z domu, jest jedną z podstawowych, które musimy wdrożyć w firmie, która postanowiła przenieść swoje procesy do chmury. Co oznacza gaszenie światła w tym kontekście? Chodzi o zatrzymywanie pracy serwerów, gdy nie są one już potrzebne.
Dane powinny być własnością organizacji, a nie poszczególnych jednostek i departamentów. Niestety w rzeczywistości bardzo często jest na odwrót.
O tym jak stać się firmą data‑drive, która podejmuje decyzje w oparciu o dane opowiada Tomasz Stachlewski, CEE Senior Solutions Architecture Manager w Amazon Web Services (AWS). Rozmawia Paulina Kostro.
Przepływ danych w organizacji możemy porównać do układu nerwowego w ciele człowieka. Gdy dotykamy czegoś, nasze receptory natychmiast przekazują tę informacje do mózgu, gdzie jest gromadzona i przetwarzana. Na podstawie tej analizy nasze ciało wie, jak reagować. Firmy również gromadzą dane, choć przez różne systemy, w różnych departamentach. Nie są więc współdzielone z „całym organizmem”, czyli całą organizacją. Takie przedsiębiorstwo jest ciałem, które odbiera bodźce, ale nie wie, jak na nie reagować. Wiąże się z tym kilka problemów.
Indeks górny Nasz rozmówca: Tomasz Stachlewski, CEE Senior Solutions Architecture Manager w Amazon Web Services (AWS) Indeks górny koniecNasz rozmówca: Tomasz Stachlewski, CEE Senior Solutions Architecture Manager w Amazon Web Services (AWS)
Zacznijmy od tego, że firmy wciąż nie zdają sobie sprawy, jakie informacje są dla nich istotne. Patrzą na nie przez pryzmat hurtowni danych i choć je gromadzą i przechowują, to nie wszystkie analizują i wykorzystują. . Druga kwestia to tzw. silosy, przez które dane dzielą się na różne departamenty, aplikacje i systemy. Bo choć firmy faktycznie gromadzą bardzo dużo danych, nie są one udostępniane, w jednym wspólnym widoku, wszystkim jej pracownikom.
Posłużę się kolejną analogią. Pracownika korzystającego z danych możemy porównać do pilota, który steruje samolotem i podejmuje decyzje na podstawie różnych dostępnych danych – dzięki czemu ten samolot leci poprawnie. Wyobraźmy sobie jednak sytuację, w której, w wyniku awarii, albo błędnego projektu samolotu, nie ma on dostępu do wszystkich niezbędnych informacji – nie wie na jakiej wysokości się znajduje, ile zostało mu paliwa. W takich okolicznościach wszelkie podjęte przez pilota decyzje, mogą być opłakane w skutkach. Firmy, które nie udostępniają danych swoim pracownikom, są właśnie jak ten samolot, który jeszcze unosi się w powietrzu, ale w każdej chwili może się rozbić.
Już wkrótce, tym co będzie wyróżniało firmę na tle innych organizacji, będą dane, które posiada. Chodzi nie tylko o ich jakość, ale również sposób udostępniania ich pracownikom.
Firmy składają się z różnych działów, a każdy z nich oczekuje dostępu do innego rodzaju danych. Większość osób zadowoli się np. okresowymi raportami będącymi efektem dokonanej przez kogoś analizy. Jednak zatrudnieni posiadający specjalistyczną wiedzę i kompetencje mogą oczekiwać dostępu do surowych danych. Przykładowo osoby zajmujące się analizą tego typu informacji (Data scientist) na ich podstawie mogą tworzyć m.in. modele sztucznej inteligencji (AI). Z tego punktu widzenia zapewnienie wszystkim pracownikom dostępu do danych może wydawać się skomplikowane, bo rzeczywiście pojawia się tu pytanie o infrastrukturę i kompetencje. Najlepiej oczywiście, gdybyśmy działali dwutorowo.
Najpierw przyjrzyjmy się kompetencjom. Na rynku pojawiają się już firmy, które odnoszą sukcesy związane z jeszcze lepszym wykorzystaniem danych. W ich strukturach funkcjonują tzw. analytics centers of excellence, czyli analityczne centra doskonałości. Tworzą je niewielkie grupy osób, które reprezentują wiele działów w organizacji. To bardzo ważne, ponieważ dzięki temu w firmie nie powstaje kolejny silos. Celem takiego zespołu jest zbudowanie współdzielonego centrum jeziora danych, gdzie będą się znajdowały wszystkie dane – w różnych formatach i w różnej postaci – po to, aby mógł z nich korzystać każdy pracownik firmy.
Należy przy tym wskazać istotną różnicę między podejściem tradycyjnym, a nowoczesnym – jeśli chodzi o dzielenie się danymi wewnątrz organizacji. Tradycyjne podejście polega na opracowaniu raportu, który jest dystrybuowany w całej firmie – są w nim umieszczane tylko wybrane informacje. Pracownicy, którzy potrzebują dostępu do informacji nieujętych w takim raporcie, często po prostu ich nie otrzymują. Nowoczesne podejście polega na zwróceniu się w stronę pracownika (przez analityczne centrum doskonałości) i zapytanie się go „jakich danych potrzebujesz, w jakiej formie chcesz je otrzymać”?
Przejdźmy do infrastruktury. Co najważniejsze: dane nie mogą należeć do poszczególnych działów, lecz muszą być współdzielone poprzez (wspomniane wcześniej) jeziora danych i udostępniane wszystkim użytkownikom – bez względu na ich kompetencje. Gromadzenie informacji w centralnym punkcie organizacji umożliwia osadzenie na nich różnych narzędzi Business Inteligence (BI). Warto przy tym dodać, bardzo często korzystają z nich osoby, które nie są techniczne – nie chcą przyglądać się surowym danym, tylko zapoznać się z nimi np. w formie diagramu. Przykładem programu BI jest usługa Amazon QuickSight, która wykorzystując sztuczną inteligencję i „rozumienie” języka naturalnego (angielskiego) – prezentuje użytkownikowi dane, jakich poszukuje. Wystarczy, że wpisze on w okienko wyszukiwania pytanie, np. jaki jest zysk w ostatnim kwartale dla konkretnego produktu, by otrzymać wykres przedstawiający odpowiedź.
W dużej mierze tak to właśnie wygląda. Do tej pory tego typu raporty były tworzone przez wyznaczone do tego osoby, za pomocą różnych narzędzi BI. Opracowany przez nie raport, zawierający na przykład różne wykresy, mógł być potem wykorzystywany przez osoby nietechniczne. Jednak, aby wszystkim ułatwić wgląd w dane i ich interpretację, w firmach wdrażane są narzędzia, które umożliwiają pracownikom samodzielne przeszukiwanie potrzebnych informacji, a następnie są one przedstawianie w przejrzysty i zrozumiały sposób. QuickSight może być porównany do wyszukiwarki internetowej, jednak w tym wypadku obszarem wyszukiwania są wyłącznie dane zgromadzone w firmie.
Jeżeli mówimy o wzorowym postępowaniu, to warto iść, jak wspomniałem wcześniej, dwutorowo – inwestować zarówno w ludzi, jak i technologie. Zaryzykowałbym przy tym stwierdzenie, że nie jest to duża inwestycja. Firmy nie powinny bowiem wydawać dużych pieniędzy na oprogramowanie, które nie wiadomo, czy się przyda i faktycznie zrealizuje wyznaczony cel. Bardzo często zdarza się bowiem, że organizacje kupują „kota w worku”. Dlatego polecam rozwiązania chmurowe, które dają możliwość eksperymentowania i tworzenia typowych jezior danych. Firma nie musi wówczas kupować żadnego oprogramowania. Następnie, w zależności od tego, jakie kompetencje prezentują jej pracownicy oraz czego oczekują (rozwiązania BI do wizualizacji danych czy może analizy za pomocą sztucznej inteligencji) – dodajemy do chmury poszczególne elementy, w formie nakładek.
Nie trzeba inwestować na wyrost. Próg wejścia pozwalający sprawdzić, „czy to jest dla nas” – jest bardzo niski. Korzystając z metody małych kroków, każda firma może stać się przedsiębiorstwem data‑drive.
Absolutnie tak. Bardzo często przy okazji danych pojawia się pojęcie „bagno danych”, które powstaje w wyniku gromadzenia wszelkich danych z pominięciem ich analizy. Dlatego warto podejść do tematu z głową i zadać sobie pytanie, które z tych danych są tak naprawdę istotne, a które być może przydarzą się w przyszłości – i umieścić je w jeziorze danych. Przeprowadzić ich selekcję.
Celem zespołu tworzącego analityczne centra doskonałości nie jest bowiem gromadzenie wszystkich danych w organizacji, lecz rozwiązywanie problemów konkretnych użytkowników. W jeziorze danych powinni zatem umieścić te cyfrowe informacje, które zatrudnieni wykorzystują w swojej codziennej pracy.
Pojęcie kultury organizacyjnej jest mocno powiązane z silosami. W organizacjach bardzo często panuje przekonanie, że dane należą do poszczególnych departamentów. Pracownicy, którzy się w nich znajdują, nie życzą sobie, aby korzystały z nich osoby z innych działów. Dobra kultura organizacji, jeśli chodzi o dostęp do danych, powinna kierować się tym, by wszystkie cyfrowe informacje były udostępniane w ramach całej organizacji. Oczywiście, należy przy tym zachować zasady dotyczące bezpieczeństwa i ograniczyć dostęp np. do danych poufnych.
Dane powinny być własnością organizacji, a nie poszczególnych jednostek i departamentów. Niestety w rzeczywistości bardzo często jest na odwrót. Dlatego tak ważne jest to, co podkreślałem na początku – aby zespół, który powstanie w ramach analitycznego centrum doskonałości był międzyzespołowy, bo ma on czuwać również nad tym, aby wprowadzić w ramach organizacji kulturę dzielenia się danymi.
To jest bardzo często kwestia mentalna, nie ma więc jednego rozwiązania – złotego środka. Czasami wystarczy podać konkretne argumenty. A jeśli mimo to widzimy opór w organizacji, trzeba wyznaczyć osobę, która będzie zajmować odpowiednio wysokie stanowisko. Taką, która tupnie nogą i powie „Basta! Chcemy być organizacją, która podejmuje decyzje na podstawie danych. Mamy się nimi dzielić”.
Jak najbardziej. W zależności od branży, może być to łatwe zadanie albo bardziej skomplikowane. Przykładowo systemy CRM (Customer Relationship Management), takie jak np. aplikacja Salesforce, są świetnym narzędziem do udostępniania interfejsów dla większej liczby użytkowników. Dzięki wprowadzeniu takiego rozwiązania wrogość udostępniania danych jest dużo mniejsza.
Jedną z usług AWS jest Amazon Connect, czyli contact center. Jako dostawca tego rozwiązania zauważamy, że coraz więcej firm korzystających z systemów CRM decyduje się na rozszerzenie ich możliwości o automatyczne połączenia telefoniczne z klientami, by poprawić szybkość reakcji firmy na potrzeby konsumentów. Dzięki takiemu połączeniu pracownik call center, za pośrednictwem interfejsu, z którego korzysta – ma możliwość wglądu w dane użytkownika w czasie rzeczywistym – na podstawie jego numeru. Dzięki temu wie, z kim rozmawia, z jakich usług ta osoba korzysta etc. Ma także informacje o tym, że np. na obszarze jego zamieszkania doszło do awarii, nie musi więc wypytywać o powód rozmowy, bo domyśla się, że w tej sprawie zapewne dzwoni. Ta wiedza umożliwia szybszą reakcję i zaspokojenie potrzeby klienta.
Tego typu przykłady bardzo dobrze pokazują, że zbieranie danych ze wszystkich obszarów w firmie i dzielenie się nimi wpływa na szybkość podejmowania decyzji biznesowych, co przekłada się na pozycję firmy na rynku. Na to, czy znajduje się przed, czy za konkurencją.
16 marca 2020 roku o godzinie 21.26 otrzymałem pilny e‑mail od mojego przyjaciela DJ Patila. Pisał do mnie z kalifornijskiego centrum dowodzenia kryzysowego. Chciał walczyć z COVID‑19 w najlepszy znany mu sposób – za pomocą danych.
Dhanurjay „DJ” Patil był głównym ekspertem ds. danych w Białym Domu, szefem działu technologii w Devoted Health, starszym współpracownikiem Belfer Center w Harvard Kennedy School oraz doradcą w Venrock Partners. Nie pełni się równocześnie tylu ważnych funkcji, chyba że jest się w czymś dobrym. Dla DJ‑a tym „czymś” są matematyka i informatyka.
W swoim mailu DJ wyjaśnił, że współpracuje z gubernatorami z całego kraju, aby opracować model potencjalnego wpływu COVID‑19 na planowanie scenariuszy. Chciał pomóc w odpowiedzeniu na ważne pytania, takie jak: „Ile łóżek szpitalnych będziemy potrzebować?”, „Czy możemy zmniejszyć rozprzestrzenianie się wirusa, jeśli tymczasowo zamkniemy miejsca, w których gromadzą się ludzie?” i „Czy powinniśmy wydać nakaz pozostania w domu i na jak długo?”. Choć nikt nie jest w stanie przewidzieć przyszłości, modelowanie wirusa za pomocą wszystkich znanych czynników okazało się najlepszą szansą na pomoc przywódcom w podejmowaniu świadomych decyzji, które miały wpłynąć na życie setek tysięcy osób. W tym celu DJ zebrał zespół wolontariuszy, który składał się z najbystrzejszych umysłów zarówno z Doliny Krzemowej, jak i pozostałych części kraju. Niczym po wezwaniu do broni ci profesjonaliści zebrali się osobiście, aby walczyć z COVID‑19 w najlepszy znany im sposób, czyli z wykorzystaniem danych.
Dobra wiadomość jest taka, że mieli model. I to nie byle jaki model. DJ i jego zespół pracowali na tym, który został opracowany przede wszystkim przez naukowców ze światowej sławy Johns Hopkins Bloomberg School of Public Health (JHSPH). Model ten, który jest projektem typu open source, wykorzystuje dane o ludności stanu lub powiatu (wraz z danymi dotyczącymi transportu) do modelowania liczby osób, które potencjalnie mogłyby być narażone, zakażone i/lub hospitalizowane. Uwzględnia również rozprzestrzenianie się wirusa na podstawie różnych interwencji niefarmaceutycznych, w tym zamykaniu szkół i parków oraz wydawaniu nakazów kwarantanny.
Niemniej ów model funkcjonował w lokalnej strukturze JHSPH i nie mógł być skalowalny w celu uruchomienia dużej liczby scenariuszy jednocześnie, aby zaspokoić potrzeby kraju (i potencjalnie świata). Był on również zbyt wolny. Aby uzyskać wymaganą skalę i szybkość, DJ i jego zespół musieli uruchomić model w chmurze, więc przenieśli swój lokalny kod do Amazon Web Services (AWS). Doprowadziło to do kolejnego wyzwania, ponieważ skrypt ten nie został początkowo napisany z myślą o chmurze, więc nie mógł w pełni wykorzystać skali i optymalizacji możliwych dzięki AWS. W rezultacie zespół DJ‑a spędził tydzień na przenoszeniu i uruchamianiu jednego scenariusza dla Kalifornii, który wciąż nie był wystarczająco szybki. Wyobraźcie sobie teraz, ile czasu zajęłoby skalowanie tego procesu dla 49 kolejnych stanów. Wymagałoby to co najmniej miesięcy pracy, a dodanie wielu scenariuszy z różnymi zmiennymi jeszcze bardziej by go opóźniło. Ekipa DJ‑a nie miała tyle czasu, bo jak mówi dr Anthony Fauci, dyrektor Narodowego Instytutu Alergii i Chorób Zakaźnych: „To nie ty kontrolujesz czas. To wirus go kontroluje”
16 marca 2020 roku o godzinie 21.26 otrzymałem pilny e‑mail od mojego przyjaciela DJ Patila. Pisał do mnie z kalifornijskiego centrum dowodzenia kryzysowego. Chciał walczyć z COVID‑19 w najlepszy znany mu sposób – za pomocą danych.
Dhanurjay „DJ” Patil był głównym ekspertem ds. danych w Białym Domu, szefem działu technologii w Devoted Health, starszym współpracownikiem Belfer Center w Harvard Kennedy School oraz doradcą w Venrock Partners. Nie pełni się równocześnie tylu ważnych funkcji, chyba że jest się w czymś dobrym. Dla DJ‑a tym „czymś” są matematyka i informatyka.
W swoim mailu DJ wyjaśnił, że współpracuje z gubernatorami z całego kraju, aby opracować model potencjalnego wpływu COVID‑19 na planowanie scenariuszy. Chciał pomóc w odpowiedzeniu na ważne pytania, takie jak: „Ile łóżek szpitalnych będziemy potrzebować?”, „Czy możemy zmniejszyć rozprzestrzenianie się wirusa, jeśli tymczasowo zamkniemy miejsca, w których gromadzą się ludzie?” i „Czy powinniśmy wydać nakaz pozostania w domu i na jak długo?”. Choć nikt nie jest w stanie przewidzieć przyszłości, modelowanie wirusa za pomocą wszystkich znanych czynników okazało się najlepszą szansą na pomoc przywódcom w podejmowaniu świadomych decyzji, które miały wpłynąć na życie setek tysięcy osób. W tym celu DJ zebrał zespół wolontariuszy, który składał się z najbystrzejszych umysłów zarówno z Doliny Krzemowej, jak i pozostałych części kraju. Niczym po wezwaniu do broni ci profesjonaliści zebrali się osobiście, aby walczyć z COVID‑19 w najlepszy znany im sposób, czyli z wykorzystaniem danych.
Dobra wiadomość jest taka, że mieli model. I to nie byle jaki model. DJ i jego zespół pracowali na tym, który został opracowany przede wszystkim przez naukowców ze światowej sławy Johns Hopkins Bloomberg School of Public Health (JHSPH). Model ten, który jest projektem typu open source, wykorzystuje dane o ludności stanu lub powiatu (wraz z danymi dotyczącymi transportu) do modelowania liczby osób, które potencjalnie mogłyby być narażone, zakażone i/lub hospitalizowane. Uwzględnia również rozprzestrzenianie się wirusa na podstawie różnych interwencji niefarmaceutycznych, w tym zamykaniu szkół i parków oraz wydawaniu nakazów kwarantanny.
Niemniej ów model funkcjonował w lokalnej strukturze JHSPH i nie mógł być skalowalny w celu uruchomienia dużej liczby scenariuszy jednocześnie, aby zaspokoić potrzeby kraju (i potencjalnie świata). Był on również zbyt wolny. Aby uzyskać wymaganą skalę i szybkość, DJ i jego zespół musieli uruchomić model w chmurze, więc przenieśli swój lokalny kod do Amazon Web Services (AWS). Doprowadziło to do kolejnego wyzwania, ponieważ skrypt ten nie został początkowo napisany z myślą o chmurze, więc nie mógł w pełni wykorzystać skali i optymalizacji możliwych dzięki AWS. W rezultacie zespół DJ‑a spędził tydzień na przenoszeniu i uruchamianiu jednego scenariusza dla Kalifornii, który wciąż nie był wystarczająco szybki. Wyobraźcie sobie teraz, ile czasu zajęłoby skalowanie tego procesu dla 49 kolejnych stanów. Wymagałoby to co najmniej miesięcy pracy, a dodanie wielu scenariuszy z różnymi zmiennymi jeszcze bardziej by go opóźniło. Ekipa DJ‑a nie miała tyle czasu, bo jak mówi dr Anthony Fauci, dyrektor Narodowego Instytutu Alergii i Chorób Zakaźnych: „To nie ty kontrolujesz czas. To wirus go kontroluje”
W jaki sposób przeprowadzić w przedsiębiorstwie transformację chmurową? Czy lider takiej zmiany powinien wywodzić się z biznesu, a może działu IT? – na te i inne pytania odpowiada Tomasz Stachlewski, CEE Senior Solutions Architecture Manager w Amazon Web Services (AWS). Rozmawia Paulina Kostro.
Jak zmienia się firma pod wpływem chmury obliczeniowej?
Gdy popatrzymy na przykłady z Polski czy w szczególności z Europy Zachodniej i Stanów Zjednoczonych, widzimy, że firmy, które od lat mają w swoich strukturach działy IT, są często podzielone na dwa obozy. Z jednej strony mamy wspomniany zespół informatyków, a z drugiej pozostałe działy skupiające się na biznesie. Pierwsza grupa, która często liczy tysiące osób, czuwa przede wszystkim nad tym, aby „światło ciągle się świeciło”, czyli by serwery nieustannie działały. Niewielki promil informatyków skupia się na tym, co może dostarczyć pozostałym działom, aby ułatwić im osiąganie wyznaczonych celów biznesowych.
Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!