Reklama
Dołącz do liderów przyszłości i zdobądź przewagę! Sprawdź najnowszą ofertę subskrypcji
Automatyzacja i robotyzacja

Czego AI (na razie) nie potrafi bez pomocy człowieka

27 października 2022 20 min czytania
Zdjęcie Thomas H. Davenport - Profesor informatyki i zarządzania w Babson College w Wellesley, w stanie Massachusetts, członek MIT Initiative on the Digital Economy (Inicjatywy MIT na rzecz Gospodarki Cyfrowej) oraz NewVantage Partners. Starszy doradca w Deloitte Analytics.
Thomas H. Davenport
Czego AI (na razie) nie potrafi bez pomocy człowieka

Gdy przyglądamy się pracy maszyn, o wiele częściej jesteśmy świadkami sytuacji, w których wspomagają one pracę człowieka, niż gdy działają samodzielnie. Oczekuje się, że ten schemat utrzyma się w przewidywalnej przyszłości.

Prawie 30 lat temu Robert j. Thomas, wówczas profesor MIT, opublikował książkę What Machines Can’t Do (Czego maszyny nie mogą dokonać). Skupiał się w niej na technologii produkcji i przekonywał, że maszyny nie są jeszcze gotowe, by całkiem przejąć fabryki z rąk ludzi. Chociaż ostatnie osiągnięcia w dziedzinie sztucznej inteligencji znacznie podniosły zdolności maszyn, nadal jest wiele czynności, których nie są jeszcze w stanie wykonać albo przynajmniej nie są w stanie zrobić tego w sposób wysoce skuteczny.

Systemy AI mogą się dobrze spisywać w laboratorium badawczym albo w warunkach wysoce kontrolowanych zastosowań, lecz nadal potrzebują pomocy człowieka w typowych warunkach pracy, które badaliśmy na potrzeby nowej książki Working With AI: Real Stories of Human‑Machine Collaboration (Praca z AI: prawdziwe historie współpracy człowieka z maszyną). W trzydziestu opisanych w niej przypadkach pracownicy wyraźnie pozostawali istotnym czynnikiem.

W tym artykule wykorzystamy niektóre wspomniane w książce przykłady, by przedstawić listy procesów wykorzystujących sztuczną inteligencję, a mimo to nadal wymagających udziału człowieka. Są to zadania, w przypadku których organizacje powinny wciąż inwestować w kapitał ludzki i w których specjalistyczny personel może liczyć w najbliższej przyszłości na ciągłość zatrudnienia.

Obecne ograniczenia AI w miejscu pracy

Sztuczna inteligencja z czasem zyskuje coraz większy potencjał, a zatem nie da się uzyskać jednej niezmiennej odpowiedzi na to, co maszyny już potrafią, a czego jeszcze nie umieją. Być może czytelnik tego artykułu w 2032 roku uzna, że przedstawione w nim ograniczenia AI są komicznie rozmijające się z prawdą. Na razie jednak ważne jest, aby nie oczekiwać od AI więcej, niż może zaoferować. Przedstawiamy niektóre z jej istotnych dzisiejszych ograniczeń.

Zrozumienie kontekstu. AI nie rozumie jeszcze szerszego kontekstu, w którym funkcjonuje biznes oraz tego związanego z zadaniem powierzonym jej do wykonania. Dostrzegliśmy ten problem w wielu przypadkach. Jeden z nich dotyczy sytuacji oceny poziom ryzyka ubezpieczeniowego dokonywanego przez AI na podstawie wielu danych zawartych w dokumentacji medycznej wnioskodawcy, lecz bez zrozumienia kontekstu sytuacyjnego. Na przykład jeden z powszechnie przepisywanych leków zmniejsza nudności zarówno u pacjentów chorych poddawanych chemioterapii, jak i u kobiet w ciąży cierpiących na poranne mdłości. Jak dotąd algorytm nie potrafi rozróżnić tych dwóch sytuacji przy ocenie ryzyka ubezpieczeniowego związanego z taką receptą.

Poznaliśmy również sytuacje, w których systemy AI nie mogły poznać kontekstu relacji pomiędzy ludźmi. Na przykład aplikacja do zbierania funduszy na uniwersytecie wybiera potencjalnych darczyńców i przygotowuje dla nich e‑mail, lecz może nie wiedzieć np. o niedawnej śmierci w rodzinie darczyńcy (co może sprawić, że moment na prośbę o darowiznę będzie niestosowny) lub o niedawnym zwycięstwie ewentualnego darczyńcy w uniwersyteckich mistrzostwach sportowych (o którym być może należałoby wspomnieć w e‑mailu). Obecnie nie ma dobrego sposobu na uwzględnienie szerokiego i zniuansowanego kontekstu ani w algorytmach matematycznych, ani w regułach i wydaje się mało prawdopodobne, by coś w tej kwestii w najbliższym czasie się zmieniło.

Nadawanie priorytetów alertom. Systemy komputerowe, czujniki oraz bazujące na sztucznej inteligencji systemy analizy obrazu i dźwięku często generują alerty, zarówno związane z bezpieczeństwem, zdrowiem, jak i te wynikające z jakiegoś kłopotu samego urządzenia W studium przypadku alertów bezpieczeństwa w dużym centrum handlowym połączonym z singapurskim lotniskiem Changi okazało się, że do filtrowania i nadawania priorytetów alertom niezbędna jest asysta człowieka. W złożonych i stale zmieniających się okolicznościach systemy AI często nie są w stanie odróżnić uzasadnionych i ważnych powodów do wszczęcia alarmu od niepotrzebnych lub mniej istotnych. Chociaż systemy nadzoru AI są bardzo dobre w ustalaniu prawdopodobieństwa słuszności najbardziej oczywistych alarmów, nadal niezbędny jest udział pracowników ochrony i operatorów systemu.

Podobny proces i zestaw wyzwań odnotowano w singapurskim DBS Bank, gdzie sztuczna inteligencja i ludzie ściśle współpracują w celu zapobiegania praniu brudnych pieniędzy i innym rodzajom oszustw. System AI starszej generacji, bazujący na regułach, uruchamiał alarm w przypadku transakcji, które uznał za podejrzane, ale w efekcie wiele z nich było fałszywych. I wprawdzie system AI nowszej generacji, oparty na uczeniu maszynowym, nadaje im priorytet, ludzie nadal angażowani są w ich weryfikację.

Ocena elementów subiektywnych. Jeden z menedżerów, z którymi rozmawialiśmy w DBS, powiedział, że zawsze będzie potrzebny człowiek, ponieważ „zawsze będą istniały elementy subiektywne w ocenie tego, co jest, a co nie jest podejrzane”. Mogą one obejmować rozszerzone służbowe, osobiste albo rodzinne relacje klienta lub też wcześniejsze kontakty z pracownikami banku. Być może w pewnym momencie AI będzie w stanie ocenić uczciwość i wiarygodność osoby poprzez analizę obrazów twarzy i wzorców głosu – niektóre instytucje finansowe w Chinach już posługują się tym rozwiązaniem. Naszym zdaniem bardziej efektywne jest jednak zatrudnienie ludzi dokonujących subiektywnych osądów w celu uzupełnienia algorytmicznych ocen sztucznej inteligencji opartych na danych, zwłaszcza gdy na ocenę silnie wpływają czynniki kulturowe, kontekstowe i subiektywne. Oczywiście zarówno ludzie, jak i maszyny mogą być stronniczy w swoich ocenach, a ludzkie uprzedzenia mogą zostać czasem nieumyślnie „wdrukowane” w algorytmy uczenia maszynowego. Dlatego aby zminimalizować stronniczości jednej lub drugiej strony, warto, by decyzje maszyn były sprawdzane przez ludzi i vice versa.

Analiza tonu komunikatu. Firma Intuit, produkująca oprogramowanie finansowe, wprowadziła narzędzie do poprawy gramatyki i języka dla wewnętrznie opracowywanych treści. Wprawdzie system AI mógł wygenerować wiele poprawnych pod względem gramatycznym i stylistycznym komunikatów, to jednak nie potrafił dostosować tonu wypowiedzi. Ten problem występuje również w przypadku opartej na sztucznej inteligencji analityce mediów społecznościowych, która miała trudności ze zrozumieniem sarkazmu. Nawet najbardziej sprawne narzędzia do generowania języka naturalnego generują czasem treści dla ludzi wręcz obraźliwe. Wydaje się więc prawdopodobne, że ludzie będą musieli nadal oceniać ten aspekt, aby upewnić się, że tekst przygotowany przez AI jest dla człowieka akceptowalny.

Zrozumienie sytuacji i potrzeb emocjonalnych. Współpraca pomiędzy człowiekiem a sztuczną inteligencją, którą zaobserwowaliśmy w Stitch Fix, internetowym sklepie z odzieżą, wyróżniającym się systemem polecania produktów, doskonale przedstawia kluczowe niedociągnięcie sztucznej inteligencji. System AI rekomenduje elementy odzieży, które klienci prawdopodobnie kupią, lecz nie jest w stanie uwzględnić potrzeb emocjonalnych związanych ze specjalnymi okazjami. Klienci są zachęcani do zamieszczania dodatkowych sugestii, które miałyby być wzięte przy przygotowywaniu rekomendacji, takich jak „Mój mąż wraca z misji zagranicznej” albo „Właśnie zaczynam nową pracę i muszę się ubrać tak, aby zrobić wrażenie”, ale AI oczywiście nie wie, co z nimi zrobić. Możliwość wykorzystania takich komentarzy jest jednym z powodów, dla których Stitch Fix zatrudnia tysiące ludzkich stylistów. Dopiero dzięki nimi system rekomendacji wykorzystujący AI zyskuje sens. Zrozumienie emocji może okazać się jedną z ostatnich rzeczy, które AI nauczy się robić, jeżeli kiedykolwiek tego dokona. W przewidywalnej przyszłości ludzie wydają się być niezagrożeni w tej roli.

Ocena i wybór najlepszej opcji. Sztuczna inteligencja jest dobra w podejmowaniu wstępnych decyzji, lecz gdy decyzja ma istotne znaczenie, to człowiek często musi się w nią zaangażować i wydać ostateczny osąd. Tak dzieje się np. w Morgan Stanley, gdzie system „najlepsze dostępne opcje”, wykorzystujący uczenie maszynowe, wskazuje spersonalizowane możliwości inwestycyjne dla klientów firmy i sugeruje je doradcom finansowym, którzy następnie rozstrzygają, które z nich zaproponować swoim klientom.

Kwestia „najlepszej opcji” nabiera innego wymiaru, gdy pojawiają się pytania dotyczące zagrożenia życia – jak w sytuacjach związanych z opieką zdrowotną, w których ludzie i sztuczna inteligencja współpracują, by postawić właściwą diagnozę i wdrożyć leczenie. Na przykład inteligentny system telemedyczny Good Doctor, funkcjonujący w Chinach i Azji Południowo‑Wschodniej, wykorzystuje AI do przedstawiania zaleceń dotyczących triażu oraz leczenia dla setek milionów pacjentów. Widzieliśmy również aplikację do obrazowania stosowaną w dermatologii, w której AI pomagała w rejestrowaniu i prezentowaniu odpowiednich obrazów dermatologowi. W obu przypadkach lekarz podejmował jednak ostateczną decyzję o diagnozie i sposobie leczenia.

Szczególnie w medycynie ważnym warunkiem sukcesu wdrożenia AI jest ograniczenie ambicji jej twórców. Chociaż w przyszłości sztuczna inteligencja może być w stanie przedstawiać kompleksowe oraz poprawne diagnozy i propozycje leczenia bezpośrednio pacjentom, dziś możliwości jej pozostają ograniczone.

Określenie ram problemów, a następnie uczenie i doskonalenie. To niemal cud, że AI może teraz automatycznie generować modele uczenia maszynowego, jak w przypadku, który badaliśmy w sieci supermarketów Kroger i jej spółce zależnej 84.51°, zajmującej się data science. Automatyzacja niektórych zadań związanych z data science jest ironicznym afrontem dla wyjątkowo inteligentnych naukowców zajmujących się tą dziedziną. Niektórzy z doświadczonych specjalistów w 84.51° początkowo obawiali się, że trafią do świata, w którym ich ciężko wypracowana wiedza na temat algorytmów i metod nie będzie miała żadnej wartości. Naukowcy z Kroger z ulgą stwierdzili jednak, że AI przede wszystkim nie potrafi ująć w ramy problemu, który ma być rozwiązany, ani znaleźć danych, które pozwolą na jego rozwiązanie. Tylko człowiek może wskazać zestawy danych mogące wyłonić dostępne opcje i wybrać decyzje, które należy podjąć.

Naukowcy zajmujący się danymi w 84.51° spędzili również sporo czasu na szkoleniu, doskonaleniu i recenzowaniu pracy mniej doświadczonych osób, korzystających z możliwości automatycznego uczenia maszynowego. Podobne postępowanie zaobserwowaliśmy również w wielu innych firmach i uważamy, że miejsca pracy większości naukowców zajmujących się danymi pozostaną w takiej sytuacji przez jakiś czas niezagrożone.

Tworzenie informacji i przekazywanie ich do systemu. Natrafiliśmy na wdrożenie wspomaganej przez AI rozszerzonej rzeczywistości, która miała być stosowana do szkolenia pracowników amerykańskiej firmy produkcyjnej o nazwie PBC Linear. Ten przykład dowodzi, że nim AI się czegoś dowie, to wiedzy muszą dostarczyć jej ludzie. Doświadczeni operatorzy maszyn byli potrzebni do opracowania materiałów szkoleniowych, które następnie mogły być wykorzystane przez nowicjuszy za pośrednictwem systemu zarządzania uczeniem się oraz zestawu Augmented Reality. System sprawuje się dobrze, lecz przede wszystkich dlatego, że został stworzony przez ludzi. Sztuczna inteligencja nie będzie w stanie w najbliższym czasie wydobyć i odpowiednio uporządkować wiedzy o pracy pochodzącej z doświadczonych ludzkich umysłów.

Nadzór nad założeniami analitycznymi. Sztuczna inteligencja może dokonywać różnych analiz, ale nie może odbywać się to bez udziału człowieka, który ustala proces analizy i opis warunków. Znaleźliśmy dwa przykłady – opartą na sztucznej inteligencji aplikację służącą do konserwacji predykcyjnej (wyprzedzającej ewentualne awarie) lokomotyw spalinowych znajdujących się na wyposażeniu Agencji Transportu Zatoki Massachusetts (Massachusetts Bay Transportation Authority, MBTA) oraz system AI do automatycznej kontroli wizualnej obwodów głowic dysków w firmie Seagate, zajmującej się przechowywaniem danych. W obu przypadkach algorytm skutecznie analizował dane i zalecał odpowiednie działania. Jednak żadna z powyższych analiz nie mogła się odbyć bez zdefiniowania, zebrania i usystematyzowania danych przez ludzi, którzy zaprojektowali i skonfigurowali aparaturę oraz nadzorowali, czy proces przebiega poprawnie. Sztuczna inteligencja doskonale radzi sobie z rozwiązywaniem problemów, które człowiek do niej skierował, lecz sama nie wie, od czego zacząć.

Zrozumienie złożonych, zintegrowanych podmiotów. Oczywiste jest, że sztuczna inteligencja może zapewnić przydatne prognozy i spostrzeżenia dotyczące złożonych, połączonych ze sobą podmiotów. Odkryliśmy tę zdolność w przypadku urzędu transportu lądowego w Singapurze. Ta rządowa agencja za pomocą AI monitoruje i wykrywa anomalie w złożonej sieci miejskiego transportu kolejowego na terenie kraju. Jednak jej analizy nie były na tyle dokładne i wiarygodne, by wyeliminować potrzebę zatrudniania pracowników w centralnym ośrodku monitorowania operacji. Jak twierdzą tamtejsi menedżerowie, cenne jest to, że sztuczna inteligencja i powiązane systemy powiadamiają pracowników o problemach z tranzytem, a „to daje nam możliwość podejmowania świadomych decyzji dotyczących sposobu rozwiązania problemu”. Sieć tranzytowa jest zbyt złożona, aby przekazać zarządzanie nią „w ręce” nawet najlepszej AI.

Zachowanie rozwagi przy wykorzystywaniu AI. Nawet jeśli z technicznego punktu widzenia sztuczna inteligencja jest w stanie wykonać jakieś zadanie, może wcale nie być w tym dobra. Badaliśmy wykorzystanie Flippy’ego, robota przewracającego hamburgery, używanego w kilku sieciach restauracji. Kierownik jednej z placówek zdecydował, że Flippy jest dobry w smażeniu, lecz nie jest wystarczająco sprawny w przerzucaniu hamburgerów, by go zatrudnić. Wątpimy, by Flippy był świadomy swoich wad i jest to z reguły stwierdzenie prawdziwe w przypadku każdej sztucznej inteligencji. Tylko ludzie mogą więc zdecydować, czy sztuczna inteligencja powinna być wykorzystana w danym procesie.

Rozważanie następstw etycznych. Firmy zaczynają zdawać sobie sprawę, że systemy AI mogą powodować istotne konsekwencje dla organizacji, pracowników i społeczeństwa. Sztuczna inteligencja nie wie, czym jest etyka, a ludzie owszem. Jak dotąd liderami w podejmowaniu działań dotyczących kwestii etycznych w sektorze komercyjnym są firmy programistyczne, być może dlatego, że w ich branży występuje najwięcej potencjalnych problemów etycznych.

Badany przez nas przypadek praktyki dotyczącej etycznego wymiaru funkcjonowania AI w firmie Salesforce stanowi dobry przykład tego, czego mogą dokonać ludzie. Członkowie tej grupy organizują kampanie wewnątrz i na zewnątrz organizacji, prowadzą coaching, opracowują wytyczne oraz strategie w zakresie etyki, a także pomagają w opracowaniu i wdrażaniu modeli oraz narzędzi wspierających ten proces. Jest mało prawdopodobne, by w ciągu naszego życia zadania te zostały przejęte przez samą sztuczną inteligencję.

Sprawa związana z wykorzystaniem opartej na AI technologii wykrywania strzałów z broni oraz zaleceń dotyczących patrolowania ulic w Departamencie Policji w Wilmington w Karolinie Północnej stwarzała potencjalnie problematyczne kwestie etyczne. Pracownicy ShotSpotter, dostawcy obu tych aplikacji, podjęli wiele działań mających na celu rozwiązanie lub złagodzenie takich problemów i uwzględnili je w swoim oprogramowaniu. Na przykład w przypadku zaleceń dotyczących patrolowania ulic system nie posługuje się żadnymi danymi osobowymi do prognozowania przestępstw, a żaden obywatel nigdy nie jest identyfikowany przez system. Alarmy dotyczące użycia broni palnej są wysyłane tylko do centrum dowodzenia ShotSpottera i są weryfikowane przez specjalistów w celu sprawdzenia, czy źródłem alarmu był rzeczywiście wystrzał czy inny podobny dźwięk. Dopiero po weryfikacji wysyłane jest powiadomienie do jednostek policji. Oczywiście policja musi zachować dużą ostrożność w sposobie zastosowania danych dotyczących użycia broni, aby nie wykorzystać ich w niewłaściwy sposób. Jest to kolejny wymiar rozważań etycznych, który wymaga ludzkiego osądu.

Poprawianie własnych błędów. Ciekawy jest przypadek maszyny do pielenia wykorzystującej system analizy obrazu AI. Jego zadaniem było rozróżnianie chwastów od upraw sałaty, a następnie automatyczne ich usuwanie. Jednak nawet tej maszynie towarzyszył człowiek, wypatrujący oznak problemów mechanicznych albo związanych z oprogramowaniem. Gdyby coś poszło nie tak, miał możliwość skorzystania ze zdalnej pomocy zespołu ekspertów. Owszem, AI są na tyle sprytne, że same mogą zasugerować ludziom swoją naprawę, ale nie rozwiążą każdego możliwego problemu, szczególnie fizycznego. Ludzie pozostaną niezbędni do korygowania systemów AI od czasu do czasu, a pracownicy serwisów mogą liczyć na wieloletnie zatrudnienie.

Zarządzanie zmianami organizacyjnymi. Kilka z analizowanych przez nas przypadków wskazuje na potrzebę zmian organizacyjnych, o ile systemy sztucznej inteligencji mają w nich być skutecznie wykorzystywane. Zastosowanie samego systemu zarządzania zmianami organizacyjnymi opartego na AI do wykonywania tego rodzaju zadań wydaje się mało prawdopodobne nawet przy najbardziej optymistycznych założeniach.

W firmie Southern California Edison system AI informował, które z zadań wykonywanych przez ludzi obsługujących w terenie sieć energetyczną mogą być potencjalnie niebezpieczne. Nim system ostatecznie został wdrożony przez interesariuszy, konieczna była ich długotrwała edukacja i lobbing.

Podobnie w Morgan Stanley system AI wskazujący „najlepsze dostępne opcje” został wprowadzony do firmy jako element całkowicie dobrowolny, a doradców zachęcano do jego przyjęcia poprzez zastosowanie nieformalnej perswazji, wprowadzanie kolejnych ułatwień podczas pracy z AI oraz publikowanie wewnątrz firmy informacji dowodzących, że doradcy korzystający z AI osiągali lepsze wyniki finansowe.

Tylko ludzie potrafią przekonać interesariuszy do przyjęcia nowego podejścia, skoordynować złożone zmiany pomiędzy różnymi funkcjami oraz zrozumieć, dlaczego ludzie opierają się przed użyciem nowego systemu.

Zapewnienie satysfakcji z pracy i pielęgnowanie zaangażowania. W Radius Financial Group, firmie zajmującej się kredytami hipotecznymi, zaobserwowaliśmy, że pracownicy byli bardzo zaangażowani i odczuwali satysfakcję z pracy pomimo intensywnego wykorzystania sztucznej inteligencji i automatyzacji oraz ścisłego monitorowania indywidualnej wydajności za pomocą danych i analityki. Ludzie mówili nam, że lubią swoją pracę ze względu na innych ludzi, którzy są w niej zatrudnieni.

Współgrało to z innymi komentarzami, z jakimi spotkaliśmy się w innych firmach, i sugerowało, że to ludzki element zarządzania oraz relacje koleżeńskie prowadzą do pozytywnych emocji związanych z pracą. Podejście firmy do zaangażowania ludzi może przeciwdziałać „dehumanizującemu” wpływowi sztucznej inteligencji i innych technologii.

Co zrobić z ograniczeniami sztucznej inteligencji i jak wykorzystać mocne strony człowieka

Pojawienie się w organizacji pracy obszarów, w których ludzie są lepsi od sztucznej inteligencji – przynajmniej jak dotąd – jest sprawą dość oczywistą. Jeśli AI ma podejmować decyzje, w większości przypadków powinno się zadbać o to, by ludzie mogli je zmieniać, tak jak to robi Stitch Fix w przypadku narzędzia służącego do podpowiadania stylizacji. Organizacje mogą chcieć monitorować dokonywane przez ludzi zmiany, aby oceniać ich częstotliwość oraz skuteczność. Ten rodzaj oceny może pomóc zarówno projektantom systemu, jak i osobom współpracującym z narzędziem wsparcia przez sztuczną inteligencję.

Eksperci od sztucznej inteligencji powinni poświęcać czas na rozmowy z menedżerami i pracownikami, wyjaśniając im, co AI może, a czego nie może dokonać. Powinny to być dyskusje dotyczące konkretnych zastosowań i dziedzin, ponieważ możliwości sztucznej inteligencji są bardzo rozległe i mogą być wykorzystywane na wiele różnych sposobów. Eksperci i menedżerowie powinni wprowadzać systemy AI krok po kroku do poszczególnych zadań, zamiast fundować organizacjom i pracownikom rewolucję na miarę „wielkiego wybuchu”. Nie jest też złym pomysłem, aby – tak jak zrobił to Morgan Stanley – dać pracownikom pewien wpływ na to, czy i kiedy zaadaptują możliwości AI na swoich stanowiskach pracy, przynajmniej w początkowych fazach wdrażania.

Wszyscy zaangażowani w problematykę AI, w tym jej twórcy oraz potencjalni użytkownicy, powinni zrozumieć, że wdrożenie sztucznej inteligencji jest działaniem związanym z zarządzaniem zmianą. Dlatego liderzy powinni przewidzieć budżet potrzebny na ocenę tej zmiany i ewentualne interwencje związane z procesem wdrażania AI oraz upewnić się, że zespoły dysponują niezbędnymi w procesie zmiany umiejętnościami.

Rozsądnym podejściem w organizacjach planujących redukcję ludzkich miejsc pracy na rzecz AI będzie wprowadzanie takiej zmiany powoli. Etyczne zarządzanie wymaga oczywiście też, by pracodawcy działali transparentnie, wyraźnie informując pracowników o przyszłych perspektywach zawodowych i o tym, jak AI może na nie wpłynąć. Dzięki temu ludzie będą mogli przygotować się do pełnienia takich ról zawodowych, które będą współgrać z AI, albo poszukać alternatywnych miejsc zatrudnienia. Stwierdziliśmy jednak, że utrata miejsc pracy na dużą skalę spowodowana przez sztuczną inteligencję jest zjawiskiem dość rzadkim i uważamy, że większość organizacji odnosi większe korzyści ze współpracy człowieka z maszyną niż z zastąpienia nią wszystkich ludzi.

O autorach
Tematy

Może Cię zainteresować

• Jak generować wartość z AI dzięki małym transformacjom w biznesie - Webster
Premium
Jak generować wartość z AI dzięki małym transformacjom w biznesie

Liderzy skutecznie wykorzystują duże modele językowe, stopniowo minimalizując ryzyko i tworząc solidne fundamenty pod przyszłe transformacje technologiczne, dzięki czemu generują realną wartość dla swoich organizacji.

Niespełna dwa lata temu generatywna sztuczna inteligencja (GenAI) trafiła na czołówki stron gazet, zachwycając swoimi niezwykłymi możliwościami: mogła prowadzić rozmowy, analizować ogromne ilości tekstu, dźwięku i obrazów, a nawet tworzyć nowe dokumenty i dzieła sztuki. To najszybsze w historii wdrożenie technologii przyciągnęło ponad 100 mln użytkowników w ciągu pierwszych dwóch miesięcy, a firmy z różnych branż rozpoczęły eksperymenty z GenAI. Jednak pomimo dwóch lat intensywnego zainteresowania ze strony kierownictwa i licznych prób wdrożeniowych nie widać wielkoskalowych transformacji biznesowych, które początkowo przewidywano. Co się stało? Czy technologia nie spełniła oczekiwań? Czy eksperci się pomylili, wzywając do gigantycznych zmian? Czy firmy były zbyt ostrożne? Odpowiedź na te pytania brzmi: i tak, i nie. Generatywna sztuczna inteligencja już teraz jest wykorzystywana w wielu firmach, ale nie – jako lokomotywa radykalnej transformacji procesów biznesowych. Liderzy biznesu znajdują sposoby, by czerpać realną wartość z dużych modeli językowych (LLM), nie modyfikując całkowicie istniejących procesów. Dążą do małych zmian (small t) stanowiących fundament pod większe przekształcenia, które dopiero nadejdą. W tym artykule pokażemy, jak robią to dzisiaj i co możesz zrobić, aby tworzyć wartość za pomocą generatywnej sztucznej inteligencji.

Premium
Polski przemysł na rozdrożu

Stoimy przed fundamentalnym wyborem: albo dynamicznie przyspieszymy wdrażanie automatyzacji i robotyzacji, co sprawi, że staniemy się aktywnym uczestnikiem czwartej rewolucji przemysłowej, albo pogodzimy się z perspektywą erozji marż pod wpływem rosnących kosztów operacyjnych i pogłębiającego się strukturalnego niedoboru wykwalifikowanej siły roboczej.

Jak alarmują prognozy Polskiego Instytutu Ekonomicznego, do 2030 r. w samej Europie może zabraknąć nawet 2,1 mln wykwalifikowanych pracowników, co czyni automatyzację nie jedną z możliwości, lecz strategiczną koniecznością. Mimo że globalnie liczba robotów przemysłowych przekroczyła już 4,2 mln jednostek, a w Europie w 2023 r. wdrożono rekordowe 92,4 tys. nowych robotów, Polska wciąż pozostaje w tyle. Nasz wskaźnik gęstości robotyzacji, wynoszący zaledwie 78 robotów na 10 tys. pracowników przemysłowych, znacząco odbiega od europejskiego lidera – Niemiec (397 robotów na 10 tys. pracowników), czy globalnego pioniera – Korei Południowej (tysiąc robotów na 10 tys. pracowników). W Scanway – firmie, która z sukcesem łączy technologie rozwijane dla sektora kosmicznego z potrzebami przemysłu – jesteśmy przekonani, że przyszłość konkurencyjności leży w inteligentnym wykorzystaniu danych, zaawansowanej automatyzacji opartej na AI oraz strategicznej gotowości do wprowadzania zmian technologicznych. Czy jednak zaawansowana wizja maszynowa napędzana przez sztuczną inteligencję może się stać katalizatorem, który pozwoli sprostać wyzwaniom i odblokować uśpiony potencjał innowacyjny polskiej gospodarki?

Premium
Zamień konflikt we współpracę

Destrukcyjny konflikt w zespole zarządzającym może zahamować rozwój organizacji. Skuteczne zarządzanie takimi napięciami wymaga od liderów świadomego odejścia od rywalizacji o władzę na rzecz współpracy oraz strategicznego, systemowego myślenia.

Konflikt w zespole zarządzającym, szczególnie wtedy gdy przeradza się w trwały, emocjonalny antagonizm, staje się realnym zagrożeniem dla efektywności całej organizacji. Studium przypadku firmy X-Style.

Jak zapewnić stabilność i elastyczność na rynku zielonej energii?

Dynamiczne zmiany na rynku energii oraz rosnące znaczenie OZE i celów ESG stawiają przed firmami nowe wyzwania. W tym kontekście Reo.pl (Grupa Enerconet) kładzie nacisk na elastyczność, dogłębną analizę potrzeb klienta i transparentność danych. O strategiach budowania długoterminowych relacji i zapewniania przewidywalności w sektorze odnawialnym opowiada Grzegorz Tomasik, prezes Reo.pl. 

Reo.pl działa na polskim rynku od 2022 roku. Jakie wyzwania napotkali państwo przy wprowadzaniu elastyczności i dostosowywaniu się do dynamicznych zmian w sektorze OZE?

Chociaż marka Reo.pl powstała na początku 2022 r., nasza grupa – Enerconet – działa na rynku energetycznym już od 2007 r. Ta wieloletnia obecność w sektorze OZE i doświadczenie w obrocie energią dają nam status dojrzałego podmiotu, wspartego silnym zespołem i dogłębną znajomością branży.

Od 2007 r. sektor OZE przeszedł znaczącą transformację, obejmującą regulacje, mechanizmy rynkowe i podejście firm do zakupu zielonej energii. Kluczową zmianą był rozwój bezpośrednich kontraktów (P2P) między wytwórcami OZE a odbiorcami końcowymi. Spółki tworzące dziś Enerconet aktywnie uczestniczyły w tej ewolucji od samego początku, analizując rynek i wypracowując skuteczne rozwiązania, co ostatecznie doprowadziło do uruchomienia platformy Reo.pl.

Premium
Gdy projekt wymyka się spod kontroli

Polskie firmy technologiczne coraz częściej realizują złożone zlecenia dla międzynarodowych gigantów. Jednak nawet najlepiej przygotowany zespół może przy takim projekcie natknąć się na nieoczekiwane przeszkody. Przykład firmy Esysco wdrażającej szyfrowanie poczty e-mail dla jednego z największych niemieckich banków pokazuje, jak szybko może runąć precyzyjnie zaplanowany harmonogram oraz jak radzić sobie z nieprzewidywalnymi wyzwaniami.

Polskie firmy technologiczne coraz częściej zdobywają międzynarodowe kontrakty i realizują projekty, które jeszcze niedawno były zarezerwowane wyłącznie dla międzynarodowych rywali. Dzięki temu zdobywają zagraniczne rynki, osiągając imponujące wyniki eksportu usług IT, który w 2023 r. przekroczył 16 mld dolarów. W ostatniej dekadzie przychody branży wzrosły niemal czterokrotnie, a wartość eksportu – aż 7,5 razy, dzięki czemu polski sektor IT stał się motorem rodzimego eksportu. Kluczowymi kierunkami ekspansji są Stany Zjednoczone, Niemcy i Wielka Brytania, a wśród najsilniejszych obszarów znajdują się fintech, cyberbezpieczeństwo, sztuczna inteligencja, gry oraz rozwój oprogramowania.

Polska wyróżnia się w regionie Europy Środkowo-Wschodniej jako największy eksporter usług IT, przewyższając Czechy czy Węgry, a pod względem jakości specjalistów IT zajmuje trzecie miejsce na świecie. Jednak do pełnego wykorzystania tego potencjału konieczne jest pokonanie barier takich jak ograniczony dostęp do kapitału na ekspansję, rosnące koszty pracy oraz niedostateczne doświadczenie w międzynarodowej sprzedaży i marketingu. To jednak nie wszystko. Przy współpracy z międzynarodowymi gigantami trzeba również pamiętać o nieznanej polskim wdrożeniowcom skali, złożoności i nieprzewidywalności towarzyszącym tak wielkim projektom. Dobrym przykładem może być nasze wdrożenie dla jednego z największych niemieckich banków, z którym podpisaliśmy kontrakt na wprowadzenie systemu zabezpieczeń e-maili dla ponad 300 tys. użytkowników rozsianych po całym świecie. Technologicznie byliśmy gotowi, ale rzeczywistość szybko zweryfikowała nasze plany.

Premium
Praktyczny poradnik kreowania wartości z dużych modeli językowych

Gdy w 2022 r. pojawiły się powszechnie dostępne duże modele językowe (LLM), ich potężna zdolność do generowania tekstu na żądanie zapowiadała rewolucję w produktywności. Jednak mimo że te zaawansowane systemy AI potrafią tworzyć płynny tekst w języku naturalnym i komputerowym, to są one dalekie od doskonałości. Mogą halucynować, wykazywać się logiczną niespójnością oraz produkować treści nieadekwatne lub szkodliwe.

Chociaż technologia ta stała się powszechnie dostępna, wielu menedżerów nadal ma trudności z rozpoznawaniem przypadków użycia LLM-ów, w których poprawa produktywności przewyższa koszty i ryzyka związane z tymi narzędziami. Potrzebne jest bardziej systematyczne podejście do wykorzystywania modeli językowych, tak aby uefektywnić procesy biznesowe, a jednocześnie kontrolować słabe strony LLM-ów. Proponuję trzy kroki ułatwiające osiągnięcie tego celu. Po pierwsze, należy rozłożyć proces na mniejsze zadania. Po drugie, trzeba ocenić, czy każde zadanie spełnia tzw. równanie kosztów GenAI, które szczegółowo wyjaśnię w tym artykule. Jeśli ten warunek zostanie spełniony, należy uruchomić projekt pilotażowy, iteracyjnie oceniać jego wyniki oraz na bieżąco wprowadzać zmiany w celu poprawy rezultatów.

Kluczowe w tym podejściu jest pełne zrozumienie, w jaki sposób mocne i słabe strony modeli językowych odpowiadają specyfice danego zadania; jakie techniki umożliwiają ich skuteczną adaptację w celu zwiększenia wydajności; oraz jak te czynniki wpływają na bilans kosztów i korzyści – a także na ocenę ryzyka i potencjalnych zysków – związanych z wykorzystaniem modeli językowych do podnoszenia efektywności realizowanych działań.

Premium
Dlaczego odważne pomysły giną w szufladach menedżerów i co z tym zrobić?

Najbardziej innowacyjne, nietypowe idee często nie zostają zrealizowane – nie dlatego, że są złe, ale dlatego, że wywołują niepewność. Co może pomóc menedżerom w podejmowaniu ryzykownych, lecz potencjalnie przełomowych decyzji? Kluczowe okazuje się świadome budowanie sieci doradczej.

Menedżerowie, którzy są świadomi znaczenia innowacji w rozwoju organizacji, często zachęcają członków swoich zespołów do dzielenia się świeżymi i kreatywnymi pomysłami. Jednak wielu pracowników skarży się, że ich najlepsze propozycje są przez zwierzchników często pomijane, odrzucane lub niewłaściwie rozumiane.

Paradoksalnie to właśnie menedżerowie mogą stanowić jedną z największych barier dla innowacji. Mocno zakorzenieni we własnych obszarach specjalizacji, często nie dostrzegają wartości nowatorskich idei – szczególnie wtedy, gdy pomysły te wyznaczają nowe ścieżki w ich dziedzinie.

Technologia to zaledwie 5% sukcesu – pozostałe 95% to ludzie

W świecie, w którym digitalizacja stała się koniecznością, sukces zależy nie od samej technologii, lecz od umiejętności jej wykorzystania. O tym, jak multidyscyplinarne podejście, kobiece przywództwo i kultura oparta na bezpieczeństwie psychologicznym pozwoliły Archicom zbudować efektywny cyfrowy ekosystem, opowiada Agata Skowrońska-Domańska, wiceprezeska zarządu firmy.

AI dla wszystkich - Mechło
Premium
AI dla wszystkich: jak ją wdrożyć w firmie?

Sztuczna inteligencja nie jest już zarezerwowana wyłącznie dla dużych korporacji i technologicznych gigantów. Dziś każdy może korzystać z narzędzi opartych na AI, a bariera kosztów znacząco się obniżyła. To jednak nie znaczy, że korzystanie z tych technologii jest proste i zrozumiałe dla wszystkich.

Powszechna dostępność sztucznej inteligencji (AI) nie rozwiązuje kluczowego problemu: braku wiedzy o tym, jak skutecznie i odpowiedzialnie z niej korzystać. Dlatego edukacja staje się nie tylko wsparciem, ale wręcz warunkiem realnego wykorzystania potencjału tej technologii. Umiejętność pracy z AI powinna być dziś traktowana jak podstawowa kompetencja, niezbędna zarówno w życiu zawodowym, jak i codziennym. Tym bardziej, że generatywna sztuczna inteligencja (GenAI) coraz śmielej wkracza na polski rynek, oferując firmom wiele korzyści: począwszy od automatyzacji drobnych zadań aż po strategiczne przedsięwzięcia.

Premium
Jak zarządzać długiem technologicznym w erze AI

Sztuczna inteligencja rewolucjonizuje świat biznesu, ale jednocześnie przyczynia się do narastania długu technologicznego w firmach. Oto cztery kluczowe wskazówki dla liderów, które pomogą świadomie zarządzać kompromisami i stworzyć przestrzeń na innowacje.

Dług technologiczny działa jak kotwica, która spowalnia wysiłki liderów biznesu zmierzające do sprawnego zarządzania organizacją. Dodatkowa praca i nagromadzone koszty wynikające z doraźnych rozwiązań, nieaktualnych aplikacji i starzejącej się infrastruktury ograniczają zdolność firm do innowacji, konkurowania i długoterminowego rozwoju.

Pewien poziom długu technologicznego jest nieunikniony. Aby zachować elastyczność, przedsiębiorstwa często wdrażają nowe technologie w ekspresowym tempie, świadome, że w przyszłości będą musiały ponieść koszty modernizacji tych systemów. Ten kompromis staje się jednak coraz trudniejszy w miarę postępującej implementacji sztucznej inteligencji. Przy rocznych kosztach przekraczających 2,41 bln dolarów w samych tylko w Stanach Zjednoczonych, dług technologiczny nie jest już wyłącznie problemem IT – to realne obciążenie biznesowe, które wymaga uwagi na najwyższym szczeblu zarządzania.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!