Reklama
Dołącz do liderów przyszłości i zdobądź przewagę! Sprawdź najnowszą ofertę subskrypcji
Łańcuchy dostaw i logistyka

Kryzys kalifornijski: lekcja ku przestrodze

1 grudnia 2010 13 min czytania
Tomasz Zadroga
Kryzys kalifornijski: lekcja ku przestrodze

Aby w pełni zrozumieć genezę tego, co wydarzyło się w Kalifornii w latach 2000‑2001, warto najpierw pojąć specyfikę rynku elektroenergetycznego.
Po pierwsze, jest to rynek, na którym podaż nie może być dowolnie zwiększana. Elektrownia może działać powyżej swojej planowanej wydajności tylko przez krótki czas, w przeciwnym razie grozi jej poważna i kosztowna awaria.

Po drugie, możliwości przechowywania produktu, czyli energii elektrycznej, są mocno ograniczone, co wpływa na zmienność cen oraz zwiększa prawdopodobieństwo wystąpienia krótkoterminowych niedoborów.

Po trzecie, występuje bezustanna konieczność bilansowania się systemu elektroenergetycznego, a w przypadku braku wystarczającej mocy konieczne jest ograniczenie zapotrzebowania.

Powyższe ograniczenia powodują, że wszelkie zmiany regulacji w tym sektorze powinny być bardzo dobrze przemyślane i przeprowadzane z dużą ostrożnością oraz w porozumieniu z wszystkimi uczestnikami rynku. Tymczasem wygląda na to, że organizacja polskiego sektora elektroenergetycznego zmierza w podobnym kierunku, jaki pod koniec lat 90. obrała Kalifornia. Tym bardziej warto dokładnie prześledzić wydarzenia i decyzje, które stopniowo doprowadziły ten wysoko rozwinięty obszar gospodarczy do masowych przerw w dostawach prądu, dotykających całe grupy użytkowników (tzw. rolling blackouts), oraz wyciągnąć z nich odpowiednie wnioski.

Niedokończona deregulacja

W 1996 roku stan Kalifornia rozpoczął proces deregulacji rynku elektroenergetycznego według modelu, który w tamtym czasie uważany był za wzorcowy. Najpierw z trzech czołowych, pionowo zintegrowanych przedsiębiorstw energetycznych wydzielono działalność przesyłową i utworzono niezależnego operatora systemu przesyłowego – California Independent System Operator (CAISO). Działalność dystrybucyjna pozostała w gestii trzech firm zintegrowanych pionowo. Jednocześnie, w celu zwiększenia konkurencyjności na rynku hurtowym oraz przyśpieszenia procesu budowy nowych mocy, w 1998 roku doprowadzono do sprzedaży przez podmioty zintegrowane pionowo elektrowni o łącznej mocy zainstalowanej 20 GW. Nowymi właścicielami stali się przede wszystkim niezależni wytwórcy spoza stanu – AES, Reliant, Mirant, Williams i Dynergy. Niezależni producenci mieli możliwość sprzedaży energii na bazie kontraktów dwustronnych (bezpośrednio dużym odbiorcom) bądź też na utworzonej w ramach procesu deregulacji giełdzie energii CalPX. Przedsiębiorstwa zintegrowane pionowo kupowały energię wyłącznie na tym rynku. W ramach deregulacji zdecydowano o całkowitym uwolnieniu rynku hurtowego. Ceny miała odtąd kształtować tylko giełda. Zakazano zawierania dwustronnych umów długo-

Kryzys kalifornijski: lekcja ku przestrodze

terminowych, natomiast rynek kontraktów terminowych na giełdzie CALPX był bardzo płytki (ze względu na występującą wtedy dużą nadpodaż na rynku SPOT). Ceny dla odbiorców końcowych pozostawiono jednak sztywne – ustalono je na poziomie 65 dolarów za MWh. Autorzy reformy błędnie założyli, że ceny hurtowe w wyniku zwiększenia konkurencji ulegną trwałemu obniżeniu, a przejściowe usztywnienie cen detalicznych pozwoli firmom zintegrowanym pionowo pokryć koszty, jakie poniosły na budowę nowych mocy. W momencie utworzenia CAISO powstał również rynek bilansujący, na którym kupującym „ostatniej szansy” był operator systemu przesyłowego. Miał on możliwość zakupu energii z ustalonym w taryfie przez regulatora federalnego FERC poziomem maksymalnym (w latach 2000 – 2001 poziom ten wahał się w przedziale 250 – 750 USD/MWh).

Anatomia kryzysu

Początkowo połowicznie zderegulowany system działał bez większych zakłóceń. Pod względem pogody lata 1998 i 1999 należały bowiem do umiarkowanych. Ceny energii na uwolnionym rynku hurtowym kształtowały się na dosyć niskim poziomie ze względu na występującą na rynku Kalifornii i sąsiednich stanów nadpodaż energii elektrycznej. Jedynie w okresie szczytowego zapotrzebowania rezerwa mocy wytwórczej osiągała swe minimum, a ceny na giełdzie kształtowały się nieco powyżej kosztów krańcowych.  

Pierwsze problemy pojawiły się wiosną 2000 roku (więcej w ramce Przebieg kryzysu kalifornijskiego). Susza spowodowała zmniejszoną produkcję prądu w hydroelektrowniach w stanach Oregon i Waszyngton i spowodowała, że dostawcy pochodzący z tych stanów zaprzestali dostaw do Kalifornii, skupiając się na zaspokojeniu potrzeb swoich macierzystych rynków. Fala upałów, jaka nawiedziła Kalifornię latem tego samego roku, spowodowała zwiększone zapotrzebowanie na energię, którą pochłaniały masowo uruchamiane klimatyzatory. Wprowadzane przez CAISO kolejne poziomy stanów alarmowych systemu elektroenergetycznego nie spowodowały istotnego ograniczenia zapotrzebowania, gdyż w tamtym czasie system zarządzania popytem nie był wystarczająco dobrze rozwinięty.

Dodatkowo w okresie występowania nadpodaży energii elektrycznej, a co za tym idzie i niskich cen, zaniechano modernizacji wielu jednostek ze względu na brak krótkoterminowego uzasadnienia ekonomicznego takich inwestycji (bardziej opłacało się ponosić koszty środowiskowe, niż inwestować w ograniczenie emisji). Podczas kryzysu okazało się, że jednostki te mają ograniczoną możliwość niezawodnej eksploatacji i nie są w stanie utrzymać stabilnej produkcji w okresie największego zapotrzebowania. Dodatkowo część wytwórców celowo wycofywała swoje moce z rynku, uzasadniając to koniecznością przeprowadzenia niezbędnych remontów, aby spotęgować poziom niepewności. Ograniczona w ten sposób podaż energii powodowała pogłębianie się kryzysu.

Konsekwencje kryzysu

Ceny na rynku hurtowym zaczęły gwałtownie rosnąć. W szczycie kryzysu za megawatogodzinę (MWh) trzeba było zapłacić nawet 3800 dolarów (historyczny poziom cen oscylował w okolicach 40 dolarów za 1 MWh). Jednocześnie na rynku panowała niespotykana dotąd zmienność, sprawiająca, że nikt nie mógł być pewien, po jakiej cenie następnego dnia będzie kupował energię. W sumie koszty kryzysu (ponadprzeciętne wydatki na zakup energii elektrycznej) szacuje się na 40 – 45 mld dolarów.

Nastąpiło istotne pogorszenie sytuacji ekonomiczno‑finansowej firm handlowych, które nie mogły przerzucić rosnących kosztów na odbiorców końcowych (nie odzyskały kosztów osieroconych do czasu wystąpienia kryzysu).  Zadłużenie Pacific Gas & Electricity oraz Southern California Edison, obsługujących ok. 70% rynku Kalifornii, u dostawców energii wyniosło na początku 2001 roku 12 mld USD. Konsekwencją ogłoszenia upadłości przez Pacific Gas & Electric (na mocy rozdziału 11. amerykańskiego kodeksu upadłościowego) i trudnej sytuacji finansowej Southern Califorania Edison było zaprzestanie funkcjonowania giełdy CALPX w styczniu 2001 roku. Na rynku musiał pojawić się wiarygodny podmiot, który dokonywałby zakupów energii  na własny rachunek, a potem odsprzedawał ją spółkom działającym na rynku obrotu energią.

Z tego względu niezbędna okazała się interwencja władz stanowych, które za pośrednictwem Departament of Water Resources zaczęły dokonywać zakupów energii od wytwórców. Interwencja ta spowodowała dodatkowe obciążenia dla budżetu stanowego. Było to tym dotkliwsze, że nastąpiło w okresie spowolnienia gospodarczego. Począwszy od czerwca 2000 roku, zaczęły występować pierwsze rotacyjne wyłączenia prądu. Przez kolejne miesiące powtarzały się wielokrotnie, a w szczycie kryzysu bez elektryczności było nawet ok. 1,5 mln odbiorców końcowych. Na wiosnę 2001 roku normalizacja warunków pogodowych i w efekcie tego poprawa warunków hydrologicznych doprowadziły do ustabilizowania się sytuacji.

Kryzys kalifornijski: lekcja ku przestrodze

Na kryzysie przegrały przedsiębiorstwa zintegrowane, klienci końcowi, lokalny przemysł, gospodarka stanowa i podatnicy.

Nastąpiło istotne pogorszenie sytuacji ekonomiczno‑finansowej firm handlowych, które nie mogły przerzucić rosnących kosztów na odbiorców końcowych.

Jedynymi zwycięzcami okazali się wytwórcy, którzy zupełnie niespodziewanie i całkowicie zgodnie z prawem zarobili wielkie pieniądze (20 GW mocy sprzedano za 3,3 mld USD, natomiast dodatkowe koszty zakupu energii wyniosły blisko dziesięć razy więcej). Zapisy zobowiązujące te firmy do dbania o bezpieczeństwo energetyczne okazały się tylko pięknie brzmiącą teorią.

Konieczne jest przede wszystkim wciągnięcie do sfery rynkowej również odbiorców indywidualnych. W obecnym systemie sektor przedsiębiorstw w praktyce dopłaca do gospodarstw domowych.

Kalifornia a rynek polski

W momencie wybuchu kryzysu w Kalifornii mieszkało ok. 35 mln ludzi (w Polsce ok. 38 mln). Stan ten miał również podobne zużycie energii jak Polska dzisiaj. Analizując sytuację przed kryzysem w kalifornijskim sektorze elektroenergetycznym, a także jego strukturę i sposób jego uregulowania, również można zauważyć szereg podobieństw z sytuacją w Polsce.

Po pierwsze, w latach poprzedzających kryzys energetyczny w Kalifornii miał miejsce znaczący wzrost popytu na energię związany z dynamicznym rozwojem gospodarczym i demograficznym w tym stanie. W latach 1998 – 1999 zapotrzebowanie na energię zwiększyło się odpowiednio o 5% i 3,7% (średnia dla lat poprzednich wynosiła 1,7%). Z analiz wynika, że wzrost popytu na energię jest mocno skorelowany ze wzrostem PKB. W Polsce również obserwujemy wzrost popytu na energię związany z rozwojem gospodarczym. Według wstępnych prognoz PSE Operator, zapotrzebowanie na energię elektryczną w 2010 roku mogło wzrosnąć o ok. 4% w porównaniu z rokiem ubiegłym. Z długoterminowych szacunków Ministerstwa Gospodarki wynika, że zapotrzebowanie na energię elektryczną polskiej gospodarki w perspektywie 2030 roku wzrośnie o ok. 40%.

Po drugie, w Polsce istnieje podobna struktura sektora elektroenergetycznego jak w Kalifornii. Podobnie jak miało to miejsce w Kalifornii, w Polsce uwolniono hurtowy rynek energii, a ceny dla odbiorców końcowych pozostawiono regulowane z tą tylko różnicą, że u nas regulacja dotyczy jedynie segmentu gospodarstw domowych (tzw. taryfa G). Stanowi on ok. 30% całego rynku, jednak istotnie wpływa również na poziom cen obowiązujący w sektorze przemysłowym.

Po trzecie, w Polsce podobnie jak w latach 90. w Kalifornii istnieje przestarzała infrastruktura wymagająca dużych nakładów inwestycyjnych. Tymczasem z różnych względów na naszym rynku, podobnie jak to miało miejsce w Kalifornii, brakuje wystarczających zachęt do inwestowania w moce wytwórcze. Co prawda, istnieje wiele bodźców wspierających rozwój energetyki opartej na źródłach odnawialnych. Jednak trzeba pamiętać, że polska energetyka jest w ponad 90% oparta na węglu kamiennym i brunatnym, a na modernizację tych bloków już nie ma tak atrakcyjnych zachęt.

Kryzys kalifornijski: lekcja ku przestrodze

Po czwarte, polski sektor elektroenergetyczny, podobnie jak to było w Kalifornii, musi stawić czoła ostrym normom ekologicznym. Na przykład już od 2013 roku wchodzą nowe, bardziej rygorystyczne przepisy związane z emisją dwutlenku węgla. Może się okazać, że jeszcze dotkliwsze skutki będzie miała nowa Dyrektywa IED, nakładająca od 2016 roku na wytwórców obowiązek spełnienia surowych wymogów w zakresie emisji tlenków azotu i siarki oraz pyłów. W Kalifornii konieczność spełnienia zaostrzonych norm przez firmy wytwórcze połączona z niską ceną energii elektrycznej spowodowała odwlekanie inwestycji modernizacyjno‑odtworzeniowych, a w konsekwencji ograniczenie mocy dyspozycyjnej. Istnieje uzasadnione ryzyko, że w Polsce może dojść do podobnego scenariusza, w przypadku gdyby stare i niespełniające norm bloki zostały w krótkim czasie wyłączone z eksploatacji.

Uniknąć ciemności

Aby nie powtórzyć błędów popełnionych w Kalifornii, konieczne będzie podjęcie kilku odważnych kroków, przy czym kluczową rolę w tym procesie powinien odegrać regulator.

Dokończenie deregulacji. Po stronie popytu konieczne jest przede wszystkim wciągnięcie do sfery rynkowej również odbiorców indywidualnych. W obecnym systemie sektor przedsiębiorstw w praktyce dopłaca do gospodarstw domowych.

Dopóki proces deregulacji nie zostanie dokończony, konieczne jest wspieranie dużych, pionowo zintegrowanych, silnych przedsiębiorstw.  Tylko tak zorganizowane struktury mają szansę poradzić sobie na rynku regulowanym bądź też częściowo regulowanym, ponieważ straty w jednym segmencie mogą powetować sobie w innym. Podmioty takie nie mają interesu

w wykorzystywaniu siły rynkowej w jednym sektorze, gdyż będzie to związane ze stratą w innym segmencie działalności. Takie duże przedsiębiorstwa będą również w stanie skutecznie konkurować z globalnymi graczami rynku energetycznego.

Rozwój infrastruktury produkcyjnej i przesyłowej. W ramach działań po stronie podaży kluczowe znaczenie ma stworzenie systemu zachęt inwestycyjnych do rozwijania infrastruktury produkcyjnej i do modernizowania istniejących bloków. W najbliższych latach konieczna będzie wymiana co najmniej połowy pracujących w Polsce bloków energetycznych. Zachęty te powinny obejmować nie tylko elektrownie oparte na odnawialnych źródłach, ale również czyste, przyjazne dla środowiska technologie węglowe i gazowe. Zanim w naszym kraju rozwinie się energetyka jądrowa, a milion Polaków zatrudnionych w sektorze węglowym lub sektorach pokrewnych znajdzie dla siebie nowe miejsce na rynku pracy, konieczna będzie jeszcze jedna wymiana bloków pracujących na technologiach konwencjonalnych.

Konieczne jest również wspieranie inwestycji w system dystrybucyjny i przesyłowy. W Polsce funkcjonuje model energetyki skupionej w kilku wielkich źródłach, z których rozległe sieci niosą energię przez duże obszary kraju. Taki system generuje ogromne straty w przesyle. Potrzebne są więc zachęty do budowy mniejszych jednostek i bardziej równomiernego rozprowadzenia mocy wytwórczych na terytorium Polski (więcej w ramce Jak zapobiec kryzysowi).

***

Istnieje wiele przesłanek pozwalających obawiać się powtórzenia scenariusza kalifornijskiego w Polsce. Powinniśmy więc jak najszybciej przeanalizować genezę kryzysu i wyciągnąć  z niego odpowiednie wnioski.

O autorach
Tematy

Może Cię zainteresować

• Jak generować wartość z AI dzięki małym transformacjom w biznesie - Webster
Premium
Jak generować wartość z AI dzięki małym transformacjom w biznesie

Liderzy skutecznie wykorzystują duże modele językowe, stopniowo minimalizując ryzyko i tworząc solidne fundamenty pod przyszłe transformacje technologiczne, dzięki czemu generują realną wartość dla swoich organizacji.

Niespełna dwa lata temu generatywna sztuczna inteligencja (GenAI) trafiła na czołówki stron gazet, zachwycając swoimi niezwykłymi możliwościami: mogła prowadzić rozmowy, analizować ogromne ilości tekstu, dźwięku i obrazów, a nawet tworzyć nowe dokumenty i dzieła sztuki. To najszybsze w historii wdrożenie technologii przyciągnęło ponad 100 mln użytkowników w ciągu pierwszych dwóch miesięcy, a firmy z różnych branż rozpoczęły eksperymenty z GenAI. Jednak pomimo dwóch lat intensywnego zainteresowania ze strony kierownictwa i licznych prób wdrożeniowych nie widać wielkoskalowych transformacji biznesowych, które początkowo przewidywano. Co się stało? Czy technologia nie spełniła oczekiwań? Czy eksperci się pomylili, wzywając do gigantycznych zmian? Czy firmy były zbyt ostrożne? Odpowiedź na te pytania brzmi: i tak, i nie. Generatywna sztuczna inteligencja już teraz jest wykorzystywana w wielu firmach, ale nie – jako lokomotywa radykalnej transformacji procesów biznesowych. Liderzy biznesu znajdują sposoby, by czerpać realną wartość z dużych modeli językowych (LLM), nie modyfikując całkowicie istniejących procesów. Dążą do małych zmian (small t) stanowiących fundament pod większe przekształcenia, które dopiero nadejdą. W tym artykule pokażemy, jak robią to dzisiaj i co możesz zrobić, aby tworzyć wartość za pomocą generatywnej sztucznej inteligencji.

Premium
Polski przemysł na rozdrożu

Stoimy przed fundamentalnym wyborem: albo dynamicznie przyspieszymy wdrażanie automatyzacji i robotyzacji, co sprawi, że staniemy się aktywnym uczestnikiem czwartej rewolucji przemysłowej, albo pogodzimy się z perspektywą erozji marż pod wpływem rosnących kosztów operacyjnych i pogłębiającego się strukturalnego niedoboru wykwalifikowanej siły roboczej.

Jak alarmują prognozy Polskiego Instytutu Ekonomicznego, do 2030 r. w samej Europie może zabraknąć nawet 2,1 mln wykwalifikowanych pracowników, co czyni automatyzację nie jedną z możliwości, lecz strategiczną koniecznością. Mimo że globalnie liczba robotów przemysłowych przekroczyła już 4,2 mln jednostek, a w Europie w 2023 r. wdrożono rekordowe 92,4 tys. nowych robotów, Polska wciąż pozostaje w tyle. Nasz wskaźnik gęstości robotyzacji, wynoszący zaledwie 78 robotów na 10 tys. pracowników przemysłowych, znacząco odbiega od europejskiego lidera – Niemiec (397 robotów na 10 tys. pracowników), czy globalnego pioniera – Korei Południowej (tysiąc robotów na 10 tys. pracowników). W Scanway – firmie, która z sukcesem łączy technologie rozwijane dla sektora kosmicznego z potrzebami przemysłu – jesteśmy przekonani, że przyszłość konkurencyjności leży w inteligentnym wykorzystaniu danych, zaawansowanej automatyzacji opartej na AI oraz strategicznej gotowości do wprowadzania zmian technologicznych. Czy jednak zaawansowana wizja maszynowa napędzana przez sztuczną inteligencję może się stać katalizatorem, który pozwoli sprostać wyzwaniom i odblokować uśpiony potencjał innowacyjny polskiej gospodarki?

Premium
Zamień konflikt we współpracę

Destrukcyjny konflikt w zespole zarządzającym może zahamować rozwój organizacji. Skuteczne zarządzanie takimi napięciami wymaga od liderów świadomego odejścia od rywalizacji o władzę na rzecz współpracy oraz strategicznego, systemowego myślenia.

Konflikt w zespole zarządzającym, szczególnie wtedy gdy przeradza się w trwały, emocjonalny antagonizm, staje się realnym zagrożeniem dla efektywności całej organizacji. Studium przypadku firmy X-Style.

Jak zapewnić stabilność i elastyczność na rynku zielonej energii?

Dynamiczne zmiany na rynku energii oraz rosnące znaczenie OZE i celów ESG stawiają przed firmami nowe wyzwania. W tym kontekście Reo.pl (Grupa Enerconet) kładzie nacisk na elastyczność, dogłębną analizę potrzeb klienta i transparentność danych. O strategiach budowania długoterminowych relacji i zapewniania przewidywalności w sektorze odnawialnym opowiada Grzegorz Tomasik, prezes Reo.pl. 

Reo.pl działa na polskim rynku od 2022 roku. Jakie wyzwania napotkali państwo przy wprowadzaniu elastyczności i dostosowywaniu się do dynamicznych zmian w sektorze OZE?

Chociaż marka Reo.pl powstała na początku 2022 r., nasza grupa – Enerconet – działa na rynku energetycznym już od 2007 r. Ta wieloletnia obecność w sektorze OZE i doświadczenie w obrocie energią dają nam status dojrzałego podmiotu, wspartego silnym zespołem i dogłębną znajomością branży.

Od 2007 r. sektor OZE przeszedł znaczącą transformację, obejmującą regulacje, mechanizmy rynkowe i podejście firm do zakupu zielonej energii. Kluczową zmianą był rozwój bezpośrednich kontraktów (P2P) między wytwórcami OZE a odbiorcami końcowymi. Spółki tworzące dziś Enerconet aktywnie uczestniczyły w tej ewolucji od samego początku, analizując rynek i wypracowując skuteczne rozwiązania, co ostatecznie doprowadziło do uruchomienia platformy Reo.pl.

Premium
Gdy projekt wymyka się spod kontroli

Polskie firmy technologiczne coraz częściej realizują złożone zlecenia dla międzynarodowych gigantów. Jednak nawet najlepiej przygotowany zespół może przy takim projekcie natknąć się na nieoczekiwane przeszkody. Przykład firmy Esysco wdrażającej szyfrowanie poczty e-mail dla jednego z największych niemieckich banków pokazuje, jak szybko może runąć precyzyjnie zaplanowany harmonogram oraz jak radzić sobie z nieprzewidywalnymi wyzwaniami.

Polskie firmy technologiczne coraz częściej zdobywają międzynarodowe kontrakty i realizują projekty, które jeszcze niedawno były zarezerwowane wyłącznie dla międzynarodowych rywali. Dzięki temu zdobywają zagraniczne rynki, osiągając imponujące wyniki eksportu usług IT, który w 2023 r. przekroczył 16 mld dolarów. W ostatniej dekadzie przychody branży wzrosły niemal czterokrotnie, a wartość eksportu – aż 7,5 razy, dzięki czemu polski sektor IT stał się motorem rodzimego eksportu. Kluczowymi kierunkami ekspansji są Stany Zjednoczone, Niemcy i Wielka Brytania, a wśród najsilniejszych obszarów znajdują się fintech, cyberbezpieczeństwo, sztuczna inteligencja, gry oraz rozwój oprogramowania.

Polska wyróżnia się w regionie Europy Środkowo-Wschodniej jako największy eksporter usług IT, przewyższając Czechy czy Węgry, a pod względem jakości specjalistów IT zajmuje trzecie miejsce na świecie. Jednak do pełnego wykorzystania tego potencjału konieczne jest pokonanie barier takich jak ograniczony dostęp do kapitału na ekspansję, rosnące koszty pracy oraz niedostateczne doświadczenie w międzynarodowej sprzedaży i marketingu. To jednak nie wszystko. Przy współpracy z międzynarodowymi gigantami trzeba również pamiętać o nieznanej polskim wdrożeniowcom skali, złożoności i nieprzewidywalności towarzyszącym tak wielkim projektom. Dobrym przykładem może być nasze wdrożenie dla jednego z największych niemieckich banków, z którym podpisaliśmy kontrakt na wprowadzenie systemu zabezpieczeń e-maili dla ponad 300 tys. użytkowników rozsianych po całym świecie. Technologicznie byliśmy gotowi, ale rzeczywistość szybko zweryfikowała nasze plany.

Premium
Praktyczny poradnik kreowania wartości z dużych modeli językowych

Gdy w 2022 r. pojawiły się powszechnie dostępne duże modele językowe (LLM), ich potężna zdolność do generowania tekstu na żądanie zapowiadała rewolucję w produktywności. Jednak mimo że te zaawansowane systemy AI potrafią tworzyć płynny tekst w języku naturalnym i komputerowym, to są one dalekie od doskonałości. Mogą halucynować, wykazywać się logiczną niespójnością oraz produkować treści nieadekwatne lub szkodliwe.

Chociaż technologia ta stała się powszechnie dostępna, wielu menedżerów nadal ma trudności z rozpoznawaniem przypadków użycia LLM-ów, w których poprawa produktywności przewyższa koszty i ryzyka związane z tymi narzędziami. Potrzebne jest bardziej systematyczne podejście do wykorzystywania modeli językowych, tak aby uefektywnić procesy biznesowe, a jednocześnie kontrolować słabe strony LLM-ów. Proponuję trzy kroki ułatwiające osiągnięcie tego celu. Po pierwsze, należy rozłożyć proces na mniejsze zadania. Po drugie, trzeba ocenić, czy każde zadanie spełnia tzw. równanie kosztów GenAI, które szczegółowo wyjaśnię w tym artykule. Jeśli ten warunek zostanie spełniony, należy uruchomić projekt pilotażowy, iteracyjnie oceniać jego wyniki oraz na bieżąco wprowadzać zmiany w celu poprawy rezultatów.

Kluczowe w tym podejściu jest pełne zrozumienie, w jaki sposób mocne i słabe strony modeli językowych odpowiadają specyfice danego zadania; jakie techniki umożliwiają ich skuteczną adaptację w celu zwiększenia wydajności; oraz jak te czynniki wpływają na bilans kosztów i korzyści – a także na ocenę ryzyka i potencjalnych zysków – związanych z wykorzystaniem modeli językowych do podnoszenia efektywności realizowanych działań.

Premium
Dlaczego odważne pomysły giną w szufladach menedżerów i co z tym zrobić?

Najbardziej innowacyjne, nietypowe idee często nie zostają zrealizowane – nie dlatego, że są złe, ale dlatego, że wywołują niepewność. Co może pomóc menedżerom w podejmowaniu ryzykownych, lecz potencjalnie przełomowych decyzji? Kluczowe okazuje się świadome budowanie sieci doradczej.

Menedżerowie, którzy są świadomi znaczenia innowacji w rozwoju organizacji, często zachęcają członków swoich zespołów do dzielenia się świeżymi i kreatywnymi pomysłami. Jednak wielu pracowników skarży się, że ich najlepsze propozycje są przez zwierzchników często pomijane, odrzucane lub niewłaściwie rozumiane.

Paradoksalnie to właśnie menedżerowie mogą stanowić jedną z największych barier dla innowacji. Mocno zakorzenieni we własnych obszarach specjalizacji, często nie dostrzegają wartości nowatorskich idei – szczególnie wtedy, gdy pomysły te wyznaczają nowe ścieżki w ich dziedzinie.

Technologia to zaledwie 5% sukcesu – pozostałe 95% to ludzie

W świecie, w którym digitalizacja stała się koniecznością, sukces zależy nie od samej technologii, lecz od umiejętności jej wykorzystania. O tym, jak multidyscyplinarne podejście, kobiece przywództwo i kultura oparta na bezpieczeństwie psychologicznym pozwoliły Archicom zbudować efektywny cyfrowy ekosystem, opowiada Agata Skowrońska-Domańska, wiceprezeska zarządu firmy.

AI dla wszystkich - Mechło
Premium
AI dla wszystkich: jak ją wdrożyć w firmie?

Sztuczna inteligencja nie jest już zarezerwowana wyłącznie dla dużych korporacji i technologicznych gigantów. Dziś każdy może korzystać z narzędzi opartych na AI, a bariera kosztów znacząco się obniżyła. To jednak nie znaczy, że korzystanie z tych technologii jest proste i zrozumiałe dla wszystkich.

Powszechna dostępność sztucznej inteligencji (AI) nie rozwiązuje kluczowego problemu: braku wiedzy o tym, jak skutecznie i odpowiedzialnie z niej korzystać. Dlatego edukacja staje się nie tylko wsparciem, ale wręcz warunkiem realnego wykorzystania potencjału tej technologii. Umiejętność pracy z AI powinna być dziś traktowana jak podstawowa kompetencja, niezbędna zarówno w życiu zawodowym, jak i codziennym. Tym bardziej, że generatywna sztuczna inteligencja (GenAI) coraz śmielej wkracza na polski rynek, oferując firmom wiele korzyści: począwszy od automatyzacji drobnych zadań aż po strategiczne przedsięwzięcia.

Premium
Jak zarządzać długiem technologicznym w erze AI

Sztuczna inteligencja rewolucjonizuje świat biznesu, ale jednocześnie przyczynia się do narastania długu technologicznego w firmach. Oto cztery kluczowe wskazówki dla liderów, które pomogą świadomie zarządzać kompromisami i stworzyć przestrzeń na innowacje.

Dług technologiczny działa jak kotwica, która spowalnia wysiłki liderów biznesu zmierzające do sprawnego zarządzania organizacją. Dodatkowa praca i nagromadzone koszty wynikające z doraźnych rozwiązań, nieaktualnych aplikacji i starzejącej się infrastruktury ograniczają zdolność firm do innowacji, konkurowania i długoterminowego rozwoju.

Pewien poziom długu technologicznego jest nieunikniony. Aby zachować elastyczność, przedsiębiorstwa często wdrażają nowe technologie w ekspresowym tempie, świadome, że w przyszłości będą musiały ponieść koszty modernizacji tych systemów. Ten kompromis staje się jednak coraz trudniejszy w miarę postępującej implementacji sztucznej inteligencji. Przy rocznych kosztach przekraczających 2,41 bln dolarów w samych tylko w Stanach Zjednoczonych, dług technologiczny nie jest już wyłącznie problemem IT – to realne obciążenie biznesowe, które wymaga uwagi na najwyższym szczeblu zarządzania.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!