Streszczenie: Dla liderów dotychczasowe pytanie brzmiało: „Jak produkować więcej, szybciej?”. Jednak liderzy organizacji, które wysuwają się na prowadzenie w wykorzystywaniu wartości generatywnej sztucznej inteligencji, zadają również pytania: „Co zadziałało, a co zawiodło? Co należy zmienić następnym razem?”. Następnie utrwalają wnioski, przekształcają je we wspólną wiedzę i stosują w kolejnych interakcjach z GenAI. Każdy cykl sprawia, że następny jest bardziej efektywny. To wartość, która się kumuluje. Dyrektorzy finansowi rozpoznają ten schemat jako aprecjację aktywów.
Jak możemy systematycznie weryfikować, oceniać i uczyć się na podstawie tego, co tworzy generatywna sztuczna inteligencja? To pytanie, na które organizacje muszą znaleźć odpowiedź, aby osiągnąć skumulowaną wartość.
W kolejnych obszarach działalności sztuczna inteligencja skróciła pracę, która wcześniej była kosztowna, taką jak tworzenie wstępnych wersji dokumentów, kodu, prototypów i analiz. Krańcowy koszt pierwszej próby gwałtownie spadł. Tym, co pozostaje kosztowne, jest to, co dzieje się po pojawieniu się wyniku: ocena tego, co zostało wygenerowane. Obejmuje to oddzielenie sygnału od szumu, wychwycenie błędów, uchwycenie tego, czego się nauczono, oraz zastosowanie tych wniosków w kolejnej iteracji.
Ta zmiana przekształca to, na czym organizacje powinny się koncentrować. Dawne pytanie brzmiało: „Jak produkować więcej, szybciej?”. Nowe pytanie brzmi: „Jak systematycznie uczyć się na podstawie tego, co tworzy AI, i razem z nią?”.
Większość organizacji nadal nadmiernie inwestuje w odpowiedź na stare pytanie. Traktują sztuczną inteligencję jako akcelerator przepustowości: zadanie trafia do systemu, wynik wychodzi, pętla się zamyka. To ekonomia konsumpcji. Doświadczony dyrektor finansowy natychmiast rozpoznaje ten schemat: deprecjację aktywów.
Organizacje, które wysuwają się na prowadzenie, odpowiadają na nowe pytanie. Traktują AI jako akcelerator zdolności: zadanie trafia do systemu, wynik wychodzi. Zadają jednak również pytania: „Co zadziałało? Co zawiodło? Co należy zmienić następnym razem?”. Wnioski są przechwytywane, przekształcane we wspólną wiedzę i stosowane w kolejnych interakcjach. Każdy cykl sprawia, że następny jest bardziej efektywny. To wartość, która się kumuluje. Doświadczeni dyrektorzy finansowi również rozpoznają ten schemat: aprecjację aktywów.
Dane to potwierdzają. Organizacje, które budują systematyczne pętle informacji zwrotnej między ludźmi a AI, są sześć razy bardziej skłonne do osiągania znaczących korzyści finansowych z wykorzystania AI, zgodnie z badaniami MIT Sloan Management Review oraz Boston Consulting Group. Organizacje, które inwestują w uczenie się razem z AI, są o 73% bardziej skłonne do osiągnięcia istotnego wpływu finansowego. Jednak w 2024 roku 70% firm wdrożyło AI, ale tylko 15% wykorzystywało ją do uczenia się na poziomie organizacji.
Liderzy, którzy dążą do skumulowanych zwrotów, muszą zbudować to, czego większość firm jeszcze nie rozumie, a tym bardziej nie posiada: systemy, które weryfikują wyniki AI, oceniają, co one ujawniają, oraz utrwalają to, czego się nauczono, tak aby każda interakcja stawała się elementem budującym kolejną. Tego rodzaju zwrot z inwestycji w generatywną sztuczną inteligencję, czyli zwrot z iteracji, nie powstaje przypadkowo. Wymaga odpowiedniej infrastruktury. Przyjrzyjmy się, jak taka infrastruktura wygląda.
Dlaczego ten moment jest strukturalnie odmienny
To nie są dawne porady dotyczące produktywności ubrane w nową retorykę. Dwie uzupełniające się dynamiki ekonomiczne, które wzmacniają się nawzajem w korzystnym cyklu, sprawiają, że zarządzanie kumulacją staje się koniecznością.
W książce The Tacit Dimension z 1966 roku filozof Michael Polanyi zauważył, że ludzie wiedzą więcej, niż potrafią wyrazić słowami. Przez dekady ta wiedza ukryta chroniła pracowników wiedzy. To, czego nie dało się jasno opisać, nie mogło zostać zautomatyzowane. Ukryta ekspertyza była fosą ochronną.
AI narusza tę fosę, nie przez kodyfikację wiedzy ukrytej, lecz przez wnioskowanie na jej temat na podstawie śladów zachowań w dużej skali. Duże modele językowe przyswajają sposób, w jaki eksperci faktycznie pracują, w tym wiedzę, której sami nigdy nie nazwali. Rozumowanie prawnicze zawarte w pismach i orzeczeniach, osąd finansowy widoczny w raportach analitycznych i wzorcach transakcji, myślenie strategiczne obecne w prezentacjach zarządczych: gdy te ślady zachowań stają się coraz bardziej czytelne dla modeli AI, ukryta ekspertyza w nich zawarta staje się czytelna dla maszyn.
Boris Cherny, który kierował pracami nad Claude Code, opisał wymowny moment: gdy dał Claude narzędzia do interakcji z systemem plików, AI zaczęła samodzielnie eksplorować ten system w poszukiwaniu odpowiedzi. „To było zdumiewające” — powiedział Cherny. Nie zaprogramował tej zdolności. Model wywnioskował, jak pracują programiści, na podstawie pozostawionych przez nich śladów zachowań, których nikt wcześniej nie sformalizował.
Druga dynamika sprawia, że ekonomiczne uzasadnienie kumulacji staje się jeszcze silniejsze. W 1865 roku ekonomista William Stanley Jevons zauważył, że gdy silniki parowe stały się bardziej wydajne, zużycie węgla wzrosło zamiast się zmniejszyć. Wzrost efektywności obniżył koszt możliwości, co pobudziło popyt. Gdy ukryta ekspertyza staje się czytelna dla maszyn, koszt zaawansowanych możliwości gwałtownie spada. Projekty, których wcześniej nie opłacało się prototypować, mogą się mnożyć. Cykle iteracji, które kiedyś trwały miesiące, skracają się do godzin. Coraz więcej ekspertyzy staje się czytelne dla maszyn, co poszerza to, do czego AI ma dostęp, jednocześnie wzbogacając jej bazę wiedzy i zwiększając jej możliwości. Większe możliwości rozszerzają zakres tego, czego organizacje próbują. Pętla napędza się sama.
Dane potwierdzają tę strukturalną zmianę. Organizacje, które łączą silne uczenie się na poziomie całej organizacji z uczeniem się specyficznym dla AI, są nawet o 80% bardziej skuteczne w zarządzaniu niepewnością. Wniosek jest bezpośredni: stawanie się lepszymi uczącymi się we współpracy z AI jest co najmniej tak samo ważne, jak wykorzystywanie AI do tworzenia efektywności.
Wyzwanie organizacyjne na całym świecie nie polega na tym, czy ani w jaki sposób AI uzyska dostęp do wiedzy dziedzinowej ich pracowników — to wydaje się nieuniknione z punktu widzenia obliczeń. Kluczowe jest rozwinięcie kompetencji i determinacji, aby wdrożyć mechanizmy, które pozwolą czerpać skumulowane zwroty z interakcji człowiek AI, zanim zrobią to konkurenci.
Trzy kroki do skumulowanych korzyści
Jak wyglądają te kluczowe mechanizmy? Twierdzimy, że organizacje muszą nadać priorytet trzem odrębnym, ale powiązanym operacjom. Gdy wszystkie trzy poniższe kroki są obecne i połączone, organizacje mogą czerpać skumulowane korzyści z wykorzystania AI. Gdy któregokolwiek z nich brakuje, organizacje jedynie konsumują wyniki generowane przez AI.
1. Weryfikacja. Pytanie brzmi: „Czy ten wynik spełnia przyjęty standard?”. Ten krok prowadzi do odpowiedzi zero jedynkowej: poprawne albo niepoprawne, użyteczne albo nieużyteczne. Weryfikacja porównuje wynik z kryterium, które już istnieje. Nieweryfikowany wynik AI to szum podany z przekonującym tonem. Sama weryfikacja pozwala jednak wychwycić błędy, ale nie prowadzi do uczenia się.
2. Ewaluacja. W tym kroku pytanie brzmi: „Co ten wynik ujawnia?”. O ile weryfikacja porównuje wynik z istniejącymi standardami, o tyle ewaluacja może prowadzić do tworzenia standardów, które wcześniej nie istniały. Dlatego ewaluacja wymaga wiedzy dziedzinowej w sposób, w jaki weryfikacja często jej nie wymaga. Ekspert w roli ewaluatora nie tylko sprawdza jakość. Odkrywa, czym jakość jest w nowym kontekście. W przypadku wyników AI ewaluacja musi uwzględniać trzy wymiary: skalę, różnorodność i tempo. Ograniczeniem staje się przepustowość ludzi do prowadzenia ewaluacji, a nie dostęp do AI.
3. Utrwalanie uczenia się. Trzecie pytanie brzmi: „Jak sprawić, aby ta wiedza nie zniknęła?”. Gdy ewaluacja nie jest zapisywana, wiedza się nie kumuluje. Ulatnia się po każdej interakcji. Utrwalanie uczenia się przekształca pojedyncze wnioski w wiedzę organizacyjną, taką jak udokumentowane kryteria, zaktualizowane prompty i wspólne repozytoria tego, co zadziałało i dlaczego. Można to porównać do kontroli wersji dla osądu organizacyjnego. Bez tego ewaluacja jest jednorazowym wydarzeniem. Z kolei samo utrwalanie uczenia się, czyli dokumentacja bez wcześniejszej weryfikacji i ewaluacji, prowadzi jedynie do uporządkowanego szumu.
Te trzy kroki wzajemnie się wzmacniają. Lepsza weryfikacja daje czystszy materiał do ewaluacji. Lepsza ewaluacja dostarcza bogatszych treści do utrwalenia. Lepsze utrwalanie poprawia kryteria stosowane w kolejnej rundzie weryfikacji. Sednem jest właśnie ten cykl.
Istnieje jeszcze jedna cenna i skalowalna korzyść związana z uczeniem się: większość ekspertów nie potrafi w pełni wyjaśnić, co sprawia, że ich osąd jest trafny. Zmuszenie ich do przełożenia tego osądu na zapisane standardy, podobnie jak programiści tworzą pliki CLAUDE.md opisujące, jak wygląda „dobry” kod, czyni wiedzę ukrytą jawną zarówno dla współpracowników, jak i dla AI. Różnica między tym, co dostarcza model językowy, a tym, czego oczekiwał ekspert, ujawnia niewypowiedzianą wiedzę.
W firmie Anthropic Cherny daje AI możliwość samodzielnej weryfikacji swojej pracy za pomocą zestawów testów i sprawdzeń w przeglądarce, zanim zobaczy ją człowiek. Aby ocenić jakość pracy, równolegle uruchamia od 10 do 15 instancji Claude, które tworzą całe zespoły inteligentnych podagentów. Jeden sprawdza styl, inny wyszukuje błędy, a kolejna grupa kwestionuje ustalenia pierwszej, wychwytując fałszywe alarmy. Kluczowe jest utrwalanie wiedzy: plik CLAUDE.md gromadzi błędy, poprawki i zasady projektowe bezpośrednio w toku pracy, nie po jej zakończeniu, lecz w trakcie jej trwania. Każda nowa sesja dziedziczy to, czego nauczyły się wszystkie poprzednie. Dla Cherny’ego i jego zespołu korzyści się kumulują.
Dla liderów innych funkcji biznesowych pojawiają się analogiczne pytania: co jest odpowiednikiem kontroli wersji dla decyzji organizacyjnych? Co pełni rolę zautomatyzowanych testów dla nowych podejść? Co odpowiada przeglądowi kodu, który czyni kryteria ewaluacji jawnymi i wspólnymi? Mechanizm „weryfikacja, ewaluacja, utrwalanie uczenia się” stanowi jednocześnie wyzwanie i szansę dla menedżerów i kadry zarządzającej, którzy chcą wykorzystywać AI do czegoś wyraźnie więcej niż tylko obniżanie kosztów i poprawa efektywności.
Wyobraźmy sobie zespół marketingu wykorzystujący AI do tworzenia założeń kampanii. Weryfikacja polega na sprawdzeniu, czy dokument spełnia podstawowe standardy marki, takie jak spójny ton komunikacji, poprawne informacje o produkcie i wymagane prawnie zastrzeżenia. Automatyzacja jest szybka i tania. Ewaluacja polega na zadaniu pytania, co ten dokument ujawnia: czy AI wskazała na spostrzeżenia dotyczące klientów, których zespół wcześniej nie nazwał? Czy całkowicie pominęła warstwę emocjonalną? Czy te spostrzeżenia są użyteczne, to znaczy czy mogą inicjować interakcje i oferty budujące relacje lub prowadzące do sprzedaży? Takie osądy wymagają doświadczonego stratega, a nie listy kontrolnej.
Utrwalanie uczenia się polega na tym, aby poprawka wprowadzona przez stratega, na przykład „nasza marka nigdy nie zaczyna komunikacji od cech produktu, lecz od tożsamości klienta”, została zapisana we wspólnym szablonie promptu lub standardzie dokumentu, z którego cały zespół skorzysta następnym razem. Bez tego kroku spostrzeżenie stratega znika wraz z sesją. Dzięki niemu każdy kolejny dokument powstaje już mądrzej. A sam dokument może stać się punktem wyjścia do zaprojektowania inteligentnego agenta marketingowego.
W momencie, gdy dyrektor marketingu lub dyrektor finansowy buduje wokół tych pytań i kryteriów odpowiednie dashboardy, organizacja zaczyna czerpać skumulowane korzyści.
Gdy weryfikacja udaje ewaluację
Ten mechanizm wymaga człowieka, który utrzyma pętlę otwartą wtedy, gdy każdy odruch podpowiada, aby ją zamknąć.
Jaana Dogan, główna inżynier w Google odpowiedzialna za infrastrukturę deweloperską interfejsu Gemini API, przeprowadziła wymowny eksperyment. Skierowała Claude Code, narzędzie konkurencji, na problem, nad którym jej zespół pracował przez wiele miesięcy. Po krótkim poleceniu, bez wykorzystania jakichkolwiek poufnych danych Google, Claude Code wygenerował rozwiązanie projektowe porównywalne z tym, do którego doszedł jej zespół, wraz z działającym prototypem.
Większość menedżerów, widząc taki wynik, poprzestałaby na weryfikacji: „Czy to odpowiada temu, co zbudowaliśmy? Wystarczająco podobne? Przyjąć czy odrzucić?”. Weryfikacja jest szybka, wygodna i zero jedynkowa. Odpowiada na pytanie, które już mamy w głowie.
Dogan zrobiła coś innego. Postanowiła: „To nie jest doskonałe i będę nad tym dalej pracować”.
Ewaluacja polega na zadaniu pytania, co ten wynik ujawnia: o problemie, o naszych założeniach i o tym, czego jeszcze nie nazwaliśmy. Dogan mogła to zrobić, ponieważ miała za sobą miesiące wypracowanego osądu. AI skróciła czas implementacji, ale nie mogła skrócić czasu potrzebnego do zbudowania ekspertyzy. Bez tej wcześniejszej pracy pozostają tylko dwa ruchy: zaakceptować albo odrzucić. Dzięki niej pojawia się trzeci: pozostać w interakcji i uczyć się.
To rozróżnienie umyka większości organizacji. Traktują wyniki AI jak werdykty do potwierdzenia, zamiast jak punkty wyjścia do pogłębionej analizy. Efektem jest konsumpcja przebrana za wdrożenie, czyli weryfikacja mylona z całością zadania.
Wniosek jest jasny: wdrażaj AI najpierw w obszarach, w których twoi ludzie już posiadają głęboką ekspertyzę. Nie dlatego, że AI potrzebuje prowadzenia za rękę, lecz dlatego, że ewaluacja wymaga kogoś, kto potrafi rozpoznać, co w praktyce oznacza „nie jest doskonałe” i co może ujawnić kolejna iteracja. Ekspert w roli ewaluatora nie jest rolą przejściową.
Jednak spostrzeżenie Dogan pozostaje tylko w jej głowie, dopóki infrastruktura go nie utrwali. Pytanie dla każdej organizacji nie brzmi, czy indywidualni eksperci potrafią utrzymywać pętlę otwartą, bo niektórzy zawsze będą to robić. Brzmi, czy istnieje mechanizm, który przekształci ich osąd w wspólną wiedzę, która przetrwa.
Tego mechanizmu brakuje większości organizacji. Mają ekspertów. Niektóre mają nawet ekspertów o odpowiednim nastawieniu. Nie mają jednak infrastruktury, która sprawia, że kumulacja staje się zjawiskiem systemowym, a nie przypadkowym.
Budowanie zdolności
Przełożenie tych praktyk na infrastrukturę dla funkcji biznesowych wykraczających poza oprogramowanie to zadanie, które stoi dziś przed liderami. Wymaga ono co najmniej pięciu działań.
1. Zachowaj ekspertyzę ewaluacyjną w firmie. Aby czerpać korzyści z kumulacji, jesteś zależny od ludzi, którzy potrafią trafnie oceniać wyniki AI. To przekształcona rola wiedzy dziedzinowej: ekspert jako ewaluator, a nie ekspert jako wykonawca. Organizacje, które pozwolą, aby głęboka wiedza ich pracowników zanikła, bo „AI potrafi to już zrobić”, utracą tę niezwykle cenną zdolność.
2. Zbuduj mechanizmy weryfikacji. Jak wspomniano wcześniej, cykl nie może się rozpocząć bez weryfikacji wyników. W oprogramowaniu weryfikacja jest tania: kod działa albo nie działa. W finansach koszt weryfikacji jest umiarkowany, modele można testować na danych historycznych. W planowaniu strategicznym koszt weryfikacji jest wysoki, długoterminowe decyzje mogą rozstrzygać się latami. Większość organizacji traktuje wysoki koszt weryfikacji jako powód, by nie zaczynać pracy z AI. Tymczasem właściwym podejściem jest minimalnie wystarczająca weryfikacja, najtańsze wiarygodne sprawdzenie, że wynik AI nie jest błędny. Mogą to być systemy wielu sędziów ujawniające rozbieżności lub testy spójności porównujące wyniki różnych ujęć tego samego problemu. Żadne z nich nie gwarantuje poprawności, ale każde pozwala rozpocząć cykl.
3. Wprowadź praktyki ewaluacji. Niewiele organizacji systematycznie ocenia wyniki AI. Po każdej istotnej interakcji z AI użytkownicy powinni zadawać trzy pytania: Co zadziałało? Co zawiodło? Co było interesująco błędne, błędne w sposób, który ujawnia coś o problemie, czego zespół wcześniej nie nazwał? W tym trzecim pytaniu kryje się największa wartość. Wynik, który zawiódł w sposób zauważony przez eksperta, ale wcześniej nienazwany, staje się nową wiedzą organizacyjną. To wiedza ukryta staje się jawna. Ludzie muszą być zachęcani do zadawania tych pytań jako elementu codziennej pracy. Ewaluacja powinna zostać wbudowana w procesy.
4. Stwórz systemy utrwalania wiedzy. Ewaluacja bez utrwalania znika. Systemy utrwalania działają na dwóch poziomach: wnioskowania na podstawie zgromadzonych śladów, podobnie jak AI uczy się z danych historycznych, oraz zapisu ludzkiego osądu w formie, do której można wrócić. Oba są istotne. Praktyczne podejście to lekka infrastruktura: dzienniki decyzji, które zapisują nie tylko co zostało postanowione, lecz także dlaczego; repozytoria promptów, które zachowują to, co zadziałało i co zawiodło w pouczający sposób; oraz rejestry ewaluacji, które czynią rozwijające się standardy zespołu możliwymi do przeszukiwania. Zasadą projektową jest możliwość odtworzenia wiedzy, a nie jej kompletność. Dla zespołu marketingu będzie to biblioteka promptów i wspólny szablon dokumentu. Dla zespołu finansowego adnotowany rejestr modeli. Każda funkcja może stworzyć swój odpowiednik pliku CLAUDE.md. Prawdziwym ograniczeniem jest dyscyplina, a nie koszty czy kreatywność.
5. Mierz cykl, nie tylko wynik. Większość organizacji ocenia sukces wdrożenia AI na podstawie takich wskaźników jak liczba używanych narzędzi, zaoszczędzone godziny czy liczba wykonanych zadań. To miary konsumpcji. Organizacje, które chcą czerpać skumulowane korzyści, mierzą cykl: ile interakcji zostało zweryfikowanych? Ile zostało poddanych ewaluacji? Ile wiedzy utrwalono? Jak szybko utrwalona wiedza zmieniła kolejne działania? Czy liderzy zespołów nauczyli się w zeszłym tygodniu czegoś z interakcji z AI, co zmieniło ich sposób pracy w tym tygodniu? Jeśli nie, cykl nie działa.
Głębsza transformacja
Liderzy chcą konsumować AI. Pytają: „Jak dzięki AI produkować szybciej, lepiej i taniej?”. Nowe pytanie brzmi: „Jak systematycznie i w szybkim tempie uczyć się na podstawie tego, co tworzy AI?”.
Produktywność w erze generatywnej sztucznej inteligencji nie jest już tylko relacją wyniku do nakładu. Jest również mierzona ilością uczenia się przypadającą na każdą interakcję. Organizacje, które zbudują mechanizm pozwalający uruchomić cykl: weryfikować, ewaluować, utrwalać i stosować, będą z czasem rozwijać tę zdolność. Te, które tego nie zrobią, będą korzystać z AI, ale nie przekształcą tego w wiedzę. Będą zajęte, lecz nie będą się uczyć i nie osiągną skumulowanych korzyści.
Słowa Dogan dobrze oddają tę zmianę: „To nie jest doskonałe i będę nad tym dalej pracować”. Zweryfikowała, że wynik jest użyteczny. Poddała go ewaluacji, aby zobaczyć, co ujawnia.
Pozostaje w iteracji, a to, czego się uczy, stosuje w kolejnej interakcji. Cykl kumulacji działa. Jest dostępny dla każdej organizacji, która zechce zbudować mechanizm umożliwiający jego działanie.

