Streszczenie:
Wdrażając generatywną sztuczną inteligencję, liderzy liczą na skokowy wzrost efektywności. Jednak neuronauka wysyła sygnał ostrzegawczy: to, co w Excelu wygląda jak optymalizacja, w ludzkim mózgu może powodować atrofię kluczowych kompetencji. Gdy algorytmy przejmują „trudne myślenie”, nasz mózg, zaprogramowany do oszczędzania energii, wpada w pułapkę łatwych nagród, tracąc zdolność do podejmowania wysiłku poznawczego.
Wdrażając generatywną sztuczną inteligencję, liderzy liczą na skokowy wzrost efektywności. Jednak neuronauka wysyła sygnał ostrzegawczy: to, co w Excelu wygląda jak optymalizacja, w ludzkim mózgu może powodować atrofię kluczowych kompetencji. Gdy algorytmy przejmują „trudne myślenie”, nasz mózg, zaprogramowany do oszczędzania energii, wpada w pułapkę łatwych nagród, tracąc zdolność do podejmowania wysiłku poznawczego.
Iwo Zmyślonyi Ewa Hartman wyjaśniają, dlaczego bezrefleksyjna automatyzacja może prowadzić do kryzysu sprawczości, utraty ważnych umiejętności i wypalenia oraz dlaczego dbanie o „system nerwowy” firmy staje się nowym priorytetem strategicznym.
Iwo Zmyślony: Zacznijmy od kwestii, która brzmi jak diagnoza naszych czasów: co AI i algorytmy robią z naszym systemem nerwowym?
Ewa Hartman: Zanim przejdziemy do konkretów, musimy zaznaczyć, że mówimy o procesach, które mogą się wydarzyć, ponieważ mózg jest neuroplastyczny i każda trwała zmiana wymaga czasu. Biorąc jednak pod uwagę sposób, w jaki korzystamy z nowej technologii, z wysokim prawdopodobieństwem możemy spodziewać się rozregulowania układu nagrody i poważnych kłopotów z poziomem dopaminy. Dopamina jest ewolucyjnie odpowiedzialna za motywację do działania i podejmowanie wysiłku, który kiedyś był niezbędny do przetrwania, jak na przykład zdobycie jedzenia czy znalezienie schronienia. Problem polega na tym, że nasz mózg dąży do oszczędności energetycznej i bardzo chętnie „zaczepia się” na AI, która pozwala wykonywać zadania bez wysiłku. Łatwe źródła dopaminy sprawiają, że z czasem tracimy poczucie sprawczości i autonomii, co w dalszej perspektywie może prowadzić nawet do stanów depresyjnych. Jeśli system dopaminowy przyzwyczai się do dawek bezwysiłkowych, nasza ogólna motywacja do robienia czegokolwiek zacznie drastycznie spadać.
Dlaczego z perspektywy neurologicznej ta droga na skróty jest ryzykowna dla lidera czy eksperta? Czy możemy utracić kompetencje, których nie wykorzystujemy?
Mózg działa w sposób bardzo pragmatyczny i nie zasila energetycznie neuronów, które nie są aktywne, ponieważ w czaszce jest zbyt mało miejsca na utrzymywanie wszystkich połączeń w gotowości. Jeśli przestajemy samodzielnie wykonywać pewne czynności, dochodzi do tak zwanego przycinania nieużywanych ścieżek, co dotyka zarówno naszej pamięci deklaratywnej, czyli wiedzy o faktach, jak i naszej pamięci proceduralnej, czyli umiejętności robienia rzeczy. To ogromne ryzyko przedwczesnej neurodegeneracji, ponieważ rezygnując z wysiłku intelektualnego, nie używamy pełnego systemu pamięciowego, który jest nam dany ewolucyjnie. Przykładem może być pisanie tekstów czy tłumaczenie. Jeśli robimy to wyłącznie za pomocą maszyn, tracimy unikalną zdolność wyczuwania niuansów językowych i samodzielnego budowania struktury wywodu. To proces demielinizacji (proces uszkodzenia lub utraty osłonki mielinowej otaczającej włókna nerwowe – przyp. red.) naszych umiejętności, który sprawia, że stajemy się bezbronni w momencie, gdy technologia zawiedzie.
Generatywna sztuczna inteligencja weszła do powszechnego użytku relatywnie niedawno. Czy pojawiły się już dowody na to, jak szybko tracimy te umiejętności?
Tak, znamy historię grafików, którzy przez dwa lata korzystali z inteligentnej wtyczki do Photoshopa. Gdy z powodu awarii przestała działać, okazało się, że profesjonaliści z wieloletnim stażem nie potrafią wykonać pracy, którą kiedyś robili bez trudu. W ciągu zaledwie dwóch lat nastąpił drastyczny deskilling. To ryzyko strategiczne: jeśli twoje twarde kompetencje znajdują się na „dysku zewnętrznym” dostawcy technologii, tracisz autonomię.
W książce Pułapki myślenia. O myśleniu szybkim i wolnym Daniel Kahneman, laureat Nagrody Nobla w dziedzinie ekonomii, opisał dwa odrębne systemy poznawcze, które rządzą naszymi decyzjami i zachowaniem. Jak ten podział na ma się do świata AI?
System pierwszy to domena nawyków, heurystyk i predykcji, które pozwalają nam funkcjonować bez nadmiernego obciążania zapasów energetycznych mózgu, który zawsze dąży do wypracowania nawyku, bo to jest dla niego bezpieczne i „tanie”. AI bardzo sprawnie symuluje właśnie te procesy, wykonując zadania powtarzalne i rutynowe. Natomiast system drugi odpowiada za funkcje egzekutywne kory nowej, czyli łączenie kropek, wybieganie w przyszłość, świadomą naukę i osadzanie sytuacji w kontekście. W porównaniu z ludzkim mózgiem algorytmy wciąż radzą sobie znacznie gorzej z zadaniami wymagającymi aktywności systemu drugiego, takimi jak adaptacja do zupełnie nowych, niepowtarzalnych sytuacji. I właśnie największym zagrożeniem jest to, że przez nadmierne poleganie na technologii przestajemy ćwiczyć system drugi, ponieważ jego używanie jest dla nas energetycznie kosztowne i subiektywnie nieprzyjemne. Tracimy zdolność krytycznego myślenia, ponieważ ono wymaga energii, której nasz mózg – zachęcony przez AI – nie chce już wydatkować.
Czy to oznacza, że stajemy się mniej inteligentni jako gatunek? Amerykański psycholog społeczny Jonathan Haidt ostrzega przed „wielkim przeprogramowaniem” młodych pokoleń w wyniku radykalnej zmiany warunków dorastania dzieci i młodzieży.
To realne zagrożenie. Jeśli od dziecka dostajemy świat w wysokiej rozdzielczości, który nie wymaga wyobraźni, nasz mózg nie buduje odpowiedniego „okablowania”. Przykładem jest kreatywność: dziecko, które bawi się patykiem, musi nadać mu znaczenie – to wysiłek dla wyobraźni. Gdy dostaje gotową elektryczną lokomotywę, ten proces nie zachodzi. Podobnie w biznesie: jeśli juniorzy od początku pracują wyłącznie z AI, nie budują pamięci proceduralnej. Za chwilę nie będziemy mieli seniorów, bo nikt nie przejdzie drogi żmudnego uczenia się na błędach.
Co w takim razie możemy zrobić, aby chronić nasze mózgi? Co neuronauka proponuje liderom i menedżerom?
Musimy zadbać o nasz „hardware” i warunki pracy. Kluczową kwestią jest świadome wybieranie wysiłku. Rób rzeczy trudne, których nie lubisz. To fizycznie powiększa obszary kory nowej odpowiedzialne za silną wolę. Środowisko pracy musi być zaprojektowane tak, by sprzyjało aktywności systemu drugiego, co wymaga odejścia od toksycznej kultury opartej wyłącznie na krótkoterminowej efektywności. Kluczowe jest wspieranie nastawienia na rozwój oraz nagradzanie wysiłku i uczenia się, a nie tylko samego wyniku. W dobie likwidowania stanowisk juniorskich musimy też świadomie inwestować w mentoring, aby eksperci przekazywali swoją wiedzę proceduralną kolejnym pokoleniom, zanim ta wiedza zostanie całkowicie wyparta przez algorytmy.
Pespektywa likwidacji stanowisk juniorskich brzmi rzeczywiście niepokojąco. Jakie to niesie długofalowe skutki dla struktury kompetencji w firmach?
Obecnie wiele organizacji decyduje się na zastąpienie ról juniorskich sztuczną inteligencją, ponieważ maszyny wykonują proste zadania szybciej i taniej. To jednak prowadzi w ślepy zaułek – jeśli nie pozwolimy młodym pracownikom przejść przez etap juniora, za kilka lat nie będziemy mieli seniorów, bo ci nie będą mieli gdzie zdobyć niezbędnego doświadczenia. Rozwiązaniem chroniącym obie strony jest świadomy mentoring, w którym doświadczony ekspert prowadzi juniora, ucząc go procesów bez nadmiernego wspomagania algorytmami. Takie podejście zabezpiecza seniora przed utratą kompetencji wynikającą z braku ich praktykowania, a juniorowi pozwala na zbudowanie trwałego „okablowania” neuronalnego. Bez takiej inwestycji w edukację biznes ryzykuje, że twarde kompetencje potrzebne do rozwoju pozostaną wyłącznie w rękach zewnętrznych dostawców technologii.
Mówisz o konieczności współpracy seniora i juniora, czyli wskazujesz na pracę zespołową jako naturalną przeciwwagę dla AI. Czy nasze mózgi potrzebują fizycznej obecności w biurze?
Z neurologicznego punktu widzenia praca w domu jest dla nas wygodniejsza, ponieważ mózg zawsze dąży do oszczędzania energii i unikania zbędnego wysiłku. Jednak to właśnie interakcje społeczne i praca zespołowa stanowią naturalny balans dla izolacji, jaką pogłębia praca z interfejsami. Ważne jest jednak, aby czas spędzany w biurze był wartościowy i różnił się od tego, co możemy zrobić w domu. Jeśli pracownik przychodzi do firmy tylko po to, by robić dokładnie to samo, co w domu, jego mózg słusznie będzie się buntował. Potrzebujemy relacji i wspólnego działania, by stymulować te obszary mózgu, które odpowiadają za empatię, rozpoznawanie intencji czy czytanie między wierszami, czego nie da się w pełni zautomatyzować.
Co możemy zrobić dla swojego mózgu w tym „cyfrowym smogu”?
Musimy zadbać o podstawowe zasoby biologiczne, ponieważ bez odpowiedniego paliwa nie będziemy w stanie podejmować wysiłku intelektualnego. Sen jest absolutnie niezbędny dla regeneracji i utrwalania połączeń neuronalnych, podobnie jak ruch, który stymuluje produkcję białka BDNF (brain-derived neurotrophic factor), będącego budulcem naszych neuronów. Powinniśmy też świadomie wybierać to, co jemy, unikając przetworzonej żywności i alkoholu, a stawiając na kwasy omega-3 i witaminy z grupy B, które wspierają osłonki mielinowe naszych komórek nerwowych. Najważniejszą praktyką jednak jest celowe robienie rzeczy trudnych, których nie lubimy, ponieważ to właśnie wysiłek i konieczność użycia woli fizycznie wzmacnia obszary mózgu odpowiedzialne za sprawczość i odporność psychiczną. Tylko w ten sposób możemy zachować zdolności, których maszyny nigdy nie będą w stanie w pełni zasymulować.
Wysiłkowi sprzyja zasada human in the loop, oznaczająca konieczność ludzkiego nadzoru nad algorytmami. Jak z perspektywy neurobiologicznej wygląda nasza zdolność do wyłapywania błędów i halucynacji algorytmów?
To niezwykle ważny aspekt, ponieważ świadomość krytyczna i umiejętność wyłapywania błędów zależą bezpośrednio od poziomu kompetencji twardych. Jako osoba sprawnie posługująca się językiem angielskim jestem w stanie zauważyć niuanse i błędy w tłumaczeniu wykonanym przez ChatGPT, których laik po prostu nie dostrzeże. Maszyna przyspiesza pracę, którą i tak już umiemy wykonać, ale ryzyko pojawia się wtedy, gdy chcemy za pomocą AI zamarkować umiejętności, których nie posiadamy. W takiej sytuacji nie tylko nie zauważymy halucynacji modelu, lecz także popadniemy w silny lęk przed demaskacją lub sytuacją, w której technologia nagle przestanie działać. Fundamentem bezpiecznej współpracy z AI jest więc posiadanie eksperckiej wiedzy poza systemem, która pozwala na metodyczne kwestionowanie i weryfikację tego, co wypluwa algorytm.
I na koniec: jaka jest najważniejsza „czerwona flaga”, którą powinniśmy monitorować u siebie i w naszych organizacjach, aby nie przegapić momentu, gdy technologia zaczynie nam szkodzić?
Najważniejszym sygnałem ostrzegawczym jest moment, w którym zaczynamy tracić autentyczne zainteresowanie życiem, co przejawia się tym, że coraz mniej rzeczy nas naprawdę cieszy. Jeśli zauważamy u siebie lub pracowników narastający wewnętrzny opór przed podjęciem nawet prostych działań, jest to wyraźny sygnał, że nasz układ dopaminowy zaczyna się chwiać z powodu braku wyzwań i nadmiernego polegania na ułatwieniach. Musimy być świadomi, że wspomaganie się maszyną w każdym procesie niesie ze sobą ryzyko nie tylko utraty twardych umiejętności, czyli deskillingu, lecz przede wszystkim – poczucia sensu i sprawczości, co jest prostą drogą do zaburzeń nastroju.
Wykonywanie wysiłku, nawet gdy czujemy niechęć, jest niezbędne, by podbić poziom dopaminy i odbudować przekonanie, że wciąż mamy wpływ na otaczającą nas rzeczywistość. W cyfrowym świecie naszym najważniejszym przykazaniem staje się więc dbanie o zasoby, których nie posiada AI – o wolę, energię do robienia rzeczy trudnych i autentyczne relacje, bo to one stanowią o naszej unikalności i przewadze. •

