Streszczenie:
W specjalnym odcinku podcastu Me, Myself, and AI Daron Acemoglu przekonuje, że sztuczna inteligencja nie posiada z góry określonego przeznaczenia, a jej obecny zwrot ku automatyzacji to wyłącznie wynik biznesowych decyzji największych korporacji technologicznych. Noblista ostrzega przed iluzją nieuchronności postępu i udowadnia, że prawdziwy skok gospodarczy osiągniemy dopiero wtedy, gdy biznes zacznie traktować AI jako specjalistyczne narzędzie informacyjne, ściśle komplementarne względem człowieka. Zamiast szukać oszczędności w redukcji zatrudnienia, firmy powinny wykorzystywać technologię do kreowania nowych zadań i rozszerzania kompetencji swoich pracowników. Acemoglu postuluje jednocześnie pilną potrzebę wdrożenia proaktywnych regulacji, które nie będą dusić innowacji, lecz inteligentnie nakierują rozwój sztucznej inteligencji na tory służące równowadze rynkowej i dobru społecznemu.
Sztuczna inteligencja nie ma z góry określonego przeznaczenia, a jej ostateczny wpływ na rynek pracy i gospodarkę zależy od decyzji, które podejmujemy dziś. O tym, dlaczego technologia powinna wspierać ludzkie umiejętności, a nie je zastępować, rozmawiamy z Daronem Acemoglu – laureatem Nagrody Nobla w dziedzinie ekonomii z 2024 roku, profesorem MIT i współautorem głośnej książki „Władza i postęp”.
W specjalnym odcinku podcastu Me, Myself, and AI, Sam Ransbotham z MIT Sloan Management Review podjął dyskusję z jednym z najważniejszych współczesnych myślicieli ekonomicznych. Daron Acemoglu rzuca wyzwanie powszechnym założeniom na temat sztucznej inteligencji, ostrzegając przed pułapką bezrefleksyjnej automatyzacji i centralizacji danych.
Redakcja MIT SMR: Pana badania od lat skupiają się na styku instytucji, technologii i nierówności społecznych. Jakie główne wnioski płyną z Pana dotychczasowych prac w kontekście dzisiejszego świata biznesu?
Daron Acemoglu: Ekonomią zająłem się, ponieważ już w młodości fascynowały mnie drastyczne różnice w wynikach gospodarczych, politycznych i społecznych między różnymi państwami. Te obserwacje ukształtowały moje podejście badawcze. Skupiam się na tym, jak uwarunkowania instytucjonalne – prawo, normy, sposób organizacji społeczeństwa – wpływają na historię.
Technologia jest w tym układzie głównym kanałem, przez który ludzka pomysłowość wpływa na produktywność i nasz dobrobyt. Zawsze fascynowała mnie interakcja między instytucjami a technologią. Doskonałym przykładem jest rewolucja przemysłowa, kiedy to po raz pierwszy na masową skalę zaczęliśmy wykorzystywać naukę i wiedzę do optymalizacji produkcji dóbr i usług. To, jak ramy instytucjonalne ewoluują wraz z przełomami technologicznymi, jest kluczem do zrozumienia dzisiejszej gospodarki.
W swojej najnowszej książce „Władza i postęp” argumentuje Pan, że technologia nie ma predefiniowanej ścieżki rozwoju. Jak ostatnie, niezwykle dynamiczne zmiany w obszarze AI wpłynęły na Pana poglądy?
Główną tezą Władzy i postępu jest to, że technologia w dużej mierze robi to, czego od niej oczekujemy. Nie istnieje żadne z góry zapisane przeznaczenie, które nieuchronnie prowadzi nas w jednym, konkretnym kierunku. Mamy ogromną sprawczość w kształtowaniu przyszłości technologii. Różne scenariusze tej przyszłości oznaczają różnych wygranych i przegranych, a także odmienne koszty i zyski.
Narracja mówiąca o tym, że istnieje tylko jedna, naturalna ścieżka rozwoju AI, którą podążamy niezależnie od naszej woli – i że ostatecznie wszyscy staniemy się dzięki niej niesamowicie bogaci – jest po prostu naiwna. Walka z tym mitem jest dziś niezwykle ważna, ponieważ usypia on naszą czujność. Wywołuje poczucie bezradności i samozadowolenia, co może być dla społeczeństwa bardzo kosztowne. Oczywiście, gdy pisaliśmy książkę na przełomie 2021 i 2022 roku, trudno było przewidzieć aż tak gwałtowny rozwój generatywnej AI. Jednak te postępy nie zmieniły podstawowych dylematów, o których piszemy.
Jakie zatem, z wysokiego poziomu, mamy obecnie alternatywy dla rozwoju sztucznej inteligencji?
W procesie produkcji można wyróżnić dwa bieguny, które ciągną nas w przeciwnych kierunkach. Pierwszym z nich jest automatyzacja. To marzenie większości twórców współczesnych modeli AI, zwłaszcza tych tworzonych pod sztandarem sztucznej inteligencji ogólnego przeznaczenia (AGI). Celem AGI jest dorównanie możliwościom najlepszych pracowników w najróżniejszych dziedzinach, co czyni ją idealnym narzędziem do automatyzacji zadań.
Automatyzacja ma swoje zalety – eliminuje zadania rutynowe i nudne, a w środowisku fizycznym (np. przy użyciu robotów) może usunąć z naszego harmonogramu prace niebezpieczne. Jednak sama w sobie nie przynosi korzyści pracownikom. Odbiera im zadania, faworyzując kapitał i jego właścicieli.
Co znajduje się na drugim biegunie?
Na drugim biegunie mamy technologie komplementarne względem człowieka. Oznacza to, że systemy te umożliwiają ludziom robienie rzeczy lepiej, wydajniej lub pozwalają na wykonywanie całkowicie nowych obowiązków. Nazywam to kreowaniem „nowych zadań”.
Spójrzmy na rynek pracy: wiele dzisiejszych zawodów opiera się na zadaniach, których 50 lat temu nie dało się nawet wyobrazić. Praca dziennikarza, wykorzystującego zaawansowane technologie badawcze do tworzenia podcastów, wymaga dziś zupełnie innych kompetencji niż dekady temu. Te nowe zadania są historycznie bardzo korzystne dla wzrostu produktywności, poziomu zatrudnienia oraz wynagrodzeń pracowników. Niestety, obecnie modele AI są tworzone przede wszystkim jako narzędzia centralizacji informacji, a nie wsparcia jednostek.
Czego zatem firmy i liderzy biznesowi powinni szukać, jeśli chcą podążać ścieżką komplementarności i „nowych zadań”?
To rozbrajająco proste. AI to technologia informacyjna, a nie stricte technologia automatyzacji. Sztuczna inteligencja nie myśli jak ludzki mózg. Posiada imponujące możliwości, których my nie mamy, ale brakuje jej zdolności do krytycznego osądu i kreatywności, które są dla nas naturalne.
AI jest fenomenalna w przeszukiwaniu gigantycznych zbiorów danych i dostarczaniu odpowiedniego kontekstu dla konkretnego zadania. Wyobraźmy sobie elektryka, który napotyka zupełnie nowe, nieznane mu urządzenie. Odpowiednie narzędzie AI mogłoby mu natychmiast, w sposób wiarygodny, wyjaśnić przyczyny nietypowego zachowania sprzętu i podpowiedzieć, jak urządzenie współpracuje z daną siecią. Dzięki temu specjaliści (np. pielęgniarki, edukatorzy, inżynierowie) mogliby wykonywać znacznie bardziej wyrafinowane zadania na podstawie lepszych informacji. Problem polega na tym, że wielkie firmy technologiczne inwestują ułamek swoich środków w rozwój AI jako narzędzia pro-ludzkiego.
Czy powodem nie jest fakt, że firmom technologicznym brakuje zachęt ekonomicznych do tworzenia takich dziedzinowych narzędzi?
Dokładnie tak. Obecnie nie ma odpowiednich bodźców rynkowych, ponieważ nie wpisuje się to w model biznesowy wiodących korporacji. Brakuje specjalistycznych, wysoce niezawodnych danych treningowych. Dzisiejsza architektura dużych modeli językowych (LLM) może mieć twarde limity, jeśli chodzi o niezawodność, która w zastosowaniach profesjonalnych jest kluczowa.
Weźmy za przykład medycynę i wsparcie dla pielęgniarek. Jeśli system AI pomyli się raz na tysiąc przypadków i poda pacjentowi zły lek, to w medycynie taki wskaźnik błędu jest absolutnie nie do zaakceptowania. Potrzebujemy innej architektury i zupełnie innego podejścia do trenowania modeli.
Porozmawiajmy o produktywności. Trudno dziś precyzyjnie zmierzyć wyniki w gospodarce opartej na wiedzy. Jakie to ma znaczenie dla oceny realnego wpływu AI?
Kwestia pomiaru jest kluczowa i wiąże się z pewnym paradoksem, który budzi mój sceptycyzm wobec niektórych szumnych obietnic wokół AI. Żyjemy w epoce rzekomo gigantycznych innowacji – liczba patentów w USA wzrosła czterokrotnie w ciągu ostatnich 40 lat, codziennie dostajemy nowe aplikacje. Jednak używając standardowych miar ekonomicznych, nie widzimy znaczącej poprawy produktywności. Właściwie wzrost produktywności jest dziś wolniejszy niż w latach 50., 60. czy 70. – w epoce przedcyfrowej. Zwolennicy Doliny Krzemowej twierdzą, że to problem niedoskonałych wskaźników i złego pomiaru jakości cyfrowych dóbr. Jest w tym ziarno prawdy, ale nie tłumaczy to wszystkiego. Jeśli wdrożenia AI sprowadzą się wyłącznie do automatyzacji i centralizacji informacji w rękach kilku korporacji, to obiecywany boom produktywności po prostu nie nadejdzie.
Co my, jako przedsiębiorcy, menedżerowie i jednostki, możemy zrobić w obliczu dominacji gigantów technologicznych (tzw. FAANG)?
Możemy zrobić bardzo wiele. Wielkie firmy technologiczne mają to, co nazywamy „siłą perswazji”. Przekonały społeczeństwo, że ich intencje są szlachetne, a technologia działa na naszą korzyść. Wmawiają nam: „Stworzyliśmy boską technologię, a ona służy wyłącznie wam”. Władza absolutna psuje absolutnie. Nie powinniśmy bezkrytycznie ufać tym deklaracjom.
- Naukowcy i Inżynierowie: Setki tysięcy pracowników tych firm ma bezpośredni wpływ na kierunek badań. Mogą zdecydować, że chcą pracować nad technologiami pro-ludzkimi, a nie tylko nad AGI.
- Przedsiębiorcy i Start-upy: Obecnie celem większości innowatorów jest przejęcie przez technologiczych gigantów. Zmiana tego paradygmatu, poszukiwanie alternatywnych modeli biznesowych i budowanie wartości opartej na decentralizacji mogłoby zmienić rynkową dynamikę.
Gdzie w tym wszystkim jest miejsce na regulacje prawne?
Regulacje zawsze są wyzwaniem. Europa jest daleko w tyle w rozwoju AI, ponieważ jej system regulacyjny bywa zbyt uciążliwy dla innowatorów. Trzeba znaleźć złoty środek.
Po pierwsze, konieczne są twarde zasady tam, gdzie technologia dotyka kwestii krytycznych dla zdrowia, informacji czy demokracji. Nie możemy pozwalać modelom AI udawać lekarzy bez rygorystycznych testów kompetencji. Po drugie, potrzebujemy zmiany filozofii regulacji. Prawo nie powinno być reaktywne (blokujące rozwój), lecz proaktywne. Powinno delikatnie korygować zakłócenia rynkowe i kierować branżę w stronę modeli wspierających pracowników i decentralizację.
Na koniec pytanie o Pana osobiste doświadczenia. Jak sam Pan korzysta ze sztucznej inteligencji na co dzień?
Korzystam z niej podobnie jak inni. Czasami zadaję pytania ChatGPT. Zazwyczaj jestem zaskoczony tym, jak dobrze to narzędzie radzi sobie z syntezą podstawowej wiedzy. Z drugiej strony, jeśli zapytam o temat, na którym świetnie się znam, niemal zawsze jestem rozczarowany. Model udaje, że wie więcej niż w rzeczywistości, zbytnio ekstrapoluje i w efekcie podaje niepoprawne odpowiedzi. Konkluzja jest prosta: sztuczna inteligencja nie zastąpi ludzi, lecz ostatecznie stanie się narzędziem współpracującym u naszego boku. Im szybciej zrozumiemy, jak mądrze kształtować tę współpracę, tym lepiej dla przyszłości gospodarki.
