Znani inwestorzy i przedsiębiorcy nie kryją swoich obaw związanych z rozwojem AI. Warren Buffett porównuje ją do broni jądrowej, a Elon Musk sądzi, że sztuczna inteligencja wyprzedzi tę ludzką już w przyszłym roku. Ale czy powinniśmy im wierzyć?
Podczas corocznego spotkania akcjonariuszy Berkshire Hathaway w Omaha w stanie Nebraska Warren Buffett wygłosił przemówienie, w którym odniósł się do tematu sztucznej inteligencji, porównując wzrost znaczenia tej technologii do rozwoju broni jądrowej w czasie II wojny światowej. Nawiązał do swoich uwag z zeszłorocznego spotkania, kiedy powiedział, że opracowując broń nuklearną, wypuściliśmy dżina z butelki. Kolejnym dżinem, jego zdaniem, jest sztuczna inteligencja, której moc przeraża go do szpiku kości. Amerykański inwestor giełdowy, przedsiębiorca i filantrop, a także dyrektor generalny Berkshire Hathaway przyznał również, że nie zna żadnego sposobu, by dżin wrócił do butelki.
„Sztuczna inteligencja jest dość podobna [do broni nuklearnej – przy. red.], już ją wypuszczono z butelki, do tego stała się niezmiernie ważna, i ktoś zajmuje się jej rozwojem, więc albo będziemy żałować, że kiedykolwiek zobaczyliśmy tego dżina, albo zdziała on cuda” – mówił Buffet.
Przedsiębiorca szczególną uwagę publiczności zebranej w Omaha zwrócił na technikę deepfake. Podzielił się swoimi spostrzeżeniami po zetknięciu się ze spreparowanym materiałem, w którym utrwalono jego wizerunek, mimo że nigdy na to nie pozwolił: „Zostałem przedstawiony w przekazie, który w żaden sposób nie pochodził ode mnie. Oszustwa zawsze były częścią amerykańskiej sceny, ale… teraz skala zjawiska wzrośnie. To będzie branża wszech czasów”.
Kilka dni później media obiegło zdjęcie Katy Perry w spektakularnej kreacji, w której pojawiła się na Met Gali. Nawet matka gratulowała córce doboru sukni, zdziwiona, że Katy wzięła udział w wydarzeniu, mimo że wcześniej tego nie planowała. Okazało się, że wcale jej tam nie było, a viralowe zdjęcie wygenerowano za pomocą sztucznej inteligencji. Buffet wywołał wilka z lasu, zwracając uwagę na syntetyczną rzeczywistość, w której generowanie ataków militarnych, negocjacji czy rozmów politycznych, do których nigdy nie doszło, staje się coraz łatwiejsze i może zwieść nawet najbardziej czujnych odbiorców.
Buffett już wcześniej zwracał uwagę na ryzyko związane ze sztuczną inteligencją, ale teraz trafił na bardziej podatny grunt. Jego głos wybrzmiewa, gdy na własne oczy możemy zobaczyć, jak sztuczna inteligencja tworzy ogromne ilości treści (szacuje się, że do 2025 roku 90% treści marketingowych powstanie przy użyciu AI), a jej rozwój podsyca oczekiwania świata biznesu i zwiększa liczbę spekulacji dotyczących tego, jak technologia wywróci do góry nogami codzienne życie.
Chociaż Berkshire nie inwestuje bezpośrednio w akcje związane ze sztuczną inteligencją, warto wspomnieć, że w jego portfelu inwestycyjnym duży udział ma gigant technologiczny Apple. „Wall Street Journal” donosił ostatnio, że firma pracuje nad własnym tajnym projektem chipa AI do centrów danych, szukając swojej niszy w wyścigu AI.
Uwagi Buffetta na temat sztucznej inteligencji są zgodne z długoletnimi poglądami Berkshire na temat inwestowania. Wyrocznia z Omaha od wielu lat wykazuje się bowiem głębokim sceptycyzmem wobec nowych, głośnych wydarzeń w gospodarce. Szerokim echem w świecie odbiła się niechęć funduszu do inwestowania w bitcoiny.
Buffet nie jest sam. Hinton i Schmidt z Google’a też przestrzegają przed
Buffet jest znany ze swojej fobii technologicznej. W przeszłości ostrzegał, że sztuczna inteligencja będzie „ogromnie destrukcyjna”, ale jednocześnie przyznawał, że może się okazać pomocna w odblokowaniu efektywności ekonomicznej. Inwestor nie jest osamotniony w postrzeganiu sztucznej inteligencji jako ryzyka egzystencjalnego lub przewidywaniu, że AI w końcu przewyższy ludzką inteligencję.
Jego wieloletni zastępca Charlie Munger, który zmarł w listopadzie 2023 roku w wieku 99 lat, na zeszłorocznym spotkaniu Berkshire przyznał, że jest „nieco sceptyczny wobec szumu, który otacza sztuczną inteligencję”. Sądził przy tym, że staromodna inteligencja działa całkiem nieźle…
Obawami dotyczącymi wpływu rozwoju sztucznej inteligencji na biznes i społeczeństwo dzielili się dotychczas m.in. Geoffrey Hinton, Eric Schmidt czy Elon Musk.
Pionier sieci neuronowych, nazywany ojcem sztucznej inteligencji, szanowany badacz, emerytowany profesor Uniwersytetu w Toronto, były wiceprezes Google Geoffrey Hinton na początku maja 2023 roku ogłosił, że opuszcza firmę – częściowo ze względu na swój wiek, ale także dlatego, że zmienił zdanie na temat relacji między ludźmi a sztuczną inteligencją. W szeroko dyskutowanym wywiadzie dla „The New York Times” powiedział, że generatywna inteligencja może szerzyć dezinformację i zagrozić ludzkości. Niedługo potem podczas konferencji EmTech Digital ostrzegał: „Biję na alarm, mówiąc, że musimy się tym martwić”. Nie miał jednak wielu przekonujących argumentów, oprócz tego, że AI może przechytrzyć ludzi.
Były dyrektor generalny Google Eric Schmidt stwierdził, że jego zdaniem możliwości sztucznej inteligencji mogą zagrozić ludzkości w ciągu od 5 do 10 lat, a firmy nie robią wystarczająco dużo, aby zapobiec szkodom. W wywiadzie udzielonym na szczycie AI+ Summit Schmidt – tak jak Buffet – porównał rozwój sztucznej inteligencji do wynalezienia broni jądrowej pod koniec II wojny światowej. Powiedział, że po wydarzeniach w Nagasaki i Hiroszimie globalnym decydentom zajęło 18 lat, aby wypracować układ o zakazie prób broni nuklearnej w atmosferze, w przestrzeni kosmicznej i pod wodą (1963). Jego zdaniem w wypadku AI „nie mamy aż tyle czasu”.
Elon Musk na ratunek ludzkości
Z kolei w kwietniu 2024 r. Elon Musk podzielił się na platformie X (dawniej Twitter) swoimi predykcjami, że spodziewa się, iż duże modele językowe przewyższą ludzką inteligencję do końca 2025 roku. „Domyślam się, że prawdopodobnie pod koniec przyszłego roku będziemy mieli sztuczną inteligencję mądrzejszą niż jakikolwiek człowiek” – powiedział Nicolaiowi Tangenowi, dyrektorowi generalnemu Norges Bank Investment Management, w wywiadzie transmitowanym na żywo przez X. Po chwili dodał, że w ciągu pięciu lat sztuczna inteligencja prawdopodobnie przewyższy możliwości wszystkich ludzi.
Optymistyczne nastawienie Muska do sztucznej inteligencji pojawiło się zaledwie rok po tym, jak podpisał list otwarty wzywający laboratoria AI do sześciomiesięcznego wstrzymania prac związanych z rozwojem zaawansowanych systemów sztucznej inteligencji oraz po długiej historii publicznie wygłaszanych obaw dotyczących zagrożeń, jakie AI niesie dla ludzkości.
W książce biograficznej poświęconej miliarderowi Walter Issascon szczegółowo opisuje pierwsze kroki Muska w świecie AI. W 2012 roku na konferencji organizowanej przez byłego wspólnika i współzałożyciela PayPal Petera Thiela Musk poznał Demisa Hassabisa, który stworzył DeepMind. Wtedy twórca SpaceX zainwestował w rozwój tej sieci neuronowej 5 milionów dolarów, głownie dlatego, że spodobała mu się świadomość zagrożeń AI, jaką wykazywał się Hassabis. Niedługo potem jednak start‑upem DeepMind zaczął interesować się Google, który w styczniu 2014 roku sfinalizował zakup, co Musk chciał aktywnie powstrzymać. Wtedy bardzo często dzielił się spostrzeżeniami o tym, jak nieodpowiedzialne jest rozwijanie AI bez jakiegokolwiek zewnętrznego nadzoru czy standardów bezpieczeństwa, bo może to spowodować, że AI zastąpi ludzi, degenerując nasz gatunek i doprowadzając nawet do tego, że zagrozi nam wymarcie.
Choć wysiłki Muska, aby powstrzymać przejęcie DeepMind przez Google, spaliły na panewce, ówczesny szef giganta technologicznego Larry Page zgodził się na powołanie ciała doradczego, tzw. rady bezpieczeństwa AI, do której powołano również Muska, ale odbyło się tylko jedno kurtuazyjne spotkanie. Swoją drogą wziął w nim udział wspomniany wyżej Eric Schmidt. Była to jednak farsa, którą Musk skwitował stwierdzeniem, że Google nie zamierza zważać na bezpieczeństwo AI czy w jakikolwiek sposób się ograniczać w imię interesów ludzkości.
Musk zaczął publicznie wypowiadać się o konsekwencjach związanych z niekontrolowanym rozwojem AI, głosząc w 2014 roku na sympozjum MIT, że to jedno z naszych największych egzystencjalnych zagrożeń. Gdy Amazon, a potem Google ogłosiły swoich asystentów domowych (Alexa i Echo), sprzeciwiał się również temu trendowi. Ostrzegał, co się może stać, jeśli te chatboty zrobią się mądrzejsze do ludzi, i kwitował, że nie podoba mu się wizja, w której miałby zostać domowym… kotem.
W związku ze swoimi obawami Musk zainicjował nawet spotkania w gronie wpływowych ludzi na temat bezpieczeństwa sztucznej inteligencji, podczas których dyskutowano różne scenariusze. Próbował zainteresować tym tematem prezydenta Obamę. Ostatecznie powołał wraz z Samem Altmanem OpenAI, czyli laboratorium AI non‑profit zajmujące się promowaniem i tworzeniem sztucznej inteligencji przyjaznej ludziom. Pierwotna wizja była klarowna – stworzenie linuxowej wersji AI, która nie będzie kontrolowana ani przez jednego człowieka, ani przez jedną firmę. Musk opuścił OpenAI w 2018 roku i od tego czasu jest jego krytykiem. Ponadto w marcu pozwał OpenAI i Altmana za naruszenie umowy, twierdząc, że narazili na szwank deklarowaną misję start‑upu, polegającą na budowaniu sztucznej inteligencji dla dobra ludzkości.
Wszystkie te obawy nie powstrzymały Muska od prac nad własnym modelem językowym. Twórca SpaceX i Tesli ostatnio starał się przekonać inwestorów, aby wpompowali miliardy w Groka, jego nowy projekt dla X (Twitter), opracowywany przez X AI, wyróżniający się integracją z X/Twitterem, co daje mu dostęp do dużej ilości danych aktualizowanych w czasie rzeczywistym. Nic więc dziwnego, że ostatnimi czasy Musk zmienił ton i zamiast o zagrożeniach mówi o możliwościach, jakie AI oferuje. Taka narracja z pewnością ułatwia pozyskanie inwestorów.
Coś na uspokojenie? To tylko bańka technologiczne
W szumie informacyjnym dotyczącym sztucznej inteligencji coraz trudnej oddzielić rzetelne informacje od subiektywnych przemyśleń i szczere opinie od opinii podszytych ukrytymi interesami. Łatwo dać się zwieść barwnym wizjom i ulec charyzmie światowych liderów; dać się przekonać do nieuchronności zmian i działań, które należy podjąć tu i teraz.
Profesor Virginia Tech Lee Vinsel twierdzi, że aktualnie nic nie wskazuje na to, aby twoja firma utraciła swoją strategiczną pozycję, a nawet popadła w kłopoty, jeśli zrobisz sobie przerwę po to, aby wypracować przemyślany tok postępowania, zamiast rzucać się na oślep w te rejony, w których króluje AI. A tym, którzy obawiają się przegapić wielką szansę, ale jednocześnie nie chcą marnować czasu i pieniędzy na wdrażanie przereklamowanych technologii, przypomina o bańkach technologicznych. Jak napisali wykładowcy uczelni biznesowych Brent Goldfarb i David Kirsch w książce Bubbles and Crashes: The Boom and Bust of Technological Innovation z 2019 roku, bańki technologiczne to zjawiska bazujące na narracjach – opowieściach o tym, jak nowa technologia będzie się rozwijała i wpływała na społeczeństwa i gospodarki. Niestety wczesne narracje, które pojawiają się wokół nowych technologii, niemal zawsze okazują się nieprawdziwe, a przecenianie obietnic i możliwości zarówno nowych systemów, jak i zagrożeń to samo sedno baniek technologicznych.
Wiele osób wywołuje szum informacyjny wokół technologii, bo im na nim zależy. Wracając do przykładu Muska, warto wspomnieć, że jego predykcje często okazywały się nietrafione, a gdy dotyczyły produktów, które sam rozwijał, zazwyczaj były „nietrafione na jego korzyść”. To znaczy: ogłaszał, że dana technologia zaistnieje wcześniej i na większą skalę, niż faktycznie się to działo. Wedle jego przewidywań autonomiczne samochody Tesli już dziś powinny być dostępne na każdym kroku, tymczasem ta technologia nadal jest udoskonalana, bo ma niedociągnięcia. Ponadto początkowo Musk sądził, że SpaceX poleci na Marsa do 2024 r. (obecnie wstępna data to 2029 r.). A Cybertruck Tesli pojawił się na rynku ponad dwa lata później, niż miliarder przepowiadał.
Morał z tego taki, że warto czerpać wiedzę z różnych źródeł i nie dawać się zwieść żadnej narracji, ani tej, która próbuje nas nastraszyć, ani tej, która nakazuje nam nadmiernie się radować.