Reklama
Skorzystaj z -13% – oferta na Dzień Kochania Siebie! 💗
Analityka i Business Intelligence

Waren Buffett, Eric Schmidt, Elon Musk i inni sceptycy sztucznej inteligencji

10 maja 2024 11 min czytania
Zdjęcie Joanna Koprowska - Redaktorka „ICAN Management Review” oraz „MIT Sloan Management Review Polska”
Joanna Koprowska
Waren Buffett, Eric Schmidt, Elon Musk i inni sceptycy sztucznej inteligencji

Streszczenie: Warren Buffett porównał sztuczną inteligencję do broni jądrowej, twierdząc, że jej rozwój może przynieść zarówno wielkie korzyści, jak i poważne zagrożenia. W szczególności zwrócił uwagę na technologię deepfake, która umożliwia tworzenie realistycznych, ale fałszywych materiałów wideo, co może prowadzić do dezinformacji i manipulacji opinią publiczną. Podkreślił, że nie ma sposobu, by "dżin wrócił do butelki", sugerując, że kontrola nad AI może być trudna do osiągnięcia. MIT Sloan Management Review Polska Podobne obawy wyrazili inni liderzy branży technologicznej. Geoffrey Hinton, uznawany za ojca sztucznej inteligencji, opuścił Google, ostrzegając przed potencjalnymi zagrożeniami związanymi z AI, takimi jak dezinformacja czy utrata kontroli nad systemami. Eric Schmidt, były dyrektor generalny Google, zauważył, że rozwój AI przypomina wynalezienie broni jądrowej i że ludzkość nie ma już czasu na długie debaty nad regulacjami. Elon Musk, natomiast, przewiduje, że duże modele językowe mogą przewyższyć ludzką inteligencję do końca 2025 roku, co budzi obawy o przyszłość ludzkości. MIT Sloan Management Review Polska Mimo tych ostrzeżeń, niektórzy eksperci sugerują, że obecny entuzjazm wokół AI może być przesadzony. Profesor Virginia Tech, Lee Vinsel, uważa, że firmy nie powinny ślepo podążać za trendem AI, lecz raczej przemyśleć, jak ta technologia naprawdę może przynieść wartość. Przypomina również o wcześniejszych "bańkach technologicznych", gdzie nadmierne oczekiwania wobec nowych technologii prowadziły do rozczarowań. MIT Sloan Management Review Polska

Pokaż więcej

Znani inwestorzy i przedsiębiorcy nie kryją swoich obaw związanych z rozwojem AI. Warren Buffett porównuje ją do broni jądrowej, a Elon Musk sądzi, że sztuczna inteligencja wyprzedzi tę ludzką już w przyszłym roku. Ale czy powinniśmy im wierzyć?

Podczas  corocznego spotkania akcjonariuszy Berkshire Hathaway w Omaha w stanie Nebraska Warren Buffett wygłosił przemówienie, w którym odniósł się do tematu sztucznej inteligencji, porównując wzrost znaczenia tej technologii do rozwoju broni jądrowej w czasie II wojny światowej. Nawiązał do swoich uwag z zeszłorocznego spotkania, kiedy powiedział, że opracowując broń nuklearną, wypuściliśmy dżina z butelki. Kolejnym dżinem, jego zdaniem, jest sztuczna inteligencja, której moc przeraża go do szpiku kości. Amerykański inwestor giełdowy, przedsiębiorca i filantrop, a także dyrektor generalny Berkshire Hathaway przyznał również, że nie zna żadnego sposobu, by dżin wrócił do butelki.

„Sztuczna inteligencja jest dość podobna [do broni nuklearnej – przy. red.], już ją wypuszczono z butelki, do tego stała się niezmiernie ważna, i ktoś zajmuje się jej rozwojem, więc albo będziemy żałować, że kiedykolwiek zobaczyliśmy tego dżina, albo zdziała on cuda” – mówił Buffet.

Przedsiębiorca szczególną uwagę publiczności zebranej w Omaha zwrócił na technikę deepfake. Podzielił się swoimi spostrzeżeniami po zetknięciu się ze spreparowanym materiałem, w którym utrwalono jego wizerunek, mimo że nigdy na to nie pozwolił: „Zostałem przedstawiony w przekazie, który w żaden sposób nie pochodził ode mnie. Oszustwa zawsze były częścią amerykańskiej sceny, ale… teraz skala zjawiska wzrośnie. To będzie branża wszech czasów”.

Kilka dni później media obiegło zdjęcie Katy Perry w spektakularnej kreacji, w której pojawiła się na Met Gali. Nawet matka gratulowała córce doboru sukni, zdziwiona, że Katy wzięła udział w wydarzeniu, mimo że wcześniej tego nie planowała. Okazało się, że wcale jej tam nie było, a viralowe zdjęcie wygenerowano za pomocą sztucznej inteligencji. Buffet wywołał wilka z lasu, zwracając uwagę na syntetyczną rzeczywistość, w której generowanie ataków militarnych, negocjacji czy rozmów politycznych, do których nigdy nie doszło, staje się coraz łatwiejsze i może zwieść nawet najbardziej czujnych odbiorców.

Buffett już wcześniej zwracał uwagę na ryzyko związane ze sztuczną inteligencją, ale teraz trafił na bardziej podatny grunt. Jego głos wybrzmiewa, gdy na własne oczy możemy zobaczyć, jak sztuczna inteligencja tworzy ogromne ilości treści (szacuje się, że do 2025 roku 90% treści marketingowych powstanie przy użyciu AI), a jej rozwój podsyca oczekiwania świata biznesu i zwiększa liczbę spekulacji dotyczących tego, jak technologia wywróci do góry nogami codzienne życie.

Chociaż Berkshire nie inwestuje bezpośrednio w akcje związane ze sztuczną inteligencją, warto wspomnieć, że w jego portfelu inwestycyjnym duży udział ma gigant technologiczny Apple. „Wall Street Journal” donosił ostatnio, że firma pracuje nad własnym tajnym projektem chipa AI do centrów danych, szukając swojej niszy w wyścigu AI.

Uwagi Buffetta na temat sztucznej inteligencji są zgodne z długoletnimi poglądami Berkshire na temat inwestowania. Wyrocznia z Omaha od wielu lat wykazuje się bowiem głębokim sceptycyzmem wobec nowych, głośnych wydarzeń w gospodarce. Szerokim echem w świecie odbiła się niechęć funduszu do inwestowania w bitcoiny.

Buffet nie jest sam. Hinton i Schmidt z Google’a też przestrzegają przed

Buffet jest znany ze swojej fobii technologicznej. W przeszłości ostrzegał, że sztuczna inteligencja będzie „ogromnie destrukcyjna”, ale jednocześnie przyznawał, że może się okazać pomocna w odblokowaniu efektywności ekonomicznej. Inwestor nie jest osamotniony w postrzeganiu sztucznej inteligencji jako ryzyka egzystencjalnego lub przewidywaniu, że AI w końcu przewyższy ludzką inteligencję.

Jego wieloletni zastępca Charlie Munger, który zmarł w listopadzie 2023 roku w wieku 99 lat, na zeszłorocznym spotkaniu Berkshire przyznał, że jest „nieco sceptyczny wobec szumu, który otacza sztuczną inteligencję”. Sądził przy tym, że staromodna inteligencja działa całkiem nieźle…

Obawami dotyczącymi wpływu rozwoju sztucznej inteligencji na biznes i społeczeństwo dzielili się dotychczas m.in. Geoffrey Hinton, Eric Schmidt czy Elon Musk.

Pionier sieci neuronowych, nazywany ojcem sztucznej inteligencji, szanowany badacz, emerytowany profesor Uniwersytetu w Toronto, były wiceprezes Google Geoffrey Hinton na początku maja 2023 roku ogłosił, że opuszcza firmę – częściowo ze względu na swój wiek, ale także dlatego, że zmienił zdanie na temat relacji między ludźmi a sztuczną inteligencją. W szeroko dyskutowanym wywiadzie dla „The New York Times” powiedział, że generatywna inteligencja może szerzyć dezinformację i zagrozić ludzkości. Niedługo potem podczas konferencji EmTech Digital ostrzegał: „Biję na alarm, mówiąc, że musimy się tym martwić”. Nie miał jednak wielu przekonujących argumentów, oprócz tego, że AI może przechytrzyć ludzi.

Były dyrektor generalny Google Eric Schmidt stwierdził, że jego zdaniem możliwości sztucznej inteligencji mogą zagrozić ludzkości w ciągu od 5 do 10 lat, a firmy nie robią wystarczająco dużo, aby zapobiec szkodom. W wywiadzie udzielonym na szczycie AI Summit Schmidt – tak jak Buffet – porównał rozwój sztucznej inteligencji do wynalezienia broni jądrowej pod koniec II wojny światowej. Powiedział, że po wydarzeniach w Nagasaki i Hiroszimie globalnym decydentom zajęło 18 lat, aby wypracować układ o zakazie prób broni nuklearnej w atmosferze, w przestrzeni kosmicznej i pod wodą (1963). Jego zdaniem w wypadku AI „nie mamy aż tyle czasu”.

Elon Musk na ratunek ludzkości

Z kolei w kwietniu 2024 r. Elon Musk podzielił się na platformie X (dawniej Twitter) swoimi predykcjami, że spodziewa się, iż duże modele językowe przewyższą ludzką inteligencję do końca 2025 roku. „Domyślam się, że prawdopodobnie pod koniec przyszłego roku będziemy mieli sztuczną inteligencję mądrzejszą niż jakikolwiek człowiek” – powiedział Nicolaiowi Tangenowi, dyrektorowi generalnemu Norges Bank Investment Management, w wywiadzie transmitowanym na żywo przez X. Po chwili dodał, że w ciągu pięciu lat sztuczna inteligencja prawdopodobnie przewyższy możliwości wszystkich ludzi.

Optymistyczne nastawienie Muska do sztucznej inteligencji pojawiło się zaledwie rok po tym, jak podpisał list otwarty wzywający laboratoria AI do sześciomiesięcznego wstrzymania prac związanych z rozwojem zaawansowanych systemów sztucznej inteligencji oraz po długiej historii publicznie wygłaszanych obaw dotyczących zagrożeń, jakie AI niesie dla ludzkości.

W książce biograficznej poświęconej miliarderowi Walter Issascon szczegółowo opisuje pierwsze kroki Muska w świecie AI. W 2012 roku na konferencji organizowanej przez byłego wspólnika i współzałożyciela PayPal Petera Thiela Musk poznał Demisa Hassabisa, który stworzył DeepMind. Wtedy twórca SpaceX zainwestował w rozwój tej sieci neuronowej 5 milionów dolarów, głownie dlatego, że spodobała mu się świadomość zagrożeń AI, jaką wykazywał się Hassabis. Niedługo potem jednak start‑upem DeepMind zaczął interesować się Google, który w styczniu 2014 roku sfinalizował zakup, co Musk chciał aktywnie powstrzymać. Wtedy bardzo często dzielił się spostrzeżeniami o tym, jak nieodpowiedzialne jest rozwijanie AI bez jakiegokolwiek zewnętrznego nadzoru czy standardów bezpieczeństwa, bo może to spowodować, że AI zastąpi ludzi, degenerując nasz gatunek i doprowadzając nawet do tego, że zagrozi nam wymarcie.

Choć wysiłki Muska, aby powstrzymać przejęcie DeepMind przez Google, spaliły na panewce, ówczesny szef giganta technologicznego Larry Page zgodził się na powołanie ciała doradczego, tzw. rady bezpieczeństwa AI, do której powołano również Muska, ale odbyło się tylko jedno kurtuazyjne spotkanie. Swoją drogą wziął w nim udział wspomniany wyżej Eric Schmidt. Była to jednak farsa, którą Musk skwitował stwierdzeniem, że Google nie zamierza zważać na bezpieczeństwo AI czy w jakikolwiek sposób się ograniczać w imię interesów ludzkości.

Musk zaczął publicznie wypowiadać się o konsekwencjach związanych z niekontrolowanym rozwojem AI, głosząc w 2014 roku na sympozjum MIT, że to jedno z naszych największych egzystencjalnych zagrożeń. Gdy Amazon, a potem Google ogłosiły swoich asystentów domowych (Alexa i Echo), sprzeciwiał się również temu trendowi. Ostrzegał, co się może stać, jeśli te chatboty zrobią się mądrzejsze do ludzi, i kwitował, że nie podoba mu się wizja, w której miałby zostać domowym… kotem.

W związku ze swoimi obawami Musk zainicjował nawet spotkania w gronie wpływowych ludzi na temat bezpieczeństwa sztucznej inteligencji, podczas których dyskutowano różne scenariusze. Próbował zainteresować tym tematem prezydenta Obamę. Ostatecznie powołał wraz z Samem Altmanem OpenAI, czyli laboratorium AI non‑profit zajmujące się promowaniem i tworzeniem sztucznej inteligencji przyjaznej ludziom. Pierwotna wizja była klarowna – stworzenie linuxowej wersji AI, która nie będzie kontrolowana ani przez jednego człowieka, ani przez jedną firmę. Musk opuścił OpenAI w 2018 roku i od tego czasu jest jego krytykiem. Ponadto w marcu pozwał OpenAI i Altmana za naruszenie umowy, twierdząc, że narazili na szwank deklarowaną misję start‑upu, polegającą na budowaniu sztucznej inteligencji dla dobra ludzkości.

Wszystkie te obawy nie powstrzymały Muska od prac nad własnym modelem językowym. Twórca SpaceX i Tesli ostatnio starał się przekonać inwestorów, aby wpompowali miliardy w Groka, jego nowy projekt dla X (Twitter), opracowywany przez X AI, wyróżniający się integracją z X/Twitterem, co daje mu dostęp do dużej ilości danych aktualizowanych w czasie rzeczywistym. Nic więc dziwnego, że ostatnimi czasy Musk zmienił ton i zamiast o zagrożeniach mówi o możliwościach, jakie AI oferuje. Taka narracja z pewnością ułatwia pozyskanie inwestorów.

Coś na uspokojenie? To tylko bańka technologiczne

W szumie informacyjnym dotyczącym sztucznej inteligencji coraz trudnej oddzielić rzetelne informacje od subiektywnych przemyśleń i szczere opinie od opinii podszytych ukrytymi interesami. Łatwo dać się zwieść barwnym wizjom i ulec charyzmie światowych liderów; dać się przekonać do nieuchronności zmian i działań, które należy podjąć tu i teraz.

Profesor Virginia Tech Lee Vinsel twierdzi, że aktualnie nic nie wskazuje na to, aby twoja firma utraciła swoją strategiczną pozycję, a nawet popadła w kłopoty, jeśli zrobisz sobie przerwę po to, aby wypracować przemyślany tok postępowania, zamiast rzucać się na oślep w te rejony, w których króluje AI. A tym, którzy obawiają się przegapić wielką szansę, ale jednocześnie nie chcą marnować czasu i pieniędzy na wdrażanie przereklamowanych technologii, przypomina o bańkach technologicznych. Jak napisali wykładowcy uczelni biznesowych Brent Goldfarb i David Kirsch w książce Bubbles and Crashes: The Boom and Bust of Technological Innovation z 2019 roku, bańki technologiczne to zjawiska bazujące na narracjach – opowieściach o tym, jak nowa technologia będzie się rozwijała i wpływała na społeczeństwa i gospodarki. Niestety wczesne narracje, które pojawiają się wokół nowych technologii, niemal zawsze okazują się nieprawdziwe, a przecenianie obietnic i możliwości zarówno nowych systemów, jak i zagrożeń to samo sedno baniek technologicznych.

Wiele osób wywołuje szum informacyjny wokół technologii, bo im na nim zależy. Wracając do przykładu Muska, warto wspomnieć, że jego predykcje często okazywały się nietrafione, a gdy dotyczyły produktów, które sam rozwijał, zazwyczaj były „nietrafione na jego korzyść”. To znaczy: ogłaszał, że dana technologia zaistnieje wcześniej i na większą skalę, niż faktycznie się to działo. Wedle jego przewidywań autonomiczne samochody Tesli już dziś powinny być dostępne na każdym kroku, tymczasem ta technologia nadal jest udoskonalana, bo ma niedociągnięcia. Ponadto początkowo Musk sądził, że SpaceX poleci na Marsa do 2024 r. (obecnie wstępna data to 2029 r.). A Cybertruck Tesli pojawił się na rynku ponad dwa lata później, niż miliarder przepowiadał.

Morał z tego taki, że warto czerpać wiedzę z różnych źródeł i nie dawać się zwieść żadnej narracji, ani tej, która próbuje nas nastraszyć, ani tej, która nakazuje nam nadmiernie się radować.

O autorach
Tematy

Może Cię zainteresować

Agentowe narzędzia AI do kodowania: co powinni wiedzieć liderzy

Większość menedżerów utknęła w pętli „czatowania” z AI, traktując narzędzia takie jak ChatGPT jedynie jako sprawniejszą wyszukiwarkę. Tymczasem agentowe narzędzia AI, dotychczas kojarzone wyłącznie z pisaniem kodu, stają się nowym fundamentem pracy umysłowej. Pozwalają one budować trwałą „pamięć instytucjonalną” i automatyzować złożone procesy – od analizy konkurencji po due diligence – bez konieczności pisania choćby jednej linii kodu. Dowiedz się, dlaczego narzędzia takie jak Claude Code to nie tylko gratka dla deweloperów, ale kluczowy element przewagi strategicznej nowoczesnego lidera.

Algorytmy na wybiegu: Jak model „AI-first” zmienia rynek mody

Współczesny sektor mody i dóbr luksusowych przechodzi fundamentalną zmianę, w której sztuczna inteligencja przestaje być jedynie narzędziem pomocniczym, a staje się głównym architektem strategii operacyjnej. Wg BCG, firmy przyjmujące model „AI-first” muszą zmierzyć się z nową rzeczywistością, w której konsumenci porzucają tradycyjne wyszukiwarki na rzecz platform takich jak ChatGPT czy Perplexity, zmuszając marki do walki o widoczność w świecie zdominowanym przez algorytmy rekomendacyjne.

Co traktat ONZ o cyberprzestępczości może oznaczać dla Twojej firmy

Nowy traktat Organizacji Narodów Zjednoczonych ustanawia międzynarodowe ramy prowadzenia dochodzeń i ścigania przestępstw online, takich jak ataki ransomware czy oszustwa finansowe, które często mają charakter transgraniczny. Choć dokument ten wprost definiuje cyberprzestępczość oraz precyzuje zakres odpowiedzialności organów ścigania i przedsiębiorstw w takich przypadkach, obawy dotyczące prywatności i swobód obywatelskich wciąż nie zostały w pełni rozstrzygnięte. Firmy o zasięgu globalnym powinny już teraz rozpocząć przygotowania do nadchodzącego egzekwowania nowych przepisów.

empatia Czy empatia stanie się kluczową kompetencją przywódczą?

W erze rosnącej złożoności i niepewności, kluczową rolę w sukcesie organizacji odgrywa styl przywództwa oparty na empatii, partnerstwie i bezpieczeństwie psychologicznym. Tradycyjne modele hierarchiczne ustępują miejsca transformacyjnemu przywództwu, które aktywuje potencjał zespołów i sprzyja innowacjom.

AI w biznesie 5 trendów AI, które zdefiniują strategię liderów w 2026 roku

Sztuczna inteligencja do 2026 roku przekształci się z pojedynczych narzędzi w złożone, agentowe super-aplikacje, które zmienią sposób zarządzania, organizacji pracy i strategii konkurencyjnej. Transformacja ta ma wymiar globalny, z rosnącym znaczeniem lokalnej specjalizacji i integracji AI z infrastrukturą fizyczną oraz mediami generatywnymi. W efekcie powstaje multipolarna gospodarka oparta na inteligentnej infrastrukturze i zrozumieniu lokalnych potrzeb.

Enszityfikacja: Jak pogoń za marżą niszczy wartość „inteligentnych” produktów

Kiedyś jednym z symboli jakości była trwałość produktu fizycznego. Dziś, dzięki cyfryzacji, firmy dążą do sprawowania kontroli nad produktem długo po tym, jak opuścił on linię produkcyjną. To, co miało być rewolucją w komforcie i personalizacji, coraz częściej zmienia się w tzw. enszityfikację – proces, w którym innowacja ustępuje miejsca agresywnej monetyzacji, a klient z właściciela staje się jedynie subskrybentem własnych przedmiotów.

Mapa ryzyka 2026: Globalna perspektywa jest ważniejsza niż kiedykolwiek

W świecie rozdartym między nieuchronną integracją gospodarczą a politycznym zwrotem ku nacjonalizmom, liderzy biznesu stają przed paradoksem: jak budować wartość, gdy tradycyjne bezpieczne przystanie zmieniają swój charakter? Analiza danych z 2025 roku pokazuje, że choć politycy mogą dążyć do izolacji, kapitał nie posiada tego luksusu. Zapraszamy do głębokiego wglądu w globalne rynki akcji, dynamikę walut i nową mapę ryzyka krajowego, która zdefiniuje strategie inwestycyjne w 2026 roku.

Plotki w biurze: błąd systemu czy ukryty feedback?

Plotka biurowa to rzadko objaw toksycznej kultury, a najczęściej sygnał, że oficjalna komunikacja w firmie zawodzi. Zamiast uciszać nieformalne rozmowy, liderzy powinni traktować je jako cenny mechanizm informacji zwrotnej. Sprawdź, jak zrozumieć potrzeby zespołu ukryte między wierszami i skutecznie zarządzać organizacją w obliczu nieuniknionych zmian.

Głos jako interfejs przyszłości: Jabra Evolve3 jako infrastruktura pracy opartej na AI

Głos staje się nowym interfejsem pracy z AI, a jakość audio przesądza o skuteczności współpracy hybrydowej. Sprawdź, jak seria słuchawek Jabra Evolve3 tworzy infrastrukturę gotową na erę komend głosowych i spotkań wspieranych przez sztuczną inteligencję.

AI lub dymisja: prezesi osobiście angażują się w technologię

Era eksperymentów ze sztuczną inteligencją w biznesie dobiegła końca. Najnowszy raport BCG AI Radar 2026 ujawnia: co drugi CEO uważa, że jego posada zależy od sukcesu wdrożenia AI. Dowiedz się, dlaczego szefowie największych firm na świecie rezygnują z delegowania zadań i sami stają się „Głównymi Dyrektorami ds. AI”, podwajając wydatki na technologię, która w tym roku ma wreszcie zacząć zarabiać.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!