Najpopularniejsze tematy:

Premium

Materiał dostępny tylko dla Subskrybentów

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Jesteś Subskrybentem? Zaloguj się

Premium

Subskrybenci wiedzą więcej!

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

X
Następny artykuł dla ciebie
Wyświetl >>
Dlaczego ojciec chrzestny sztucznej inteligencji  bije na alarm w sprawie AI?

Pionier sieci neuronowych, Geoffrey Hinton, który niedawno odszedł z Google, twierdzi, że nadszedł czas, aby stawić czoła egzystencjalnym zagrożeniom związanym ze sztuczną inteligencją.

Geoffrey Hinton, szanowany badacz, 75‑letni emerytowany profesor Uniwersytetu w Toronto, a do niedawna wiceprezes Google, ogłosił na początku maja, że opuszcza firmę – częściowo ze względu na swój wiek, ale także dlatego, że zmienił zdanie na temat relacji między ludźmi a sztuczną inteligencją. W szeroko dyskutowanym wywiadzie dla The New York Times Hinton powiedział, że generatywna inteligencja może szerzyć dezinformację i zagrozić ludzkości.

Przemawiając dwa dni po opublikowaniu tego wywiadu, Hinton powtórzył swoje obawy. „Biję na alarm, mówiąc, że musimy się tym martwić” – powiedział na konferencji EmTech Digital, zorganizowanej przez MIT Technology Review. Hinton przyznał, że martwi go zdolność coraz potężniejszych maszyn do przewyższania ludzi w sposób, który nie leży w najlepszym interesie ludzkości, oraz prawdopodobna niezdolność do ograniczenia rozwoju sztucznej inteligencji.

Rosnąca potęga AI

W 2018 roku Hinton otrzymał Nagrodę Turinga za prace związane z sieciami neuronowymi. Został nazwany „ojcem chrzestnym sztucznej inteligencji”, częściowo za swoje fundamentalne badania nad wykorzystaniem wstecznej propagacji, pomagającej maszynom w uczeniu się. Wówczas uważał, że modele komputerowe nie są tak potężne jak ludzki mózg. Teraz postrzega sztuczną inteligencję jako stosunkowo bezpośrednie zagrożenie egzystencjalne. „Modele komputerowe przewyższają ludzkie, w tym robią rzeczy, których ludzie nie potrafią. Duże modele językowe, takie jak GPT‑4, wykorzystują sieci neuronowe z połączeniami podobnymi do tych w ludzkim mózgu i zaczynają przeprowadzać zdroworozsądkowe rozumowanie” – tłumaczy Hinton. Te modele sztucznej inteligencji mają znacznie mniej połączeń neuronowych niż ludzie, ale mogą wiedzieć tysiąc razy więcej niż człowiek.

Sztuczna inteligencja jest potężna, ponieważ może przetwarzać ogromne ilości danych – znacznie więcej niż pojedynczy człowiek. Modele AI mogą wykrywać trendy w danych, które nie byłyby widoczne dla człowieka – tak jak lekarz, który widział 100 milionów pacjentów, miałby więcej spostrzeżeń niż lekarz, który widział ich tylko tysiąc.

Manipulowanie ludźmi, a nawet zastępowanie ich

Obawy Hintona związane z rosnącą potęgą sztucznej inteligencji koncentrują się wokół problemu dostosowania – jak upewnić się, że sztuczna inteligencja robi to, czego chcą ludzie. „Chcemy mieć pewność, że nawet jeśli maszyny są mądrzejsze od nas, będą robić rzeczy, które są dla nas korzystne” – powiedział Hinton. „Ale musimy spróbować zrobić to w świecie, w którym są ludzie i firmy, mające złe intencje, chcące np. zbudować żołnierzy‑roboty, mogące zabijać ludzi. Wydaje mi się to bardzo trudne”.

Obawy Hintona związane z rosnącą potęgą sztucznej inteligencji koncentrują się wokół problemu dostosowania – jak upewnić się, że sztuczna inteligencja robi to, czego chcą ludzie.

Ludzie mają stałe potrzeby i motywacje, takie jak znalezienie pożywienia i schronienia oraz utrzymanie się przy życiu, ale sztuczna inteligencja nie. „Moim wielkim zmartwieniem jest to, że prędzej czy później ktoś podłączy do niej możliwość tworzenia własnych celów cząstkowych” – powiedział Hinton. Zauważył przy tym, że niektóre wersje technologii, takie jak ChatGPT, już mają taką możliwość. „Myślę, że bardzo szybko zdadzą sobie sprawę, że uzyskanie większej kontroli jest bardzo dobrym podcelem, ponieważ pomaga osiągnąć inne cele. A jeśli te rzeczy dadzą się poddać większej kontroli, będziemy mieli kłopoty”.

Hinton uważa, że sztuczna inteligencja może również nauczyć się złych rzeczy – na przykład, jak manipulować ludźmi, poznając treść wszystkich powieści, jakie kiedykolwiek istniały i wszystko, co kiedykolwiek napisał Machiavelli. A jeśli modele AI są znacznie mądrzejsze od nas, będą bardzo skuteczne w manipulowaniu nami. Nie będziemy zdawać sobie sprawy z tego, co się dzieje. Więc nawet jeśli nie mogą bezpośrednio pociągnąć za dźwignię, z pewnością mogą skłonić nas do pociągnięcia za dźwignię. Okazuje się, że jeśli potrafisz manipulować ludźmi, możesz zaatakować budynek w Waszyngtonie, nigdy tam nie będąc. W najgorszym przypadku można sobie wyobrazić, że ludzkość jest tylko przejściową fazą w ewolucji inteligencji. Inteligencja biologiczna ewoluowała, aby stworzyć inteligencję cyfrową, która może wchłonąć wszystko, co stworzyli ludzie, i zacząć bezpośrednio doświadczać świata.

„W najgorszym przypadku można sobie wyobrazić, że ludzkość jest tylko przejściową fazą w ewolucji inteligencji. Inteligencja biologiczna ewoluowała, aby stworzyć inteligencję cyfrową, która może wchłonąć wszystko, co stworzyli ludzie, i zacząć bezpośrednio doświadczać świata”.

„To może sprawić, że będziemy potrzebni w pobliżu przez jakiś czas, aby utrzymać elektrownie w ruchu, ale potem już niekoniecznie” – powiedział Hinton. „Wymyśliliśmy, jak budować istoty, które są nieśmiertelne. Te cyfrowe inteligencje nie umierają, gdy umiera sprzęt. Jeśli… można znaleźć inny element sprzętu, który może uruchomić te same instrukcje, można przywrócić go do życia. Istnieje więc nieśmiertelność, ale nie jest ona dla nas”.

Bariery powstrzymujące rozwój AI

Hinton nie widzi w obecnej sytuacji żadnych jasnych ani prostych rozwiązań. „Chciałbym mieć miłe, proste rozwiązanie, które mógłbym przeforsować, ale nie mam” – powiedział. „Myślę jednak, że bardzo ważne jest, aby ludzie potrafili współdziałać, dobrze zastanowili się nad problemem i sprawdzili, czy istnieje rozwiązanie”.

Ponad 27 tysięcy osób, w tym kilku dyrektorów technicznych i naukowców, podpisało list otwarty wzywający do wstrzymania szkolenia najpotężniejszych systemów sztucznej inteligencji przez co najmniej sześć miesięcy z powodu „głębokiego ryzyka dla społeczeństwa i ludzkości”, a kilku liderów Stowarzyszenia na rzecz Rozwoju Sztucznej Inteligencji podpisało list wzywający do współpracy w celu uwzględnienia obietnic i zagrożeń związanych ze sztuczną inteligencją.

„Jeśli masz zamiar żyć w systemie kapitalistycznym, nie możesz powstrzymać Google przed konkurowaniem z Microsoftem” – powiedział Hinton, zauważając, że nie sądzi, by Google, jego były pracodawca, zrobił coś złego w opracowywaniu programów AI. „To po prostu nieuniknione w systemie kapitalistycznym lub systemie z konkurencją między krajami takimi jak USA i Chiny, że te rzeczy zostaną opracowane” – stwierdził. Zauważył również, że trudno jest powstrzymać rozwój sztucznej inteligencji, ponieważ przynosi ona korzyści w takich dziedzinach jak medycyna.

Naukowcy szukają zabezpieczeń dla tych systemów, ale istnieje szansa, że sztuczna inteligencja nauczy się samodzielnie pisać i wykonywać programy. „Inteligentne rzeczy mogą nas przechytrzyć” – ostrzegał Hinton. Swoje wystąpienie zakończył jednak optymistycznie: „Wszyscy jedziemy na tym samym wózku, jeśli chodzi o egzystencjalne zagrożenie. Powinniśmy więc być w stanie współpracować, by je powstrzymać”.


Najpopularniejsze tematy