Premium

Materiał dostępny tylko dla Subskrybentów

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Jesteś Subskrybentem? Zaloguj się

X
Następny artykuł dla ciebie
Wyświetl >>
Teksty generowane przez AI – szansa czy zagrożenie?

Modele językowe wykorzystujące sztuczną inteligencję, takie jak choćby ChatGPT, umożliwiają cyberprzestępcom zwiększanie skuteczności komunikacji będącej częścią ataku.

Powszechny dostęp do modeli sztucznej inteligencji (AI), które niemalże w czasie rzeczywistym dostarczają użytkownikom końcowym tekst brzmiący tak, jak napisany przez człowieka, to zdaniem ekspertów WithSecure punkt zwrotny w ewolucji cyberzagrożeń. Z tego względu postanowili przeprowadzić serię eksperymentów przy użyciu Generative Pre‑trained Transformer 3 (GPT‑3), czyli autoregresyjnego modelu języka, który wykorzystuje głębokie uczenie do tworzenia tekstu podobnego do ludzkiego. Wynika z nich, że modele językowe wykorzystujące AI mogą ułatwić cyberprzestępcom podszywanie się pod ludzi podczas wysyłania komunikatów będących częścią ataku.

Prawdziwa czy sztuczna inteligencja?

Rozpoczęliśmy badania, zanim jeszcze ChatGPT udostępnił technologię GPT‑3 dla wszystkich – tłumaczy Andy Patel, analityk WithSecure Intelligence, który kierował badaniami. – Rozwój narzędzia zintensyfikował nasze wysiłki. Teraz w pewnym sensie wszyscy jesteśmy „łowcami androidów”, próbując dowiedzieć się, czy inteligencja, z którą mamy do czynienia, jest „prawdziwa”, czy sztuczna – podkreśla ekspert.

W prowadzonych eksperymentach badacze WithSecure bazowali na prompt engineering – koncepcji związanej z przetwarzaniem języka naturalnego (NLP). Polega ona na szukaniu danych wejściowych, które wprowadzone do modelu przynoszą pożądane lub użyteczne rezultaty. Eksperci sprawdzali, w jaki sposób mogą być generowane potencjalnie szkodliwe treści.

Zdaniem Patela obecnie każdy, kto posiada łącze internetowe, może mieć dostęp do zaawansowanych modeli językowych. Z tego względu, jak radzi ekspert, lepiej zakładać, że każda nowa wiadomość, którą otrzymujemy, mogła zostać stworzona przez bota.

Możliwość wykorzystania AI do generowania zarówno szkodliwych, jak i użytecznych treści będzie wymagała strategii wykrywania, które są zdolne do zrozumienia znaczenia i celu tekstu pisanego – komentuje badacz.

Modele językowe kolejnym narzędziem w rękach cyberprzestępców

W eksperymentach przeprowadzonych przez ekspertów WithSecure (dawniej F‑Secure Business) oceniano, jak zmiany danych wejściowych w dostępnych modelach wpływają na otrzymywane wyniki. Celem było sprawdzenie, w jaki sposób generowanie języka przez AI może być używane w złośliwej lub przestępczej działalności. Badania obejmowały różne metody działania cyberprzestępców, np. phishing (podszywanie się pod inną osobę lub instytucję w celu wyłudzenia poufnych informacji) i spear‑phishing (rodzaj phishingu wykorzystujący personalizację wiadomości do konkretnej osoby, organizacji lub firmy), nękanie, uwierzytelnianie scamu, przywłaszczanie stylu pisanego, celowe tworzenie polaryzujących opinii, wykorzystywanie modeli językowych do tworzenia podpowiedzi złośliwych tekstów i fake newsów.

Wyniki otrzymane podczas eksperymentów oraz analiza rozwoju GPT‑3 doprowadziły badaczy do poniższych wniosków:

prompt engineering to koncepcja, która będzie się intensywnie rozwijać – podobnie jak tworzenie promptów w złośliwych celach;
• cyberprzestępcy będą w trudny do przewidzenia sposób rozwijać możliwości, jakie dają potężne modele językowe;
identyfikacja złośliwych lub obraźliwych treści przez dostawców platform będzie coraz trudniejsza;
• zaawansowane modele językowe już teraz dają cyberprzestępcom możliwość zwiększenia skuteczności komunikacji będącej częścią ataku (np. wiadomości phishingowe).

Autorzy badania mają nadzieję, że jego rezultaty będą w przyszłości wykorzystywane do projektowania bezpieczniejszych modeli językowych.


Zachęcamy do zapoznania się z treścią raportu tutaj.


Opracowanie: Paulina Kostro
Źródło: informacja prasowa WithSecure


Najpopularniejsze tematy