Reklama
OFERTA SPECJALNA na NAJWYŻSZY pakiet subskrypcji! Wersję Platinum - OFERTA LIMITOWANA
Analiza danych, Big Data
Polska flaga

Teksty generowane przez AI – szansa czy zagrożenie?

17 stycznia 2023 4 min czytania
Zdjęcie Paulina Kostro - Redaktor "MIT Sloan Management Review Polska"
Paulina Kostro
Teksty generowane przez AI – szansa czy zagrożenie?

Streszczenie: Modele językowe oparte na sztucznej inteligencji, takie jak ChatGPT, umożliwiają cyberprzestępcom tworzenie komunikatów atakujących, które trudno odróżnić od tych napisanych przez człowieka. Eksperci z WithSecure przeprowadzili badania z wykorzystaniem modelu GPT-3, analizując, jak zmiany w danych wejściowych wpływają na generowane treści. Badania te obejmowały różne metody działania cyberprzestępców, takie jak phishing, spear-phishing, nękanie, uwierzytelnianie oszustw, przywłaszczanie stylu pisania, tworzenie polaryzujących opinii oraz generowanie fake newsów. Andy Patel, analityk WithSecure Intelligence, podkreśla, że powszechny dostęp do zaawansowanych modeli językowych sprawia, że każda otrzymana wiadomość może być dziełem bota. W związku z tym konieczne jest opracowanie strategii wykrywania, które potrafią zrozumieć znaczenie i cel tekstu pisanego, aby skutecznie przeciwdziałać potencjalnym zagrożeniom związanym z wykorzystaniem AI do generowania szkodliwych treści.

Pokaż więcej

Modele językowe wykorzystujące sztuczną inteligencję, takie jak choćby ChatGPT, umożliwiają cyberprzestępcom zwiększanie skuteczności komunikacji będącej częścią ataku.

Powszechny dostęp do modeli sztucznej inteligencji (AI), które niemalże w czasie rzeczywistym dostarczają użytkownikom końcowym tekst brzmiący tak, jak napisany przez człowieka, to zdaniem ekspertów WithSecure punkt zwrotny w ewolucji cyberzagrożeń. Z tego względu postanowili przeprowadzić serię eksperymentów przy użyciu Generative Pre‑trained Transformer 3 (GPT‑3), czyli autoregresyjnego modelu języka, który wykorzystuje głębokie uczenie do tworzenia tekstu podobnego do ludzkiego. Wynika z nich, że modele językowe wykorzystujące AI mogą ułatwić cyberprzestępcom podszywanie się pod ludzi podczas wysyłania komunikatów będących częścią ataku.

Prawdziwa czy sztuczna inteligencja?

Rozpoczęliśmy badania, zanim jeszcze ChatGPT udostępnił technologię GPT‑3 dla wszystkich – tłumaczy Andy Patel, analityk WithSecure Intelligence, który kierował badaniami. – Rozwój narzędzia zintensyfikował nasze wysiłki. Teraz w pewnym sensie wszyscy jesteśmy „łowcami androidów”, próbując dowiedzieć się, czy inteligencja, z którą mamy do czynienia, jest „prawdziwa”, czy sztuczna – podkreśla ekspert.

W prowadzonych eksperymentach badacze WithSecure bazowali na prompt engineering – koncepcji związanej z przetwarzaniem języka naturalnego (NLP). Polega ona na szukaniu danych wejściowych, które wprowadzone do modelu przynoszą pożądane lub użyteczne rezultaty. Eksperci sprawdzali, w jaki sposób mogą być generowane potencjalnie szkodliwe treści.

Zdaniem Patela obecnie każdy, kto posiada łącze internetowe, może mieć dostęp do zaawansowanych modeli językowych. Z tego względu, jak radzi ekspert, lepiej zakładać, że każda nowa wiadomość, którą otrzymujemy, mogła zostać stworzona przez bota.

Możliwość wykorzystania AI do generowania zarówno szkodliwych, jak i użytecznych treści będzie wymagała strategii wykrywania, które są zdolne do zrozumienia znaczenia i celu tekstu pisanego – komentuje badacz.

Modele językowe kolejnym narzędziem w rękach cyberprzestępców

W eksperymentach przeprowadzonych przez ekspertów WithSecure (dawniej F‑Secure Business) oceniano, jak zmiany danych wejściowych w dostępnych modelach wpływają na otrzymywane wyniki. Celem było sprawdzenie, w jaki sposób generowanie języka przez AI może być używane w złośliwej lub przestępczej działalności. Badania obejmowały różne metody działania cyberprzestępców, np. phishing (podszywanie się pod inną osobę lub instytucję w celu wyłudzenia poufnych informacji) i spear‑phishing (rodzaj phishingu wykorzystujący personalizację wiadomości do konkretnej osoby, organizacji lub firmy), nękanie, uwierzytelnianie scamu, przywłaszczanie stylu pisanego, celowe tworzenie polaryzujących opinii, wykorzystywanie modeli językowych do tworzenia podpowiedzi złośliwych tekstów i fake newsów.

Wyniki otrzymane podczas eksperymentów oraz analiza rozwoju GPT‑3 doprowadziły badaczy do poniższych wniosków:

prompt engineering to koncepcja, która będzie się intensywnie rozwijać – podobnie jak tworzenie promptów w złośliwych celach;
• cyberprzestępcy będą w trudny do przewidzenia sposób rozwijać możliwości, jakie dają potężne modele językowe;
identyfikacja złośliwych lub obraźliwych treści przez dostawców platform będzie coraz trudniejsza;
• zaawansowane modele językowe już teraz dają cyberprzestępcom możliwość zwiększenia skuteczności komunikacji będącej częścią ataku (np. wiadomości phishingowe).

Autorzy badania mają nadzieję, że jego rezultaty będą w przyszłości wykorzystywane do projektowania bezpieczniejszych modeli językowych.


Zachęcamy do zapoznania się z treścią raportu tutaj.


Opracowanie: Paulina Kostro
Źródło: informacja prasowa WithSecure

O autorach
Tematy

Może Cię zainteresować

Pięć cech liderów napędzanych technologią Pięć cech liderów napędzanych technologią

W dobie gwałtownych zmian technologicznych to CEO, którzy aktywnie zdobywają kompetencje cyfrowe i odważnie redefiniują swoje modele biznesowe, wyznaczają nową jakość przywództwa. Odkryj, jak pięć cech liderów napędzanych technologią przekłada się na przewagę konkurencyjną i trwały wzrost firmy.

Magazyn
Premium
Dlaczego uważni liderzy lepiej zarządzają zmianą
Samoświadomi i opanowani menedżerowie skuteczniej przeprowadzają swoje zespoły przez okresy niepewności związanej ze zmianami kierunku działania organizacji. Wdrażanie strategicznych zmian ma ogromny wpływ na wyniki przedsiębiorstw. Niezależnie od tego, czy chodzi o zwinne wykorzystanie nowej szansy rynkowej, czy o budowanie długoterminowej odporności. Wielu liderom jest jednak trudno skutecznie przeprowadzić zespół przez ten proces. Takie inicjatywy […]
Premium
W erze cyfrowej zaangażowanie nabiera nowego znaczenia

Automatyzacja bez ludzi nie działa. W erze AI to zaangażowanie, odpowiedzialność i zaufanie stają się nową walutą innowacyjnych organizacji.

chiński e-commerce i social commerce
Premium
Superaplikacje, social commerce i AI, czyli chiński przepis na sukces w e-handlu

Superaplikacje, handel społecznościowy i sztuczna inteligencja tworzą w Chinach nowy model handlu. Ashley Dudarenok tłumaczy, dlaczego przyszłość e-commerce należy do zintegrowanych ekosystemów i inteligentnych agentów AI.

Premium
Zaangażowania można się nauczyć

Zaangażowanie to nie magia, lecz kompetencja. Można je trenować – tak jak empatię, odpowiedzialność czy współpracę – pod warunkiem, że liderzy stworzą ku temu właściwe warunki.

strategie ochrony innowacji
Premium
Jak chronić innowacje przed kopiowaniem

Jak skutecznie bronić innowacji przed kopiowaniem? Czasem wystarczy mądrze zaprojektować produkt – tak, by jego kluczowych elementów nie dało się łatwo odtworzyć ani wykorzystać.

Premium
Efekt domina w zarządzaniu dobrostanem

Kultura dobrostanu staje się nowym filarem przywództwa. Firmy, które inwestują w wellbeing liderów i zespołów, uruchamiają efekt domina – rozwijają kompetencje, wzmacniają kulturę organizacyjną i budują przewagę na rynku.

Wybieram MIT

Cyfrowa transformacja to dziś nie wybór, lecz konieczność. Jak pokazuje doświadczenie Grupy Symfonia, przemyślane inwestycje w technologie potrafią odmienić kierunek rozwoju firmy i stać się impulsem do trwałej przewagi konkurencyjnej.

Premium
Jak zautomatyzować operacje bez nadwyrężania budżetu

Automatyzacja nie musi oznaczać milionowych nakładów. Dzięki tanim i elastycznym technologiom nawet małe firmy mogą usprawnić procesy i zwiększyć produktywność.

środowiska wirtualne w procesie design thinking
Premium
Jak praca zdalna zmienia design thinking

Design thinking wkracza w nowy wymiar. Dzięki środowiskom wirtualnym zespoły mogą współtworzyć, testować i analizować pomysły w czasie rzeczywistym – niezależnie od miejsca i strefy czasowej. To nie tylko narzędzie pracy zdalnej, lecz także przestrzeń do pogłębionej empatii, eksperymentowania i szybszego wdrażania innowacji.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!