Najpopularniejsze tematy:

Premium

Materiał dostępny tylko dla Subskrybentów

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

Premium

Subskrybenci wiedzą więcej!

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

X
Następny artykuł dla ciebie
Wyświetl >>
Od ChatGPT do HackGPT. Jak sprostać cyberzagrożeniom ze strony AI

Nadszedł czas, aby zastąpić tradycyjne podejście do cyberbezpieczeństwa „inteligentniejszą” technologią i szkoleniami.

Już od kilku lat cyberprzestępcy wykorzystują sztuczną inteligencję do włamywania się do systemów korporacyjnych i zakłócania operacji biznesowych. Jednak najnowsze potężne narzędzia generatywnej sztucznej inteligencji, takie jak ChatGPT, stawiają przed liderami biznesu nowe wyzwania.

Rozważ te całkiem prawdopodobne scenariusze:

  • Haker używa ChatuGPT do generowania spersonalizowanej wiadomości typu spear phishing na podstawie materiałów marketingowych twojej firmy i wiadomości phishingowych, które przyniosły skutek w przeszłości. Udaje się oszukać ludzi, mimo że byli oni dobrze przeszkoleni w zakresie świadomości użytkowania poczty e‑mail, ponieważ wiadomość nie wygląda na podejrzaną; taką, w której wykrywaniu zostali przeszkoleni.

  • Bot AI dzwoni do pracownika odpowiedzialnego za rozliczenia i mówi głosem (fałszywym), który brzmi jak głos szefa. Po wymianie uprzejmości „szef” prosi pracownika o przelanie tysięcy dolarów na konto w celu „opłacenia faktury”. Pracownik wie, że nie powinien tego robić, ale szef ma przecież pełne prawo prosić o wyjątki.

  • Hakerzy wykorzystują sztuczną inteligencję do zafałszowania informacji w systemie, tworząc cenny portfel akcji, który mogą spieniężyć, zanim oszustwo zostanie odkryte.

  • W bardzo przekonującej fałszywej wymianie korespondencji e‑maili, stworzonej przy użyciu generatywnej sztucznej inteligencji, kadra kierownicza firmy stara się uzgodnić, jak zatuszować problemy finansowe. Wiadomość o „wycieku” rozprzestrzenia się jednak w błyskawicznym tempie za pomocą armii botów mediów społecznościowych, co prowadzi do gwałtownego spadku kursu akcji firmy i trwałego uszczerbku na reputacji.

Te scenariusze mogą brzmieć znajomo dla tych, którzy zwracają uwagę na historie o tzw. deepfake’ach siejących spustoszenie w mediach społecznościowych lub o bolesnych naruszeniach korporacyjnych systemów informatycznych. Natura nowych zagrożeń należy jednak do innej, bardziej przerażającej kategorii, ponieważ technologia leżąca u ich podstaw stała się „inteligentniejsza”.

Zostało 78% artykułu.

Materiał dostępny tylko dla subskrybentów

Dołącz do subskrybentów MIT Sloan Management Review Polska Premium!

Jesteś subskrybentem? Zaloguj się »

Merrill Warkentin

ACM Distinguished Scientist, jest W.L. Giles Distinguished Professor oraz Rouse Endowed Professor of Information Systems w College of Business na Mississippi State Universit

Karen Renaud

informatyk na Uniwersytecie Strathclyde w Glasgow, pracuje nad wszystkimi aspektami bezpieczeństwa i prywatności skoncentrowanymi na człowieku

George Westerman

Pracownik naukowy MIT Sloan Initiative on the Digital Economy w MIT Sloan School of Management. Jego badania koncentrują się na przywództwie w erze cyfrowej oraz na innowacjach.

Polecane artykuły


Najpopularniejsze tematy