Streszczenie:
Generatywna sztuczna inteligencja staje się narzędziem wykorzystywanym przez oszustów do tworzenia realistycznych fałszywych treści, takich jak deepfake’i. Przykładem jest przypadek z Hongkongu, gdzie przestępcy, podszywając się pod kierownictwo firmy na wideokonferencji, wyłudzili 25 mln dolarów.
Według Deloitte straty wynikające z oszustw AI w USA mogą wzrosnąć z 12,3 mld dolarów w 2023 r. do 40 mld dolarów w 2027 r. Coraz więcej firm pada ofiarą deepfake’ów, szczególnie w sektorze finansowym. Mimo że organizacje inwestują w zabezpieczenia, obecne metody wykrywania deepfake’ów nie są wystarczająco skuteczne. Raport GAO wskazuje, że rozwój technologii deepfake może sprawić, że wykrywanie takich manipulacji stanie się jeszcze trudniejsze.
Łatwo dostępne narzędzia generatywnej sztucznej inteligencji stają się potężnym narzędziem w rękach oszustów. Przy minimalnym wysiłku mogą oni tworzyć niezwykle realistyczne fałszywe treści – obrazy, teksty, nagrania audio i wideo – które potem wykorzystują w działaniach przestępczych. Skala zagrożenia stała się szczególnie widoczna w lutym ubiegłego roku, kiedy pracownik hongkońskiej firmy przelał 25 mln dolarów na konto przestępców, którzy za pomocą technologii deepfake sfingowali wideokonferencję i podszyli się pod dyrektora finansowego i innych współpracowników.
Według prognoz Deloitte, generatywna sztuczna inteligencja może zwiększyć straty wynikające z oszustw w USA z 12,3 mld dolarów w 2023 r. do 40 mld dolarów w 2027 r. W ankiecie przeprowadzonej w maju 2024 r. wśród ponad 1500 członków kadry zarządzającej i menedżerów wyższego szczebla co czwarty respondent przyznał, że w ciągu ostatnich 12 miesięcy jego organizacja padła ofiarą incydentu związanego z deepfake’ami. Ponad połowa badanych (52%) przewiduje wzrost liczby i skali takich ataków, zwłaszcza skierowanych na systemy finansowe i księgowe firmy.
Materiał dostępny tylko dla subskrybentów
Dołącz do subskrybentów MIT Sloan Management Review Polska Premium!
Kup subskrypcję
