Łatwo dostępne narzędzia generatywnej sztucznej inteligencji stają się potężnym narzędziem w rękach oszustów. Przy minimalnym wysiłku mogą oni tworzyć niezwykle realistyczne fałszywe treści – obrazy, teksty, nagrania audio i wideo – które potem wykorzystują w działaniach przestępczych. Skala zagrożenia stała się szczególnie widoczna w lutym ubiegłego roku, kiedy pracownik hongkońskiej firmy przelał 25 mln dolarów na konto przestępców, którzy za pomocą technologii deepfake sfingowali wideokonferencję i podszyli się pod dyrektora finansowego i innych współpracowników.
Według prognoz Deloitte, generatywna sztuczna inteligencja może zwiększyć straty wynikające z oszustw w USA z 12,3 mld dolarów w 2023 r. do 40 mld dolarów w 2027 r. W ankiecie przeprowadzonej w maju 2024 r. wśród ponad 1500 członków kadry zarządzającej i menedżerów wyższego szczebla co czwarty respondent przyznał, że w ciągu ostatnich 12 miesięcy jego organizacja padła ofiarą incydentu związanego z deepfake’ami. Ponad połowa badanych (52%) przewiduje wzrost liczby i skali takich ataków, zwłaszcza skierowanych na systemy finansowe i księgowe firmy.