Nasze życie – zarówno prywatne, jak i biznesowe – niebawem się skomplikuje. Ten proces już się rozpoczął, ale związane z nim technologie dopiero stają się powszechnie dostępne, łatwiejsze w użytkowaniu i skuteczniejsze w działaniu. Chodzi o deepfake.
Deepfake mówi ludzkim głosem
Na początek zastanów się przez chwilę i szczerze odpowiedz, co zrobisz w sytuacji, w której zadzwoni do ciebie twój szef i charakterystycznym dla siebie głosem poprosi cię o wykonanie przelewu. Będzie nalegał, natarczywy, lekko rozgniewany. I będzie naciskał na szybkie działanie. Właśnie w takiej sytuacji postawiony został prezes pewnej angielskiej firmy energetycznej, który usłyszał w słuchawce głos szefa z niemieckiej firmy matki. Szefa posługującego się językiem angielskim, ale z typowym dla niego niemieckim akcentem.
Tylko że to nie był głos szefa. Głos wygenerowano i spersonalizowano cyfrowo, za pomocą nowoczesnych algorytmów bazujących na sztucznej inteligencji. Ten typ ataku nazywamy vishingiem (połączenie angielskich słów „voice” i „phishing”). W tym przypadku wystarczyła obróbka dźwięku, choć zazwyczaj działania z zakresu deepfake’ów związane są także z przerabianiem lub podrabianiem obrazów wideo.
To jaka jest twoja szczera odpowiedź? W przypadku doświadczonego biznesmena, jakim był ten prezes angielskiej firmy, okazała się ona twierdząca. Szybko zorganizował przelew w wysokości 220 tysięcy funtów na wskazane konto. Pieniądze następnie przekierowano na inne konta w różnych krajach – rozpłynęły się.
Najbardziej zagrożony jest biznes
To właśnie teraz trwa wyścig. Z jednej strony biorą w nim udział firmy oferujące oprogramowanie, które umożliwia tworzenie różnego typu fejków, podróbek, a z drugiej – dostawcy usług z zakresu cyberbezpieczeństwa. Na szczęście dostajemy od nich pokrzepiające informacje – chociażby o opracowanych przez naukowców algorytmach, które wykorzystując uczenie maszynowe, osiągnęły skuteczność w wykrywaniu fejkowych filmów na poziomie 92%. Inną ciekawą inicjatywą z tego zakresu jest projekt Deepstar, rozwijany przez zajmującą się cyberbezpieczeństwem firmę ZeroFOX na zasadach open source. Wykorzystuje on sztuczną inteligencję właśnie do wykrywania działań typu deepfake.
Jest jednak również zła wiadomość. Każdy z ekspertów podkreśla, skuteczność różnych rozwiązań z zakresu cyberbezpieczeństwa badana jest w danym momencie, czyli wykrywa deepfaki na określonym poziomie zaawansowania. A ten cały czas się poprawia, co widać chociażby w dwóch prezentowanych poniżej filmach. Oczywiście to tylko przykłady, które dobrane zostały w innym celu. Niemniej jeden pochodzi z czerwca 2019 roku, a drugi z września – i prezentuje się zdecydowanie bardziej autentycznie.
I jeszcze jedno. Przyzwyczailiśmy się, że ofiarami ataków typu deepfake padają głównie politycy, znani aktorzy czy celebryci. Eksperci oceniają jednak, że w najbliższym czasie najbardziej zagrożoną grupą – w przypadku ataków mających na celu wyłudzenie pieniędzy – będą liderzy firm, menedżerowie wyższego i średniego szczebla. Zagrożony jest właśnie świat biznesu.
Deepfake w szerszym kontekście
Omawiając zagrożenia związane ze zjawiskiem deepfake z punktu widzenia biznesu, nie możemy zapomnieć o innych zjawiskach i zagrożeniach, jakie się z nim wiążą. Z prostego powodu – one także mogą zostać wykorzystane przeciwko firmom i ich pracownikom.
Przekonał się o tym chociażby sam Mark Zuckerberg. Artysta Bill Posters przerobił jedno z jego wystąpień, wkładając mu w usta zupełnie inne słowa, w których Mark napawa się kontrolowaniem dusz i umysłów milionów ludzi dzięki gromadzonym przez Facebooka danym:
W tym przypadku przeróbka została ujawniona przez twórcę, a Facebook nie stracił na niej finansowo (np. poprzez spadek kursu akcji). Łatwo sobie jednak wyobrazić sytuację, w której podobne działanie wykorzystywane zostanie przed konkurencję firmy A do ośmieszenia i zdyskredytowania firmy B. Cel? Dowolny. Chociażby obniżenie wartości firmy A przed próbą przejęcia albo zmniejszenie jej wiarygodności przed ważnym przetargiem.
Należy też, niestety, wspomnieć o działaniach typu deepfake związanych z tematyką pornograficzną. Tego typu rozwiązania pozwalają na przykład – przy wykorzystaniu zaawansowanych algorytmów AI – na podmianę twarzy aktorki lub aktora filmu pornograficznego z twarzą innej osoby. Działa to tak samo jak na przeróbce, w której w rolę Neo wcielił się nie Keanu Reeves, ale Will Smith:
Inne aplikacje (np. DeepNude) umożliwiają wirtualne rozebranie dowolnej kobiety zarejestrowanej na zdjęciu lub filmie. Konkretne programy czy strony pojawiają się wprawdzie i znikają, ale samo zjawisko – zaczepione mocno w pornografii – trwa. Niestety, szeroko rozumiane revenge porn wraz z deepfake’ami mogą być także wykorzystane do brudnych zagrywek biznesowych.
Szanuj swoją prywatność
W wielu raportach z zakresu cyberbezpieczeństwa jak mantra powtarza się proste stwierdzenie: największym zagrożeniem są ludzie. W epoce powszechnego korzystania z zabezpieczeń biometrycznych nabiera jednak ono szczególnego znaczenia.
Znów chodzi o różnorakie aplikacje z zakresu deepfake, ale nie związane ani z wyłudzaniem pieniędzy, ani też z kompromitowaniem jakiejś osoby. Aplikacje legalne, zabawne, często imponujące – takie chociażby jak słynna FaceApp, umożliwiająca m.in. wiarygodnie wyglądającą symulację zmiany wieku osoby na zdjęciu. Ostatnio popularna staje się natomiast chińska apka ZAO. Dzięki niej użytkownik może podmienić własną twarz z twarzą aktora i stworzyć krótkiego GIF‑a, w którym będzie brał udział w słynnej scenie filmowej.
Problem w przypadku tego typu aplikacji jest za każdym razem podobny – instalując je, przyznajemy im szereg daleko idących uprawnień. Zarówno od strony sprzętowej (np. możliwość wykorzystywania mikrofonu i aparatu wbudowanych w smartfona), jak i prawnej, naruszającej nieraz prywatność użytkowników. To ostatnie może na przykład oznaczać prawo do wykorzystywania zdjęcia twojej twarzy – zarówno przez firmę tworzącą aplikację, jak i jej partnerów.
Ta sama twarz może przecież służyć do logowania do różnego typu urządzeń i aplikacji, również firmowych. W części z nich (np. smartfony Apple – FaceID) można z jej pomocą autoryzować chociażby zakupy albo transakcje bankowe. Całkiem niedawno, w sierpniu tego roku, morderca usiłował się zalogować do aplikacji Money Station, wykorzystując twarz uduszonej ofiary. Nie udało mu się to (i został złapany), ponieważ sztuczna inteligencja serwisu wykryła, że oczy logującej się osoby nie mrugały.
Mruganie, ruszanie głową, wypowiedzenie krótkiego komunikatu – to stosowane obecnie metody, które skutecznie blokują nieprawomocne wykorzystanie czyjejś twarzy m.in. w aplikacjach finansowych. Ale jeśli głos i twarz ofiary zostaną przejęte i podrobione przez deepfake, mogą nie wystarczyć.
Jak bronić się przed deepfake?
Metody obrony przed zjawiskami typu deepfake można podzielić na trzy rodzaje.
1. Zdrowy rozsądek
Pułapki wykorzystujące deepfake działają na podobnych zasadach co wyłudzanie pieniędzy na wnuczka czy na policjanta. Opierają się na pewnym schemacie i szukają osób, które rzeczywiście ten schemat wykorzystują. Prosty przykład: podanie się za wnuczka osobie, która nie ma nawet dzieci, wzbudzi tylko jej nieufność. Natomiast dobroduszna babcia z kilkanaściorgiem wnucząt rzeczywiście może paść ofiarą oszustwa. Jeśli zatem schematy komunikacyjne w twojej firmie częściowo pokrywają się z działaniami typu deepfake (polecenia głosowe, rozmowy telefoniczne, telekonferencje, rozmowy wideo) – zagrożenie jest całkiem realne.
Rozwiązanie jest proste, choć wcale nie tak łatwo je wprowadzić: zmiana obowiązujących schematów komunikacji. Najprostszy i bardzo zdroworozsądkowy przykład: potwierdzanie poleceń innymi kanałami. To może być np. SMS z numeru telefonu przełożonego albo wysłany przez niego e‑mail. Żadne zabezpieczenie nie będzie w pełni skuteczne, ale ryzyko skutecznego ataku zmniejszy się znacząco.
2. Edukacja
Szkolenie pracowników z zakresu zagrożeń typu deepfake powinno obejmować dwa aspekty: technologiczny i behawioralny. Przede wszystkim warto uświadamiać innym, co to jest deepfake i jakie niesie ze sobą możliwości. Trochę tak, jak z... przedszkolakiem, który oglądając film z superbohaterami, rzeczywiście wierzy, że umieją oni latać i strzelać laserami. Jeśli jednak dowie się, czym jest film, kino i efekty specjalne – jego postrzeganie się zmienia. Podobnie zachowa się pracownik, który wie, czym jest deepfake. Nie uwierzy tak łatwo, że głos/twarz osoby, która rozmawia z nim przez telefon lub wideo, należy bez jakichkolwiek wątpliwości do jego przełożonego. Zastanowi się też, czy instalować jakąś nową, fajną aplikację wykorzystującą zagrania deepfake.
Dobrze jest także uczulić pracowników na zespoły zachowań, które towarzyszą zwykle atakom typu deepfake. Należą do nich: atmosfera pośpiechu, nerwowości, często także konieczność zachowania tajemnicy. Typowe jest także występowanie groźby kary lub katastrofy, jeśli działanie nie zostanie szybko podjęte albo wręcz przeciwne – wizja wysokiej korzyści, nagrody, okazji.
3. Systemy bezpieczeństwa
Niestety, nie ma w tym momencie rozwiązań technologicznych, które w prosty sposób chroniłyby przed atakami typu deepfake. Nie da się np. zainstalować aplikacji, które zabezpieczałyby przed nimi firmową sieć komputerową czy służbowe telefony pracowników. W większości krajów świata nie istnieją też szczegółowe rozwiązania legislacyjne, które chroniłyby i ludzi, i przedsiębiorstwa przed zagrożeniami ze strony deepfake’ów. W tym momencie pomóc mogą zatem tylko zdrowy rozsądek i edukacja na temat zagrożeń.
Na szczęście coraz więcej pojawia się sygnałów, że firmy zajmujące się cyberbezpieczeństwem i legislatorzy mocno pracują nad zagrożeniami związanymi z deepfake. Wyścig trwa.