Dołącz do grona liderów, którzy chcą więcej
Analityka i Business Intelligence
Polska flaga

Biznes w czasach deepfake

13 września 2019 10 min czytania
Zdjęcie Tomasz Kulas - Redaktor "MIT Sloan Management Review Polska", redaktor prowadzący "ICAN Management Review"
Tomasz Kulas
Biznes w czasach deepfake

Streszczenie: Technologia deepfake, bazująca na sztucznej inteligencji, umożliwia tworzenie realistycznych, lecz fałszywych materiałów audio i wideo, co stanowi rosnące zagrożenie dla biznesu. Przykładem jest przypadek prezesa brytyjskiej firmy energetycznej, który został oszukany przez cyfrowo wygenerowany głos swojego przełożonego, co doprowadziło do utraty 220 tysięcy funtów. Mitsmr+3Mitsmr+3Mitsmr+3Mitsmr Aby przeciwdziałać takim zagrożeniom, zaleca się stosowanie trzech głównych metod: Zdrowy rozsądek: Zmiana schematów komunikacyjnych w firmie, takich jak weryfikacja poleceń za pomocą różnych kanałów komunikacji, może znacząco zmniejszyć ryzyko ataków. Mitsmr+1Mitsmr+1 Edukacja: Szkolenie pracowników w zakresie rozpoznawania deepfake'ów oraz uwrażliwienie ich na nietypowe zachowania, takie jak nacisk na pośpiech czy tajemniczość, mogą zwiększyć czujność wobec potencjalnych oszustw. Mitsmr Systemy bezpieczeństwa: Obecnie brak jest w pełni skutecznych technologicznych rozwiązań chroniących przed deepfake'ami, dlatego kluczowe jest łączenie zdrowego rozsądku z edukacją, aby skutecznie minimalizować ryzyko. Mitsmr+2Mitsmr+2Mitsmr+2

Pokaż więcej

Nasze życie – zarówno prywatne, jak i biznesowe – niebawem się skomplikuje. Ten proces już się rozpoczął, ale związane z nim technologie dopiero stają się powszechnie dostępne, łatwiejsze w użytkowaniu i skuteczniejsze w działaniu. Chodzi o deepfake.

Deepfake mówi ludzkim głosem

Na początek zastanów się przez chwilę i szczerze odpowiedz, co zrobisz w sytuacji, w której zadzwoni do ciebie twój szef i charakterystycznym dla siebie głosem poprosi cię o wykonanie przelewu. Będzie nalegał, natarczywy, lekko rozgniewany. I będzie naciskał na szybkie działanie. Właśnie w takiej sytuacji postawiony został prezes pewnej angielskiej firmy energetycznej, który usłyszał w słuchawce głos szefa z niemieckiej firmy matki. Szefa posługującego się językiem angielskim, ale z typowym dla niego niemieckim akcentem.

Tylko że to nie był głos szefa. Głos wygenerowano i spersonalizowano cyfrowo, za pomocą nowoczesnych algorytmów bazujących na sztucznej inteligencji. Ten typ ataku nazywamy vishingiem (połączenie angielskich słów „voice” i „phishing”). W tym przypadku wystarczyła obróbka dźwięku, choć zazwyczaj działania z zakresu deepfake’ów związane są także z przerabianiem lub podrabianiem obrazów wideo.

To jaka jest twoja szczera odpowiedź? W przypadku doświadczonego biznesmena, jakim był ten prezes angielskiej firmy, okazała się ona twierdząca. Szybko zorganizował przelew w wysokości 220 tysięcy funtów na wskazane konto. Pieniądze następnie przekierowano na inne konta w różnych krajach – rozpłynęły się.

Najbardziej zagrożony jest biznes

To właśnie teraz trwa wyścig. Z jednej strony biorą w nim udział firmy oferujące oprogramowanie, które umożliwia tworzenie różnego typu fejków, podróbek, a z drugiej – dostawcy usług z zakresu cyberbezpieczeństwa. Na szczęście dostajemy od nich pokrzepiające informacje – chociażby o opracowanych przez naukowców algorytmach, które wykorzystując uczenie maszynowe, osiągnęły skuteczność w wykrywaniu fejkowych filmów na poziomie 92%. Inną ciekawą inicjatywą z tego zakresu jest projekt Deepstar, rozwijany przez zajmującą się cyberbezpieczeństwem firmę ZeroFOX na zasadach open source. Wykorzystuje on sztuczną inteligencję właśnie do wykrywania działań typu deepfake.

Jest jednak również zła wiadomość. Każdy z ekspertów podkreśla, skuteczność różnych rozwiązań z zakresu cyberbezpieczeństwa badana jest w danym momencie, czyli wykrywa deepfaki na określonym poziomie zaawansowania. A ten cały czas się poprawia, co widać chociażby w dwóch prezentowanych poniżej filmach. Oczywiście to tylko przykłady, które dobrane zostały w innym celu. Niemniej jeden pochodzi z czerwca 2019 roku, a drugi z września – i prezentuje się zdecydowanie bardziej autentycznie.

I jeszcze jedno. Przyzwyczailiśmy się, że ofiarami ataków typu deepfake padają głównie politycy, znani aktorzy czy celebryci. Eksperci oceniają jednak, że w najbliższym czasie najbardziej zagrożoną grupą – w przypadku ataków mających na celu wyłudzenie pieniędzy – będą liderzy firm, menedżerowie wyższego i średniego szczebla. Zagrożony jest właśnie świat biznesu.

Deepfake w szerszym kontekście

Omawiając zagrożenia związane ze zjawiskiem deepfake z punktu widzenia biznesu, nie możemy zapomnieć o innych zjawiskach i zagrożeniach, jakie się z nim wiążą. Z prostego powodu – one także mogą zostać wykorzystane przeciwko firmom i ich pracownikom.

Przekonał się o tym chociażby sam Mark Zuckerberg. Artysta Bill Posters przerobił jedno z jego wystąpień, wkładając mu w usta zupełnie inne słowa, w których Mark napawa się kontrolowaniem dusz i umysłów milionów ludzi dzięki gromadzonym przez Facebooka danym:

W tym przypadku przeróbka została ujawniona przez twórcę, a Facebook nie stracił na niej finansowo (np. poprzez spadek kursu akcji). Łatwo sobie jednak wyobrazić sytuację, w której podobne działanie wykorzystywane zostanie przed konkurencję firmy A do ośmieszenia i zdyskredytowania firmy B. Cel? Dowolny. Chociażby obniżenie wartości firmy A przed próbą przejęcia albo zmniejszenie jej wiarygodności przed ważnym przetargiem.

Należy też, niestety, wspomnieć o działaniach typu deepfake związanych z tematyką pornograficzną. Tego typu rozwiązania pozwalają na przykład – przy wykorzystaniu zaawansowanych algorytmów AI – na podmianę twarzy aktorki lub aktora filmu pornograficznego z twarzą innej osoby. Działa to tak samo jak na przeróbce, w której w rolę Neo wcielił się nie Keanu Reeves, ale Will Smith:

Inne aplikacje (np. DeepNude) umożliwiają wirtualne rozebranie dowolnej kobiety zarejestrowanej na zdjęciu lub filmie. Konkretne programy czy strony pojawiają się wprawdzie i znikają, ale samo zjawisko – zaczepione mocno w pornografii – trwa. Niestety, szeroko rozumiane revenge porn wraz z deepfake’ami mogą być także wykorzystane do brudnych zagrywek biznesowych.

Szanuj swoją prywatność

W wielu raportach z zakresu cyberbezpieczeństwa jak mantra powtarza się proste stwierdzenie: największym zagrożeniem są ludzie. W epoce powszechnego korzystania z zabezpieczeń biometrycznych nabiera jednak ono szczególnego znaczenia.

Znów chodzi o różnorakie aplikacje z zakresu deepfake, ale nie związane ani z wyłudzaniem pieniędzy, ani też z kompromitowaniem jakiejś osoby. Aplikacje legalne, zabawne, często imponujące – takie chociażby jak słynna FaceApp, umożliwiająca m.in. wiarygodnie wyglądającą symulację zmiany wieku osoby na zdjęciu. Ostatnio popularna staje się natomiast chińska apka ZAO. Dzięki niej użytkownik może podmienić własną twarz z twarzą aktora i stworzyć krótkiego GIF‑a, w którym będzie brał udział w słynnej scenie filmowej.

Problem w przypadku tego typu aplikacji jest za każdym razem podobny – instalując je, przyznajemy im szereg daleko idących uprawnień. Zarówno od strony sprzętowej (np. możliwość wykorzystywania mikrofonu i aparatu wbudowanych w smartfona), jak i prawnej, naruszającej nieraz prywatność użytkowników. To ostatnie może na przykład oznaczać prawo do wykorzystywania zdjęcia twojej twarzy – zarówno przez firmę tworzącą aplikację, jak i jej partnerów.

Ta sama twarz może przecież służyć do logowania do różnego typu urządzeń i aplikacji, również firmowych. W części z nich (np. smartfony Apple – FaceID) można z jej pomocą autoryzować chociażby zakupy albo transakcje bankowe. Całkiem niedawno, w sierpniu tego roku, morderca usiłował się zalogować do aplikacji Money Station, wykorzystując twarz uduszonej ofiary. Nie udało mu się to (i został złapany), ponieważ sztuczna inteligencja serwisu wykryła, że oczy logującej się osoby nie mrugały.

Mruganie, ruszanie głową, wypowiedzenie krótkiego komunikatu – to stosowane obecnie metody, które skutecznie blokują nieprawomocne wykorzystanie czyjejś twarzy m.in. w aplikacjach finansowych. Ale jeśli głos i twarz ofiary zostaną przejęte i podrobione przez deepfake, mogą nie wystarczyć.

Jak bronić się przed deepfake?

Metody obrony przed zjawiskami typu deepfake można podzielić na trzy rodzaje.

1. Zdrowy rozsądek

Pułapki wykorzystujące deepfake działają na podobnych zasadach co wyłudzanie pieniędzy na wnuczka czy na policjanta. Opierają się na pewnym schemacie i szukają osób, które rzeczywiście ten schemat wykorzystują. Prosty przykład: podanie się za wnuczka osobie, która nie ma nawet dzieci, wzbudzi tylko jej nieufność. Natomiast dobroduszna babcia z kilkanaściorgiem wnucząt rzeczywiście może paść ofiarą oszustwa. Jeśli zatem schematy komunikacyjne w twojej firmie częściowo pokrywają się z działaniami typu deepfake (polecenia głosowe, rozmowy telefoniczne, telekonferencje, rozmowy wideo) – zagrożenie jest całkiem realne.

Rozwiązanie jest proste, choć wcale nie tak łatwo je wprowadzić: zmiana obowiązujących schematów komunikacji. Najprostszy i bardzo zdroworozsądkowy przykład: potwierdzanie poleceń innymi kanałami. To może być np. SMS z numeru telefonu przełożonego albo wysłany przez niego e‑mail. Żadne zabezpieczenie nie będzie w pełni skuteczne, ale ryzyko skutecznego ataku zmniejszy się znacząco.

2. Edukacja

Szkolenie pracowników z zakresu zagrożeń typu deepfake powinno obejmować dwa aspekty: technologiczny i behawioralny. Przede wszystkim warto uświadamiać innym, co to jest deepfake i jakie niesie ze sobą możliwości. Trochę tak, jak z… przedszkolakiem, który oglądając film z superbohaterami, rzeczywiście wierzy, że umieją oni latać i strzelać laserami. Jeśli jednak dowie się, czym jest film, kino i efekty specjalne – jego postrzeganie się zmienia. Podobnie zachowa się pracownik, który wie, czym jest deepfake. Nie uwierzy tak łatwo, że głos/twarz osoby, która rozmawia z nim przez telefon lub wideo, należy bez jakichkolwiek wątpliwości do jego przełożonego. Zastanowi się też, czy instalować jakąś nową, fajną aplikację wykorzystującą zagrania deepfake.

Dobrze jest także uczulić pracowników na zespoły zachowań, które towarzyszą zwykle atakom typu deepfake. Należą do nich: atmosfera pośpiechu, nerwowości, często także konieczność zachowania tajemnicy. Typowe jest także występowanie groźby kary lub katastrofy, jeśli działanie nie zostanie szybko podjęte albo wręcz przeciwne – wizja wysokiej korzyści, nagrody, okazji.

3. Systemy bezpieczeństwa

Niestety, nie ma w tym momencie rozwiązań technologicznych, które w prosty sposób chroniłyby przed atakami typu deepfake. Nie da się np. zainstalować aplikacji, które zabezpieczałyby przed nimi firmową sieć komputerową czy służbowe telefony pracowników. W większości krajów świata nie istnieją też szczegółowe rozwiązania legislacyjne, które chroniłyby i ludzi, i przedsiębiorstwa przed zagrożeniami ze strony deepfake’ów. W tym momencie pomóc mogą zatem tylko zdrowy rozsądek i edukacja na temat zagrożeń.

Na szczęście coraz więcej pojawia się sygnałów, że firmy zajmujące się cyberbezpieczeństwem i legislatorzy mocno pracują nad zagrożeniami związanymi z deepfake. Wyścig trwa.

O autorach
Tematy

Może Cię zainteresować

Wdrażanie AI z ludzkiej perspektywy. Praktyczne lekcje

Dlaczego w wielu branżach AI wciąż budzi opór zamiast entuzjazmu? Ten tekst pokazuje, że o sukcesie wdrożeń decydują nie algorytmy, lecz ludzie, ich nawyki i sposób pracy.

Dlaczego niektórzy pracownicy zawsze odpowiadają jako ostatni i co to tak naprawdę sygnalizuje

Opóźnione odpowiedzi w pracy rzadko są przypadkowe. To często subtelny sygnał statusu i kontroli, który wpływa na tempo pracy zespołu i poziom zaufania.

Zasady przywództwa: jak procentuje inspiracja

Jak stworzyć zasady przywództwa, które naprawdę działają? Dwie szkoły biznesu pokazują, że kluczem jest współtworzenie, autentyczność i konsekwencja w działaniu – a nie same deklaracje wartości.

Gdy odpowiedzialność zespołu spada: cztery trudne pytania dla liderów

Brak odpowiedzialności w zespole rzadko wynika ze złej woli pracowników. Częściej jest skutkiem przeciążenia, niejasnych ról, nadmiaru osób i zadań oraz stylu zarządzania, który nie sprzyja otwartości. Cztery pytania pomagają liderce zdiagnozować prawdziwe źródło problemu i wprowadzić konkretne zmiany.

Dlaczego sukcesja na stanowisku CEO rzadko przynosi rzeczywistą zmianę

Chociaż firmy głośno deklarują potrzebę głębokiej transformacji, proces sukcesji na stanowisku dyrektora generalnego często sprowadza się do wyboru najbezpieczniejszej opcji. Odkryj, dlaczego zarządy wpadają w pułapkę „homospołecznej reprodukcji”, powielając znane profile menedżerskie i nieświadomie blokując strategiczny rozwój swojej organizacji.

Praca w erze AI: Zaskakująca lekcja biznesu z książki dla dzieci

Rozwój sztucznej inteligencji budzi uzasadnione obawy o przyszłość rynku pracy i stabilność zatrudnienia. Odkryj, dlaczego eksperci od zarządzania szukają odpowiedzi w klasycznej literaturze i w jaki sposób historia o przestarzałej koparce parowej może pomóc Ci zaplanować udaną reorientację kariery w nowej, technologicznej rzeczywistości.

Jak czerpać skumulowane korzyści z generatywnej sztucznej inteligencji

Jak sprawić, aby każda interakcja z generatywną sztuczną inteligencją zwiększała kompetencje organizacji, a nie tylko przyspieszała pracę? Kluczem jest przejście od konsumpcji wyników AI do systematycznego uczenia się na ich podstawie.

Cieśnina Ormuz: Które sektory i regiony najmocniej odczują skutki kryzysu?

Trwający kryzys na Bliskim Wschodzie i zakłócenia w żegludze przez Cieśninę Ormuz uderzają w globalne łańcuchy dostaw, uderzając w rynki daleko poza sektorem energetycznym. Poznaj najnowsze analizy i dowiedz się, które branże są najbardziej narażone na straty oraz w jaki sposób liderzy biznesu powinni zabezpieczyć swoje organizacje przed eskalacją ryzyka operacyjnego.

Ropa, wojna i gospodarka. Jak rynki wyceniają kryzys w Zatoce Perskiej

Szok naftowy, widmo powrotu uporczywej inflacji i geopolityczne trzęsienie ziemi na Bliskim Wschodzie. Atak USA i Izraela na Iran poddał globalne rynki brutalnej próbie stresu, jednak zamiast ślepej paniki, kapitał rozpoczął chłodną kalkulację zawirowań. Jak brzmi rynkowa narracja  na parkietach i w jaki sposób liderzy biznesu powinni nawigować w epoce nowej, ekstremalnej niepewności?

Multimedia
Hype na AI: Kto naprawdę zyskuje na narracjach o sztucznej inteligencji?

Czy sztuczna inteligencja naprawdę zrewolucjonizuje rynek pracy, czy to tylko zręczna manipulacja gigantów z Doliny Krzemowej? W najnowszym odcinku podcastu „Limity AI” Jacek Mańko dekonstruuje technologiczny hype i wyjaśnia, kto tak naprawdę zarabia na opowieściach o świadomych maszynach.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!