Deepfake - jakie wyzwania kreuje sztuczna inteligencja (AI) dla przedsiębiorców? Otoczenie regulacyjne w świetle prawa unijne

Artykuł

Deepfake - jakie wyzwania kreuje sztuczna inteligencja (AI) dla przedsiębiorców? Otoczenie regulacyjne w świetle prawa unijnego

Czym jest deepfake i jak minimalizować ryzyka związane z tą technologią

Blog Prawo Nowych Technologii | Wrzesień 2023

Od pierwszego pojawienia się technologii umożliwiających tworzenie sztucznie wygenerowanych treści, określonych zbiorczo jako „deepfake” minęło ponad sześć lat. To, co na początku wymagało pewnego poziomu wiedzy informatycznej, z biegiem czasu stało się ogólnie dostępnym narzędziem, którego zastosowanie jest nie tylko trudne do wykrycia, ale również niesie ze sobą ogromne, wieloobszarowe niebezpieczeństwo.

Deepfake – co to znaczy?

„Deepfake” to plik w postaci zdjęcia, tekstu, materiału wideo bądź audio, stworzony przy wykorzystaniu sztucznej inteligencji w sposób, który zapewnia wykreowanym treściom możliwie najwyższą autentyczność, utrudniając przez to ich odróżnienie od oryginałów.

Zgodnie z definicją przedstawioną w raporcie Europejskiej Służby Badań Parlamentu Europejskiego "Tackling deepfakes in European policy", „deepfake” kreuje materiały, które „wyglądają na autentyczne i przedstawiają osoby, które wydają się mówić lub robić coś, czego nigdy nie powiedziały ani nie zrobiły”1.

Blog Prawo Nowych Technologii

Subskrybuj na e-mail powiadomienia o nowych wpisach na blogu.

Zarejestruj się
Zagrożenie dla firm związane z technologią deepfake

Technologia „deepfake” coraz częściej wykorzystywana jest do przeprowadzania ataków w cyberprzestrzeni. Z uwagi na pobudki finansowe, na celowniku przestępców często znajdują się przedsiębiorcy.

Istnieje szeroki katalog ryzyk, których powstanie jest bezpośrednio związane z użyciem technologii manipulacyjnych. Szczególnie niebezpieczna może okazać się próba modyfikacji danych biometrycznych, w celu ich późniejszego wykorzystania do kradzieży tożsamości. Kwestie te nie należą do rozważań hipotetycznego zagrożenia, przestępstwa na tym tle miały już miejsce. Według artykułu opublikowanego przez The Wall Street Journal, jeden z pracowników brytyjskiej firmy energetycznej zrealizował przelew w wysokości 200 0000 euro, będąc przekonanym, że rozmawia przez telefon ze swoim przełożonym, który wydaje mu polecenie dokonania takiej transakcji2. Podobny schemat może zostać zastosowany w celu uzyskania informacji chronionych tajemnicą handlową, danych uwierzytelniających, a także innych danych, których nieuprawniony wyciek może skutkować narażeniem przedsiębiorcy na straty.

Wykorzystanie narzędzi manipulacyjnych może mieć również wpływ na rynek kapitałowy. Fałszywe informacje w zakresie sytuacji finansowej, przejęć czy połączeń firm mogą doprowadzić do manipulacji związanych z ceną akcji, wzrostu zmienności rynkowej, a tym samym do poważnych strat dla inwestorów. Skutkiem długofalowym rozpowszechniania materiałów deepfake na masową skalę mogłaby być ponadto całkowita utrata zaufania do rynku i brak możliwości podejmowania rzetelnych decyzji inwestycyjnych.

W wyniku tworzenia zmanipulowanych materiałów, ucierpieć może również reputacja przedsiębiorstwa. Nietrudno jest sobie wyobrazić nagranie wideo przedstawiające osobę zarządzającą, która – rzekomo – zachowuje się w sposób prowadzący do wystąpienia po stronie przedsiębiorstwa poważnych szkód wizerunkowych. Przykładowo, jeżeli takie zmanipulowane wideo przedstawiałoby prezesa spółki publicznej wygłaszającego kontrowersyjne poglądy, mogłoby to doprowadzić do bojkotu konsumenckiego jej produktów i usług.

Należy również wspomnieć o możliwości nieuczciwego wykorzystania technologii przez konkurencję, w celu zniechęcenia potencjalnych klientów do zakupu towaru lub skorzystania z usług oferowanych przez innego przedsiębiorcę. Możliwe byłoby też zachowanie odwrotne, tj. polegające na rozpowszechnianiu materiałów wideo, stworzonych przy wykorzystaniu technologii „deepfake”, w których wykreowany wizerunek celebryty polecałyby określony produkt. Mogłoby to doprowadzić nie tylko do naruszenia zasad uczciwej konkurencji na rynku, ale także stanowiłoby naruszenie interesów konsumentów, ograniczając ich prawo do rzetelnej informacji.

Deepfake w świetle prawa unijnego

Brak jest w unijnej prawie unijnym regulacji, które bezpośrednio odnosiłyby się do rozpowszechniania wygenerowanych treści manipulacyjnych. Rozwiązania prawne w tym zakresie są na etapie prac legislacyjnych, a dobrym przykładem takiej projektowanej regulacji jest artykuł 52 Artifical Intelligence Act - aktu o sztucznej inteligencji. Ma on nałożyć na twórcę „deepfake” obowiązek oznaczenia faktu sztucznego wygenerowania treści. Przepis kreuje jednak pewien standard, który musi być spełniony, aby takie oflagowanie było wymagane. Zgodnie z jego treścią, przesłanką aktualizacji tego obowiązku jest ocena, że materiał wydaje się „autentyczny i nie […] oczywiście wygenerowany”. Ustalenie tego, przy braku bardziej szczegółowych wytycznych sformułowanych w projekcie rozporządzenia, jest szczególnie problematyczne, ze względu na różne cechy (m.in. okoliczności prezentacji treści, zróżnicowaną wrażliwość czy dociekliwość odbiorców, a także ich kompetencje cyfrowe) - to, co dla jednej osoby będzie „oczywiście wygenerowanym” materiałem, dla innej może wydawać się w pełni autentyczne.

Przepis przewiduje również pewne wyłączenia od ww. obowiązku, dotyczące przypadków wykorzystania takich rozwiązań w celu wykrywania i przeciwdziałania przestępstwom oraz ścigania ich sprawców, a także gdy mieszczą się one w wolności wypowiedzi i prawa do wolności sztuki i nauk zagwarantowanych w Karcie Praw Podstawowych Unii Europejskiej. Widoczna jest próba wyważenie dwóch, potencjalnie przeciwnych w tym kontekście interesów - zapewnienie jak najwyższej ochrony przed szkodliwymi skutkami zastosowania „deepfake’ów”, przy jednoczesnym dążeniu do unikania nadmiernych ograniczeń wolności słowa.

Kolejnym wyrazem proaktywnej działalności Unii Europejskiej na tym obszarze jest Digital Service Act (DSA) - akt o usługach cyfrowych. Nakłada on szereg obowiązków na dostawców wyszukiwarek oraz platform internetowych. Zakres i wymagania uzależniono od wielkości podmiotów, co oznacza, że to na największych z nich spocznie główna odpowiedzialność, oceniana na podstawie ich udziału w rozpowszechnianiu dezinformacji oraz innych szkodliwych treści. Na podstawie art. 35 DSA została podkreślona rola dostawców w zapewnianiu, aby użytkownik był w stanie na mocy oznaczeń odróżnić oryginalny materiał od sztucznie wygenerowanych bądź zmanipulowanych treści. Jednocześnie artykuł wskazuje, że podmioty te powinny udostępniać prostą w użyciu funkcję, która umożliwiałaby odbiorcom zgłaszanie takich materiałów. W przypadku niespełnienia przez dostawców obowiązków wynikających z DSA, grozi im kara finansowa nawet w wysokości do 6% ich rocznego globalnego przychodu³.

Nie sposób również w tym kontekście ominąć regulacji odnoszących się do ochrony danych osobowych. Narzędzia sztucznej inteligencji służące do tworzenia „deepfake”, takie jak Generative Adversarial Networks (GANs), zbierają ogromne ilości danych biometrycznych, na podstawie których są trenowane algorytmy. Z kolei sam materiał jest najczęściej generowany z wykorzystaniem głosu lub wizerunku rzeczywiście istniejącej osoby. Wobec tego, w wielu przypadkach wykorzystania „deepfake” (polegających na zamieszczaniu w zmanipulowanych materiałach wizerunku osób trzecich) mamy do czynienia z sytuacją, która może prowadzić do nieuprawnionego wykorzystania danych osobowych.

Nieco bardziej skomplikowana może okazać się sytuacja osoby, której nagranie zostało wykorzystane w celu nałożenia na niego innego wizerunku (w takim przypadku najczęściej wykorzystywane jest jedynie jej ciało lub jego część). Choć często identyfikacja takiej osoby jest niemożliwa, to materiał może zawierać elementy, które pozwalają na identyfikację tożsamości tej osoby np. charakterystyczne znamiona czy tatuaże. Co więcej, niektóre wideo typu „deepfake” mogą stanowić świadome połączenie wizerunków kilku znanych osób (zarówno w materiale „bazowym”, jak i rezultacie końcowym), np. w celu dokonania parodii lub pastiszu. Tworzenie i rozpowszechnianie takich treści mogłoby zatem stanowić nieuprawnione wykorzystanie wizerunku i danych osobowych innych osób.

Jak zabezpieczyć swoją działalność? I jak rozpoznać deepfake?

Obecne regulacje prawne nie zapewniają żadnych szczególnych środków prawnych, które pozwalałyby na kontrolę tworzenia oraz rozpowszechniania „deepfake’ów”. Choć np. przepisy o zwalczaniu nieuczciwej konkurencji dają podstawę do wystąpienia z roszczeniami o zaniechanie lub odszkodowanie z tytułu nieuprawnionych działań podejmowanych przez konkurencję lub „nieżyczliwych” konsumentów, w praktyce dochodzenie takich roszczeń wymagałoby czasu i dużych nakładów, związanych m.in. z postępowaniem dowodowym. Z tego względu kluczową staje się proaktywna rola firm i podejmowanie kroków w celu zapewnienia zabezpieczenia przed potencjalnymi atakami. Istnieje szereg działań, które mogą istotnie zwiększyć poziom bezpieczeństwa organizacji.

Jednym z nich jest zapewnienie szkoleń dla pracowników, wyposażających ich w wiedzę niezbędną do rozpoznawania i reagowania w przypadkach oszustw z wykorzystaniem „deepfake”. Szczególnie istotne jest edukowanie personelu, mające na celu uwrażliwienie pracowników na potencjalne ataki socjotechniczne z wykorzystaniem „deepfake’ów”. Dotyczy to zwłaszcza zespołów odpowiedzialnych za rozliczenia - to one są głównym celem cyberataków.

Z kolei w przypadku kryzysów wizerunkowych wywołanych wygenerowanymi, nieprawdziwymi treściami, warto skorzystać z pomocy profesjonalnych zespołów zajmujących się crisis mangement. W ich skład powinny wchodzić m.in. osoby odpowiedzialne za wizerunek, komunikacje z mediami, a także prawnicy. Odpowiednia i przemyślana reakcja może pomóc w ograniczeniu strat i podjęciu działań mających zabezpieczyć podstawowe interesy przedsiębiorstwa. Należy jednak pamiętać, że w czasach błyskawicznego rozchodzenia się informacji, memów i innych treści, również reakcja na nie powinna być niezwłoczna. W przeciwnym wypadku nieprawdziwy obraz może utrwalić się w świadomości konsumentów, osiągając to, co było od początku celem internetowych przestępców.

Dobre przygotowanie to klucz do zabezpieczenia firmy

Aktualne działania Unii Europejskiej wskazują na podejmowane próby minimalizacji ryzyka wypływającego z użycia technologii „deepfake”. Jednak z uwagi na brak kompleksowego uregulowania samego procesu powstawania sztucznie wygenerowanych materiałów manipulacyjnych i ich późniejszej dystrybucji, kluczową pozostaje rola samych w firm w zapobieganiu oszustwom i należytym zarządzaniu sytuacjami kryzysowymi. Zrozumienie zagrożeń związanych z „deepfake” oraz wdrożenie odpowiednich procedur i narzędzi jest niezbędne, jeżeli przedsiębiorstwo chce zabezpieczyć się przed potencjalnymi stratami finansowymi i wizerunkowymi.

Autor:
Weronika Czekaj, Doradztwo Regulacyjne dla sektora finansowego i fintech w Deloitte Legal


1 European Parliament Research Service. (2021). Deepfakes: Their impact and how to address them [PDF]. https://www.europarl.europa.eu/RegData/etudes/STUD/2021/690039/EPRS_STU(2021)690039_EN.pdf
2 Stupp, C. (2019, 30 sierpnia). Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case. WSJ. https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402
3 European Commission. "Digital Services Act Package." European Commission, Digital Strategy, 2021, https://digital-strategy.ec.europa.eu/en/policies/digital-services-act-package

Czy ta strona była pomocna?