1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW
TechnikaNiemcy

Niemcy. Fałszowanie głosu dzięki AI wyzwaniem dla policji

18 lipca 2023

Dzięki sztucznej inteligencji można tworzyć głosy łudząco podobne do naturalnych, a podróbki audio wykorzystują przestępcy. Organy bezpieczeństwa ledwo nadążają – wynika z informacji dziennikarzy SWR.

Digital AI Ego
Zdjęcie: Alexander Limbach/Zoonar/picture alliance

Pewnego piątku Corinna Busch z Neuss odebrała telefon z zastrzeżonego numeru. Po drugiej stronie roztrzęsiony głos: „Mamo, to ja. Miałem wypadek i zabiłem kobietę. Przekażę cię policjantowi”. Tak opowiada o tym Corinna Busch – czytamy na portalu tagesschau.de prowadzonym przez publicznego nadawcę ARD, w ramach którego działa Südwestrundfunk (SWR).

Głos bez wątpienia brzmiał jak głos jej syna – relacjonuje Busch w rozmowie z dziennikarzami SWR. Rzekomy „policjant” powiedział jej przez telefon, że jej syn jest w areszcie i że zwolni go za kaucją, po czym się rozłączył. Zszokowany mąż Corinny Busch, Wolf Busch, zadzwonił do syna, który – jak się okazało – nie był na posterunku policji, ale w domu.

Ponieważ głos brzmiał łudząco prawdziwie, Buschowie są przekonani, że ktoś podrobił głos ich syna za pomocą sztucznej inteligencji (Artificial Intelligence – AI). Jednak śledczy nie byli w stanie ustalić, czy przestępcy faktycznie wykorzystali AI, tak samo jak nie byli w stanie znaleźć sprawców.

Kradzież tożsamości dzięki AI

Obecnie istnieje kilka usług online, które ułatwiają „klonowanie głosów” przy użyciu sztucznej inteligencji, informuje Tasnim Rödder z SWR na portalu tagesschau.de. Badania przeprowadzone przez program śledczy SWR „Vollbild” wykazały, że przestępczy używają tej technologii do kradzieży tożsamości czy oszukańczych telefonów w „nagłych” sytuacjach.

Federalne Ministerstwo Spraw Wewnętrznych stwierdziło w odpowiedzi na pytanie dziennikarzy SWR, że organy bezpieczeństwa stoją codziennie przed „różnorodnymi i złożonymi wyzwaniami” związanymi z rozwojem technologicznym.

Brak rejestracji oszustw z użyciem AI

Zapytanie SWR skierowane do biur śledczych (LKA) w 16 landach pokazuje, że rodzina Busch nie jest odosobnionym przypadkiem. W samej Nadrenii Północnej-Westfalii popełniono ponad 8000 przestępstw w związku z telefonami i sztuczkami „na wnuczka” – wykazują statystyki kryminalne niemieckiej policji za 2022 rok. Większości z tych spraw nie udało się rozwiązać. – Nie ukrywam, że trudno jest prowadzić te dochodzenia – mówi Daniela Dässel, rzeczniczka LKA w Nadrenii Północnej-Westfalii, w wywiadzie dla redakcji „Vollbild”.

Liczba połączeń telefonicznych z wykorzystaniem sztucznie stworzonego głosu  nie jest rejestrowana, informuje Federalny Urząd Policji Kryminalnej w odpowiedzi na pytanie SWR. Nie jest też rejestrowane, ile z tych przestępstw zostało popełnionych przy pomocy sztucznej inteligencji.

Klonowanie głosu coraz łatwiejsze

Postęp technologii AI  niepokoi śledczych: LKA w Hesji wskazuje, że fałszerstwa audio jeszcze rok lub dwa lata temu były wyzwaniem dla przestępców. Jednak teraz istnieją już częściowo darmowe strony internetowe, dzięki którym możliwe jest osiągnięcie „dobrych wyników” poprzez tworzenie nagrań wysokiej jakości.

Firma technologiczna McAfee przeprowadziła ankietę online wśród około 7000 osób z siedmiu krajów na temat fałszowania dźwięku przy użyciu sztucznej inteligencji. Nieco ponad 1000 respondentów pochodziło z Niemiec. 22 procent stwierdziło, że oni sami lub ich znajomi doświadczyli już oszustw audio z wykorzystaniem sztucznej inteligencji. Na całym świecie odsetek ten wynosi 25 procent.

Z ankiety wynika też, że AI potrafi klonować głosy z 95-procentową dokładnością. Jeden z takich programów pochodzi z amerykańskiego start-upu ElevenLabs. Pod koniec kwietnia firma wydała wersję z niemieckimi głosami. ElevenLabs twierdzi, że liczba jej użytkowników wzrosła od zera do ponad miliona w ciągu pięciu miesięcy.

Nie do odróżnienia: głos sztuczny i naturalny 

Także redakcja „Vollbild” przetestowała klonowanie głosu. Z pomocą ElevenLabs i programu open-source, zespół redakcyjny był w stanie sklonować głos autorki podcastów Ariany Baborie. Przeżyła szok, gdy skonfrontowano ją z wynikiem: „Bardzo trudno było mi zdać sobie sprawę, że to nie byłam naprawdę ja” – powiedziała, gdy usłyszała własnego klona.

Dla wielu osób programy takie jak ten stworzony przez ElevenLabs mogą być niebezpieczne, jeśli są niewłaściwie wykorzystywane. Polityczka SPD Sawsan Chebli, która czuje się szczególnie dotknięta nienawiścią i wrogością w sieci, powiedziała redakcji „Vollbild”, że programy językowe mogą nadać temu problemowi zupełnie nowy wymiar.

Postrzega to jako możliwą broń w rękach na przykład tych, którzy próbują ją zniesławić jako osobę związaną z kręgami islamistów: „Myślę, że byłoby to brutalnie niebezpieczne, ponieważ uwierzyłoby w to wielu ludzi, którzy mają określonych obraz wroga. A jeśli nakarmisz ten zniekształcony obraz moim głosem, myślę, że byłoby to brutalne – powiedziała Sawsan Chebli, cytowana przez portal tagesschau.de.

Chcesz skomentować ten artykuł? Zrób to na facebooku! >>