Zwalczanie klonowania głosu: Jak rozpoznać i radzić sobie z oszustami

Oszustwa wykorzystujące sztuczną inteligencję do eskalacji oszustw telefonicznych stają się trudne do wykrycia. Oto jak możesz chronić siebie.

Frankfurt – Wyobraź sobie to: dzwoni telefon, a identyfikator połączenia pokazuje imię bliskiej osoby – twojego dziecka, małżonka lub rodzica. Odbierasz rozmowę, słysząc znajomy głos, opowiadający o strasznym wypadku, w którym uczestniczyli albo innym pilnym przypadku. Na koniec rozmowy proszą o pilne przekazanie pieniędzy.

To nie jest zwyczajne oszustwo telefoniczne; to zaawansowany przekręt z wykorzystaniem sztucznej inteligencji. Wraz z rozwojem technologii „klonowania głosu”, oszuści mogą teraz tworzyć przekonujące symulacje głosów twoich krewnych, co sprawia, że o wiele trudniej jest odróżnić prawdziwe połączenia od fałszywych. Ale nadal możesz się chronić, wiedząc na co zwracać uwagę.

Ewolucja „przestępstwa na babcię” z wykorzystaniem technologii deepfake
Puszka Pandory sztucznej inteligencji uwolniła nowe narzędzia dla przestępców, korzystając z „deepfake” audio do naśladowania głosów, sprawiając że oszustwo jest bardziej wiarygodne niż kiedykolwiek wcześniej. Nicole Bahn, rzeczniczka praw konsumentów, chce, abyś wiedział, że do stworzenia przekonującego deepfake’a potrzebny jest tylko krótki sampl głosu – technologia, która szybko się dostosowuje na podstawie dostępnych źródeł audio, począwszy od nagrań w mediach społecznościowych po wiadomości na skrzynce głosowej.

Sztuczna inteligencja umożliwia atakującym zamianę wprowadzonego tekstu na wybrany głos za pomocą procesów text-to-speech, co może być niemal natychmiastowe przy odpowiednich narzędziach.

Zabezpieczenia przed oszustwami telefonicznymi z wykorzystaniem sztucznej inteligencji
Może wydawać się to zniechęcające, aby chronić się przed deepfake’ami, ale nie jest to niemożliwe. Hakerzy często pozyskują informacje osobiste poprzez dark web lub tworząc połączenia z przeciekami danych na różnych platformach, tłumaczy Michael Zerna, inżynier oprogramowania i ekspert ds. sztucznej inteligencji, dla WDR.

Co do strategii obronnej, jeśli otrzymasz podejrzane połączenie, zachowaj spokój, nie ulegaj presji i nie podawaj poufnych informacji ani pieniędzy. Zweryfikuj podejrzane połączenia, kontaktując się z tą osobą za pośrednictwem innego kanału, i zgłoś wszelką działalność oszukańczą policji zebranymi szczegółami.

Co ciekawe, podczas gdy klonowanie głosu stanowi zagrożenie, poprawia również życie. Na przykład „Voice Keeper” zachowuje głosy osób z zaburzeniami mowy, zapewniając, że nadal mogą komunikować się swoim własnym głosem, co stanowi jasną stronę w inaczej zniechęcającej rzeczywistości oszustw opartych na sztucznej inteligencji.

The source of the article is from the blog aovotice.cz

Privacy policy
Contact