Выманивание голосов через ИИ: новая угроза в телефонных звонках

Мошенники нашли новый способ обмана людей, используя старый трюк оказания помощи близким находящимся в беде. На этот раз они добавили опасный поворот, применяя искусственный интеллект (ИИ) для воссоздания голосов в фальшивых телефонных звонках. Американское бюро лучших дел предупреждает, что мошенники теперь могут манипулировать голосом кого-то, извлекая его из постов в социальных сетях, видео или даже короткого разговора.

Использование ИИ в телефонных мошеннических звонках осложнило ситуацию, делая все более сложным различение между настоящими звонящими и импостерами. Мошенники стремятся вызвать эмоции, часто используя тактику притвориться, будто попали в аварию, находятся в больнице или арестованы. Они пользуются сердечным откликом жертв, эксплуатируя естественный инстинкт помочь близким в беде.

Этот обманный тренд вызвал значительную озабоченность, даже президент Байден выразил поддержку принятию мер против определенных использований ИИ. В своем послании к нации он подчеркнул необходимость запретить имитацию голоса с помощью ИИ.

Однако существуют шаги, которые можно предпринять для защиты себя от становления жертвой подобных мошеннических схем. При получении беспокойного звонка важно приостановиться, глубоко вздохнуть и рационально оценить ситуацию. Это поможет вам думать ясно и предотвратить импульсивные действия.

Кроме того, следует обращать внимание на следующие красные флаги, которые могут указывать на мошенничество. Мошенники часто просят провести денежные переводы или настаивают на покупке карт подарочных, предназначенных пройти бесследно. Будьте осторожны и избегайте этих методов, чтобы не потерять заработанные деньги.

Чтобы дополнительно обезопасить себя, обратитесь за советом к другим. Поделитесь деталями подозрительного звонка с родителями ваших внуков, доверенным другом или соседом. Они могут заметить нестыковки или красные флаги, которые вам могли потерпеть из-за эмоциональной вовлеченности.

К счастью, были сделаны определенные шаги для борьбы с этим типом мошенничества. Федеральная комиссия связи (FCC) недавно объявила, что использование робоколлов с технологией клонирования голоса с помощью ИИ является незаконным.

Оставайтесь информированными и бдительными, чтобы защитить себя от эмерджущей угрозы манипуляции голосом с помощью ИИ. Помните думайте критически, обращайтесь за советом и предпримите предосторожностные меры при общении с незнакомыми звонящими. Вместе мы можем перехитрить мошенников и обеспечить нашу безопасность в цифровую эпоху.

FAQ:

The source of the article is from the blog rugbynews.at

Privacy policy
Contact