AI 기술을 이용한 음성 클로닝 피해사례의 증가

인공지능(AI)은 사회의 발전을 위한 엄청난 잠재력을 보여주었지만, 최근 알람이 울리는 사기의 등장으로 큰 우려를 불러일으키고 있다. 최근의 하나의 사기 사례는 인공지능을 활용한 음성 클로닝에 관련되어 있으며, 범죄자들이 사랑하는 사람들의 목소리를 모방하여 돈을 갈취하고 있다. 이 심각한 트렌드는 순진한 피해자들이 이 같은 조종 전술에 빠져들면서 주목받고 있다.

사리타 칸나(가명)는 자신의 딸 수르비(Surbhi)가 위험에 처해 있다는 알 수 없는 번호로부터 전화를 받은 때 끔찍한 사건을 경험했다. 상대편 목소리는 그녀를 위협하고 금전을 강요했다. 자녀의 안전을 위협받고 마음이 심란해진 사리타는 50,000루피를 인터넷으로 이체했다. 몇 시간 후, 전혀 이 일에 대해 모르고 안전한 상태에 있는 수르비로부터 전화를 받았다.

이는 어떻게 가능한 것인가? 그 대답은 인공지능을 활용한 음성 클로닝 소프트웨어에 있다. 이 기술을 통해 범죄자들은 대상의 목소리를 단 3초의 오디오 만으로 복제할 수 있다. 유명한 소프트웨어 보안 회사인 맥아피(McAfee)가 실시한 연구에 따르면, 이러한 클론 음성의 85%가 원본과 놀랍도록 닮았다고 밝혀졌다.

소셜미디어의 확대는 이러한 사기를 가능케하는 데 중요한 역할을 한다. 인도를 비롯한 여러 나라에서 조사된 성인들 중 절반 이상이 정기적으로 자신의 목소리를 온라인으로 공유하고 있다. 이러한 풍부한 음성 샘플은 사기꾼들이 악의적 목적을 위해 데이터를 수집하는 데 용이하게 만든다.

전직 IPS관리관과 사이버 범죄 전문가인 트리베니 싱은 이러한 사기꾼들이 숙련된 프로그래머나 컴퓨터 과학자가 아니라고 설명한다. 그들은 AI 도구, 전화번호, 소셜미디어 플랫폼에서 기록한 음성에 접근하기만 하면 합성 복제본을 작성할 수 있을 뿐이다. 그러나 주의 깊게 듣는 사람들은 가짜 음성을 자주 식별할 수 있다.

이 문제의 심각성은 이 사기에 빠져들고 있는 피해자 수의 증가에서 명백하게 나타난다. 싱에 따르면, 약 77%의 AI 음성 사기 피해자가 금전적 손실을 입었다. 더욱이, 음성 클로닝 소프트웨어가 더욱 접근하기 쉬워지면서 이러한 케이스 수는 계속 증가할 것으로 예상된다.

이 위협의 중요성을 설명하기 위해 카베리 아후자가 자신의 우는 딸의 음성 클립을 이용한 음성 사기꾼의 경험을 공유했다. 아후자는 이 사기를 해체하고 폭로하는 데 성공했지만, 많은 사람들이 그러한 전화에 의해 유발된 감정적 고통으로 인해 패담하고 함정에 빠진다.

음성 클로닝뿐만 아니라, 사기꾼들은 영상 클로닝 기술도 활용하기 시작했다. 은퇴한 코얼 인도 공무원인 PS 라다크리슨은 사기의 희생자가 되었는데, 위급한 필요에 설 수 없는 오랫동안 알려지지 않은 친구라고 주장하는 사기꾼에게 Rs 40,000을 입금하도록 속아넘어갔다.

사기꾼들이 사용하는 기술은 계속해서 진화하고 있다. 그들은 종종 외국 전화번호를 사용하거나 관계를 악용하여 긴급함을 조성한다. 불행히도, 이러한 범죄자들을 추적하는 일은 어려운 과제이며, 많은 피해자들은 창피함으로 인해 사건을 신고하려 하지 않는다.

우리가 이 신흥 위협에 직면하면서, 개인 정보를 보호하고 AI 기술을 악용한 사기의 위험에 대해 알아가는 것이 중요하다. 안전한 온라인 관행 채택, 개인 음성 및 영상 콘텐츠 공유 한도 설정, 주의 깊게 지켜보는 것은 스스로와 사랑하는 사람들을 이 조종 전술로부터 보호하는 데 큰 도움이 된다.

자주 묻는 질문 (FAQ)

The source of the article is from the blog klikeri.rs

Privacy policy
Contact