Ola mundial de estafas de clonación de voz de IA golpea Argentina

Una sofisticada estafa que aprovecha la inteligencia artificial (IA) para clonar voces y engañar a las personas a través de mensajes de WhatsApp está causando estragos en todo el mundo, con incidencias reportadas en Argentina. Una abrumadora mayoría de casi el 80% de los afectados caen víctimas de este esquema fraudulento, conocido como «vishing».

Esta actividad fraudulenta es alarmantemente difícil de prevenir o detener tanto para las fuerzas del orden como para los individuos afectados. En Mar del Plata, un abogado especializado en ciberdelincuencia, ha brindado información sobre cómo reconocer estas intrincadas estafas vinculadas a la IA. Advierte al público sobre los peligros inherentes de confiar ciegamente en mensajes de voz y llamadas, especialmente aquellos con números internacionales, destacando a la India como una fuente prevalente.

La experiencia personal del abogado con la tecnología de IA en una prueba de videollamada paga reveló que distinguir entre una voz auténtica y una clonada por IA es casi imposible. Esta alarmante revelación se suma a las preocupaciones existentes.

El término «vishing» es un acrónimo de «voice» (voz) y «phishing», ilustrando estafas que implican llamadas telefónicas fraudulentas respaldadas por datos recopilados de internet. Esta estrategia de clonación de voz impulsada por la IA está diseñada para suplantar convincentemente a seres queridos o amigos, engañando así a las personas para que transfieran fondos. Una encuesta de McAfee destaca que el 77% de los afectados por este tipo de ataque terminaron enviando dinero a los perpetradores, mostrando la alta tasa de éxito de estos engañosos movimientos.

A medida que la amenaza de la estafa por voz habilitada por la IA continúa creciendo, el público debe permanecer vigilante y escéptico ante las comunicaciones de voz no verificadas para protegerse de pérdidas financieras y angustias emocionales.

Hechos no mencionados en el artículo:
– La tecnología de clonación de voz tiene usos legítimos, como en entretenimiento, para ayudar a personas con discapacidades del habla y para la creación de asistentes digitales.
– Se está llevando a cabo investigación para desarrollar sistemas de detección que puedan identificar voces sintéticas para ayudar a protegerse de tales fraudes.
– Los avances en aprendizaje automático y el acceso a conjuntos de datos grandes han mejorado significativamente la capacidad de la IA para clonar voces con muestras mínimas.
– Algunos países están considerando o han implementado legislación para regular el uso de la tecnología deepfake, incluida la clonación de voces, para mitigar el riesgo de abuso.

Preguntas y respuestas importantes:
¿Qué herramientas están utilizando los estafadores para la clonación de voz? Los estafadores utilizan software de IA sofisticado capaz de analizar patrones de voz y crear modelos de voz que pueden ser manipulados para decir lo que el estafador desee.
¿Cómo pueden las personas protegerse de tales estafas? Las personas deben verificar la identidad del interlocutor a través de un canal de comunicación separado, ser cautelosos con llamadas internacionales desconocidas y nunca compartir información personal o transferir dinero basándose únicamente en una solicitud de voz.
¿Existen medidas legales para combatir las estafas de clonación de voz? Las medidas legales varían según el país, pero existe una mayor conciencia y algunos gobiernos están empezando a legislar contra el uso malicioso de tecnologías deepfake y de clonación de IA.

Desafíos o controversias clave:
– El rápido avance de la tecnología de IA supera las medidas legales y de seguridad para protegerse contra su mal uso.
– Equilibrar los beneficios de la tecnología de clonación de voz con las preocupaciones de privacidad y seguridad es un desafío clave.
– La naturaleza internacional de estas estafas dificulta que las fuerzas del orden locales persigan a los estafadores más allá de las fronteras.

Ventajas y desventajas:
Ventajas: La clonación de voz tiene aplicaciones positivas, como la creación de voces sintéticas más naturales para personas con discapacidades del habla o en el entretenimiento, donde la voz de una celebridad puede ser clonada para interpretaciones póstumas.
Desventajas: La principal desventaja es el mal uso de la tecnología en estafas y fraudes, lo que conduce a pérdidas financieras y una desconfianza general en las comunicaciones de voz.

Enlaces relacionados:
Para obtener consejos de ciberseguridad y mantenerse informado sobre las últimas amenazas en línea, los siguientes enlaces relacionados pueden ser útiles:
Recursos de ciberseguridad en INTERPOL
Información sobre ciberseguridad en McAfee

Ten en cuenta que las leyes y regulaciones, así como el estado de la tecnología, están sujetos a cambios, por lo que es importante mantenerse actualizado con la información más reciente.

The source of the article is from the blog enp.gr

Privacy policy
Contact