Un nuevo tipo de estafa telefónica ha encendido las alarmas en México y otros países, luego de que ciberdelincuentes utilizaran inteligencia artificial (IA) para clonar las voces de familiares, amigos y colegas. Las víctimas, confundidas por el realismo de las imitaciones, han sido manipuladas para transferir grandes sumas de dinero, según relataron afectados en redes sociales como TikTok.
Expertos advierten que este modus operandi requiere apenas 30 segundos de grabación de la voz de la víctima, obtenida durante llamadas previas o de audios compartidos en plataformas públicas. Esa grabación es procesada en aplicaciones avanzadas de IA que generan imitaciones casi perfectas, capaces de engañar incluso a los más precavidos.
Una vez creada la voz clonada, los estafadores establecen diálogos personalizados diseñados para generar urgencia y confusión en las víctimas. La facilidad con la que las voces pueden ser replicadas ha desatado preocupación entre especialistas en ciberseguridad, quienes señalan que este tipo de fraude es difícil de detectar y, aún más, de prevenir.
Para evitar caer en estas estafas, los especialistas recomiendan medidas de verificación simples pero efectivas entre familiares y amigos. Métodos como palabras clave, frases únicas o anécdotas familiares específicas pueden ayudar a confirmar la autenticidad de la llamada antes de actuar.
Además, instituciones como el Consejo Ciudadano de la Ciudad de México ofrecen asistencia a las víctimas de este tipo de fraudes a través de su Línea de Seguridad (55-5533-5533), proporcionando asesoría jurídica y psicológica gratuita.
Este preocupante fenómeno pone en evidencia los riesgos asociados al mal uso de la inteligencia artificial, subrayando la importancia de fortalecer la educación sobre ciberseguridad y la implementación de medidas preventivas en la vida cotidiana.