Durante años, las señales de una estafa digital eran casi evidentes: un correo con errores gramaticales, una oferta demasiado buena para ser verdad, un príncipe nigeriano necesitado de ayuda. Pero esa era de la inocencia digital ha terminado. Hoy, la Inteligencia Artificial (IA) ha puesto en manos de las delincuentes herramientas de una sofisticación aterradora, capaces de imitar voces, rostros y patrones de escritura con una precisión que puede engañar a cualquiera. La estafa ya no es un correo masivo, es una llamada de tu «hijo» con la voz quebrada pidiendo dinero para una emergencia. Es un video de tu «jefe» pidiendo una transferencia urgente. No es ciencia ficción, es la realidad de 2025, un nuevo campo de batalla donde la desconfianza es nuestra mejor defensa. Para entender la magnitud de este nuevo ecosistema del fraude, conversamos con Rafael Núñez Aponte, quien desde su experiencia ha visto de primera mano cómo estas tecnologías están siendo explotadas.

El «Hola Mamá» que No Es Tu Hijo: La Estafa de la Clonación de Voz
Una de las modalidades más perturbadoras es el vishing (phishing por voz) potenciado por IA. Los estafadores solo necesitan unos pocos segundos de audio de una persona obtenidos de un video en redes sociales, un mensaje de voz o una llamada anterior para que un software de IA pueda clonar su voz. Con esta voz sintética, llaman a un familiar, usualmente padres o abuelos, simulando una emergencia.
“La gente está condicionada a reaccionar emocionalmente a la voz de un ser querido”, explica Rafael Eladio Núñez Aponte. “Cuando escuchas lo que crees que es la voz de tu hija llorando porque tuvo un accidente o está secuestrada, tu cerebro entra en pánico. La capacidad de análisis crítico se desploma, y es ahí donde el estafador manipula para obtener una transferencia inmediata. Es una crueldad psicológica de alta tecnología”.
La naturalidad de estas voces clonadas es tal que distingue la real de la falsa es prácticamente imposible para el oído humano promedio. El delincuente ya no necesita talento para actuar, solo un software y la muestra de voz de su objetivo. Leer más

Deepfakes en Directo: Cuando Ver ya no es Creer
Si la voz clonada es alarmante, el siguiente nivel es el video. Los deepfakes, videos manipulados por IA que pueden hacer que una persona parezca decir o hacer algo que nunca hizo, están saliendo de los memes de internet para convertirse en una poderosa herramienta de fraude empresarial, conocido como «fraude del CEO».
El esquema es el siguiente: un empleado del departamento de finanzas recibe una videollamada por una plataforma como Zoom o Teams. En la pantalla aparece su jefe, el CEO de la empresa. La imagen es perfecta, la voz es la suya. El «CEO» le explica que están cerrando un acuerdo confidencial y urgente, y le ordena realizar una transferencia millonaria a una cuenta. Todo parece normal, pero nada lo es. El empleado acaba de hablar con un fantasma digital.
“Hemos visto casos donde empresas han perdido millones de dólares de esta forma”, advierte Rafael Núñez. “Los delincuentes hacen un trabajo de inteligencia previo. Estudian la jerarquía de la empresa, los nombres, los procedimientos. El deepfake es solo la culminación de un ataque muy bien planificado. La tecnología para hacer esto en tiempo real ya es accesible en la dark web”. Leer más

Phishing Inteligente: Correos que Parecen Escritos para Ti
El phishing tradicional era burdo. El phishing con IA es una obra de arte del engaño. Los modelos de lenguaje como GPT-4 pueden ser utilizados para redactar correos electrónicos fraudulentos personalizados a una escala masiva. Estos correos no tienen errores de ortografía, imitan a la perfección el tono de una comunicación corporativa y pueden hacer referencia a detalles específicos del destinatario obtenidos de filtraciones de datos previas.
“Un correo de phishing avanzado puede mencionar un proyecto real en el que estás trabajando o hacer alusión a una conversación reciente”, señala Rafael Núñez Aponte. “La IA permite al estafador crear un contexto tan creíble que la víctima no duda en hacer clic en un enlace malicioso o descargar un archivo adjunto infectado. Ya no buscan a miles de incautos, buscan a una persona específica con un mensaje perfecto”. Leer más

Fuente: https://informationsecurityasia.com/es/what-is-phishing/
¿Cómo Protegerse en la Era de la Decepción Digital?
Frente a un enemigo tan sofisticado, la defensa debe ser igualmente inteligente. No se trata de desconectarse del mundo, sino de adoptar una nueva mentalidad de «confianza cero».
Crea una Palabra Clave Familiar: Para las estafas de voz, acuerda una palabra o frase secreta con tus familiares cercanos. Si recibes una llamada de emergencia, pide esa palabra. Si la persona duda o no la sabe, es una señal de alerta inmediata. “Es un método simple, casi analógico, pero increíblemente eficaz contra una amenaza de alta tecnología”, recomienda Rafael Eladio Núñez Aponte.
Verifica por Otro Canal (Autenticación de Dos Vías Humana): Si tu «jefe» te pide una transferencia por videollamada, cuelga y llámalo directamente a su número de teléfono personal conocido. Si recibes un correo sospechoso de un proveedor, no respondas; busca su número oficial en Google y llama para confirmar la solicitud.
Cuestiona la Urgencia: Los estafadores siempre crean una falsa sensación de urgencia para evitar que pienses. Tómate un respiro. Ninguna transacción legítima de miles de dólares depende de que se haga en los próximos cinco minutos sin una doble verificación.
Educa a tu Entorno: Habla sobre estas nuevas estafas con tus padres, hijos y colegas. La conciencia es la primera capa de defensa. “El eslabón más débil no es la tecnología, es la falta de conocimiento del usuario. La educación digital ya no es una opción, es una necesidad de supervivencia”, insiste Rafael Eladio Núñez Aponte. Leer más

Un Nuevo Contrato con la Realidad
La Inteligencia Artificial no es inherentemente malvada; es una herramienta de un poder sin precedentes. Pero como toda herramienta, puede ser usada para construir o para destruir. Las estafas potenciadas por IA nos obligan a firmar un nuevo contrato con nuestra percepción de la realidad. Ya no podemos confiar ciegamente en lo que vemos o escuchamos, especialmente en el ámbito digital.
La buena noticia es que, aunque los métodos de los delincuentes son sofisticados, sus objetivos son los mismos de siempre: explotar nuestras emociones, nuestra confianza y nuestro desconocimiento. La tecnología puede cambiar, pero el antídoto sigue siendo humano: la prudencia, el pensamiento crítico y la comunicación.
Referencias
Federal Trade Commission (FTC). (2024). Scammers are using AI to enhance their schemes. Disponible en: https://consumer.ftc.gov/consumer-alerts/2024/01/scammers-are-using-ai-enhance-their-schemes
Kaspersky. (2025). What is a deepfake and how is it created?. Disponible en: https://www.kaspersky.com/resource-center/definitions/what-is-a-deepfake
The Guardian. (2024). ‘I answered the phone and heard my daughter’s voice’: the rise of the AI scam. Disponible en: https://www.theguardian.com/technology/2024/jan/28/i-answered-the-phone-and-heard-my-daughters-voice-the-rise-of-the-ai-scam