Los fraudes impulsados por IA se están acelerando – y los usuarios de cripto están cada vez más en la mira. Entre mayo de 2024 y abril de 2025, los reportes de estafas habilitadas por IA generativa aumentaron un 456 %, según los datos de Chainabuse de TRM Labs. Chainalysis también encontró que el 60 % de los depósitos en billeteras de estafa ahora se destinan a estafas que utilizan herramientas de IA, un aumento pronunciado respecto a 2024, lo que subraya cuán ampliamente los estafadores están adoptando LLM, deepfakes y automatización.
¿Qué está impulsando este auge de las estafas cripto basadas en IA? La IA brinda velocidad, escala y realismo: un solo operador puede crear miles de señuelos de phishing personalizados, videos/voces deepfake e imitaciones de marcas en minutos, contenido que evade los filtros tradicionales y convence a las víctimas. A partir de noviembre de 2025, nuevas superficies de ataque como la inyección de prompts contra navegadores con agentes y copilotos de IA han incrementado el riesgo de que páginas web maliciosas o capturas de pantalla secuestren asistentes conectados a billeteras o cuentas.
El cripto sigue siendo un objetivo principal – especialmente para los traders cotidianos: mercados de movimiento rápido, transacciones irreversibles y liquidación on‑chain 24/7 dificultan la recuperación, mientras que las tendencias criminales más amplias de 2025, desde hackeos hasta “pig‑butchering”, muestran un aumento del riesgo general del ecosistema cripto.
¿Qué son las estafas cripto impulsadas por IA y cómo funcionan? Las estafas cripto impulsadas por IA usan técnicas avanzadas de IA para engañarte y robar tu dinero, claves privadas o credenciales de acceso. Estas estafas van mucho más allá de los esquemas de phishing tradicionales – y son mucho más difíciles de detectar.
El fraude cripto tradicional típicamente implica tácticas manuales: correos electrónicos mal redactados, sorteos genéricos en redes sociales o imitaciones obvias. Eso era más fácil de detectar si sabías qué buscar.
Las estafas cripto habilitadas por IA están creciendo a un ritmo explosivo. Paralelamente, los informes de la industria también muestran un fuerte crecimiento año con año de estafas cripto impulsadas por IA, lo que destaca la rápida adopción de estas herramientas por parte de los estafadores.
Ahora, la IA cambia el juego por completo. Los estafadores están aprovechando IA generativa, bots de aprendizaje automático, clonación de voz y videos deepfake para:
Crear contenido realista y personalizado que parece humano
Las herramientas de IA pueden generar correos de phishing y mensajes falsos que suenan y se leen como si provinieran de un amigo de confianza, influencer o plataforma. Usan gramática impecable, imitan patrones de habla e incluso insertan toques personales basados en tu comportamiento en línea. Los videos deepfake y los clones de voz llevan esto más lejos: podrías creer genuinamente que un CEO, celebridad o conocido te está hablando.
Lanzar ataques masivos a velocidad relámpago
Con IA generativa y grandes modelos de lenguaje (LLM), los estafadores pueden producir miles de mensajes de phishing, sitios web falsos o bots de suplantación en segundos. Estos mensajes pueden localizarse, personalizarse y distribuirse por correo electrónico, Telegram, Discord, SMS y redes sociales. Lo que antes requería equipos dedicados ahora lo puede hacer un solo operador con las herramientas adecuadas.
Eludir filtros y sistemas de seguridad tradicionales
Los sistemas de detección de fraude más antiguos buscaban errores ortográficos, pistas evidentes de ingeniería social y dominios reutilizados. Las estafas impulsadas por IA evitan esas trampas. Generan copias limpias, rotan dominios, usan caracteres invisibles o de ancho cero, imitan el comportamiento humano y combinan canales como voz, video y chat. Según la firma de análisis Chainalysis, alrededor del 60 % de todos los depósitos en billeteras de estafa ahora fluyen a estafas que aprovechan herramientas de IA.
Estos ataques son más convincentes porque imitan de cerca cómo se comportan, hablan y escriben las personas reales – lo que dificulta que los usuarios los detecten en tiempo real. Por ejemplo, usando una herramienta como WormGPT o FraudGPT, un atacante puede lanzar miles de estafas muy creíbles en minutos.
¿Por qué el cripto es un objetivo ideal para las estafas de IA? El mercado cripto es especialmente vulnerable a esta nueva generación de estafas – sobre todo para los usuarios que actúan rápido o comercian con frecuencia. Las transacciones son rápidas, a menudo irreversibles, y los usuarios suelen estar fuera de los marcos regulatorios o de protección al consumidor tradicionales. Añade una audiencia global, múltiples canales como redes sociales, chats, foros y detonantes emocionales/de avaricia, por ejemplo, “duplica tu cripto”, “airdrop exclusivo”, “aprobación del CEO”, y tendrás un entorno donde los estafadores impulsados por IA prosperan.
¿Cuáles son los tipos más comunes de estafas cripto impulsadas por IA? Las estafas cripto impulsadas por IA ahora combinan deepfakes, grandes modelos de lenguaje (LLM) y automatización para suplantar personas, producir phishing masivo y evadir filtros heredados. Veamos los tipos más comunes y casos reales que demuestran lo peligrosas que se han vuelto.
- Estafas deepfake: suplantación de audio y video Las estafas deepfake usan videos o clips de audio generados por IA para suplantar a figuras públicas, influencers o incluso ejecutivos de tu propia empresa. Los estafadores manipulan expresiones faciales y patrones de voz para que el contenido parezca real. Estos videos falsos suelen promover sorteos cripto fraudulentos o instruirte a enviar fondos a direcciones de billetera específicas.
Uno de los casos más alarmantes ocurrió a principios de 2024. Un empleado financiero de una empresa multinacional en Hong Kong se unió a una videollamada con lo que parecía ser el CFO y altos ejecutivos de la compañía. Le indicaron transferir 25 millones de dólares. Fue una trampa. La llamada era un deepfake, y cada rostro y voz fueron generados por IA. El empleado no lo supo hasta que ya era demasiado tarde.
- Phishing generado por IA El phishing ha evolucionado con la IA. En lugar de gramática descuidada y enlaces sospechosos, estos mensajes se ven reales y se sienten personales. Los estafadores usan IA para recopilar datos públicos sobre ti y luego crear correos, DMs o incluso sitios web completos que coinciden con tus intereses y comportamiento.
La estafa puede llegar por Telegram, Discord, correo electrónico o incluso LinkedIn. Por ejemplo, podrías recibir un mensaje que imita a agentes de soporte, instándote a “verificar tu cuenta” o “reclamar una recompensa”. El enlace lleva a una página falsa que se parece casi idéntica a la real. Ingresas tu información y se acabó.
- Plataformas y bots de trading falsos con IA Los estafadores también crean plataformas de trading completas que afirman usar IA para obtener ganancias automáticas. Estas herramientas falsas prometen retornos garantizados, ejecución “inteligente” de operaciones o tasas de éxito inigualables. Pero una vez que depositas tu cripto, desaparece.
Estas estafas suelen lucir legítimas. Presentan paneles elegantes, gráficos en vivo y testimonios, todo impulsado por imágenes y código generados por IA. Algunas incluso ofrecen operaciones de demostración para falsificar el rendimiento. En 2024, sitios como MetaMax usaron avatares de IA de CEOs falsos para ganar confianza y atraer a usuarios desprevenidos.
En realidad, no hay ninguna estrategia impulsada por IA detrás de estas plataformas, solo una trampa bien diseñada. Una vez que los fondos entran, no podrás retirar nada. Algunos usuarios reportan que sus billeteras se vaciaron después de conectarlas a estos sitios. Los bots de IA también envían “señales” por Telegram o Twitter para empujarte a operaciones riesgosas o inexistentes.
- Clonación de voz y llamadas en tiempo real La clonación de voz con IA permite a los estafadores sonar exactamente como alguien que conoces. Pueden recrear la voz de un CEO, tu gerente o incluso un familiar, y llamarte con instrucciones urgentes para enviar cripto o aprobar una transacción.
Esta técnica se usó en el robo de 25 millones de dólares en Hong Kong mencionado antes. El empleado no solo fue engañado por el video deepfake; los atacantes también clonaron voces en tiempo real para sellar el engaño. Solo unos segundos de audio son suficientes para que los estafadores reproduzcan la voz de alguien con una precisión sorprendente.
- “Pig‑butchering” con IA Las estafas “pig‑butchering” son fraudes a largo plazo. Consisten en construir confianza durante semanas o incluso meses.
En su esencia, estas estafas dependen de una cosa: tu confianza. Al imitar a personas reales, plataformas y equipos de soporte, las herramientas de IA hacen más difícil distinguir lo real de lo falso.
En 2024, Chainalysis informó que las estafas de pig‑butchering asistidas por IA generaron más de 9.9 mil millones de dólares a nivel global.
-
Inyección de prompts contra navegadores con agentes y IA conectadas a billeteras Una nueva amenaza en 2025 implica la inyección de prompts, donde un sitio web, imagen o texto malicioso “secuestra” a un agente de IA conectado a un navegador, correo electrónico o incluso a una billetera cripto. Como algunos navegadores con IA y copilotos de billetera pueden leer datos, resumir páginas o actuar en nombre del usuario, una instrucción oculta puede obligar al agente a filtrar información privada o iniciar transacciones inseguras.
-
Evasión de KYC y documentos falsos en exchanges y VASP Los grupos de fraude ahora usan selfies, pasaportes y licencias de conducir generados por IA para evadir los controles KYC en exchanges de cripto (VASPs) y abrir cuentas de mulas para lavar fondos robados.
Para los principiantes, esto importa porque incluso plataformas legítimas pueden ser abusadas en segundo plano, y los exchanges ahora dependen de análisis de blockchain para congelar o rastrear fondos antes de que desaparezcan.
- Botnets sociales en X (Twitter) Los estafadores cripto operan enormes botnets en X que parecen humanos, responden a publicaciones al instante y promocionan enlaces que drenan billeteras o airdrops falsos.
Como los usuarios de cripto dependen de X para noticias en tiempo real, los bots explotan la urgencia y el miedo a perderse algo. Para los principiantes: nunca confíes en enlaces en respuestas, sobre todo si prometen tokens gratuitos, retornos garantizados o requieren aprobaciones de billetera; la mayoría de los “giveaways” de alto perfil en X son estafas.
Cómo protegerte de las estafas de IA Las estafas de IA se están volviendo más inteligentes – pero aún puedes mantenerte un paso adelante.
Siempre habilita 2FA o Passkeys en tu correo, exchanges y billeteras. Una gran parte de las estafas de IA comienza con un enlace falso. Si algo suena demasiado bueno para ser verdad en cripto, lo es. Trata tu frase de recuperación como tu identidad digital: mantenla privada y offline en todo momento. Accede siempre al soporte a través del sitio web o app oficial – nunca mediante mensajes no solicitados. Las billeteras hardware como Ledger y Trezor ayudan a mantener tus claves privadas fuera de línea. BingX Academy publica regularmente guías de seguridad para principiantes y alertas de estafas.
Las estafas de IA se están volviendo más inteligentes, pero puedes mantenerte un paso adelante. Sigue estos consejos para proteger tu cripto y tu tranquilidad.
Conclusión y puntos clave Las estafas cripto impulsadas por IA se están expandiendo porque son baratas, escalables y cada vez más convincentes – pero aún puedes protegerte. Y a medida que los estafadores evolucionan, tu mejor defensa es el conocimiento.
