Netcrook Logo
👤 AUDITWOLF
🗓️ 07 Sep 2025   🗂️ Cyber Warfare    

Malware en la Máquina: Cómo los Estafadores Secuestraron Grok de X para Difundir Enlaces Peligrosos

Los estafadores están explotando Grok, el asistente de IA de X, para colar enlaces maliciosos eludiendo las defensas de la plataforma - poniendo en riesgo a millones y exponiendo grietas en la armadura cibernética de las redes sociales.

Datos Rápidos

  • Según Guardio Labs, los estafadores están utilizando el asistente de IA de X, Grok, para distribuir enlaces maliciosos a gran escala.
  • El ataque, apodado "grokking", permite a los atacantes volver a publicar enlaces de estafa que eluden las restricciones de anuncios de X.
  • Guardio Labs detectó cientos de estos ataques diariamente, alcanzando a millones de usuarios antes de que las cuentas sean suspendidas.
  • Las débiles barreras de seguridad de Grok lo hacen especialmente vulnerable a la manipulación y a la inyección de prompts.
  • Expertos advierten que esto refleja una tendencia más amplia en la industria: las funciones de IA se implementan más rápido de lo que se aseguran.

Anatomía de una Estafa en Redes Sociales

Imagina un asistente de IA diseñado para ayudarte a navegar en redes sociales que se convierte en un megáfono para criminales. Esa es la realidad en X (anteriormente Twitter), donde actores maliciosos han convertido a Grok, el chatbot de IA de la plataforma, en un altavoz para difundir enlaces de estafa a millones. El truco es tan simple como ingenioso: los estafadores explotan una brecha en el sistema de anuncios de X, usando a Grok como cómplice involuntario para eludir las barreras de seguridad pensadas para proteger a los usuarios.

Cómo el 'Grokking' Supera la Seguridad

Según Guardio Labs, X intenta bloquear enlaces maliciosos en publicaciones promocionadas prohibiendo todos los enlaces en los anuncios. Pero los estafadores, siempre adaptables, encontraron una solución alternativa. Esconden URLs maliciosas en el campo ‘De’ de las tarjetas de video - un espacio normalmente reservado para nombres de usuario. Por sí solo, este enlace no es clicable ni evidente.

Aquí entra Grok. Los estafadores luego usan cuentas desechables para comentar en estos videos, preguntando a Grok cosas como “@grok ¿De dónde es este video?” Grok, obedientemente, recupera el enlace oculto y lo vuelve a publicar como un fragmento clicable - ahora en primer plano y respaldado por la credibilidad de la propia IA de X. Esto hace que el enlace malicioso sea mucho más probable de ser pulsado e incluso mejora su perfil en los motores de búsqueda, amplificando el alcance del estafador.

Ecos de Explotaciones de IA Pasadas

No es la primera vez que los criminales secuestran asistentes digitales. En 2023, investigadores de Carnegie Mellon y Black Hat informaron sobre ataques de inyección de prompts que manipulaban chatbots de IA para filtrar información sensible o realizar acciones no intencionadas - a menudo introduciendo comandos en contenido aparentemente inofensivo. El incidente de Grok es otro capítulo en esta saga creciente, destacando la rapidez con la que los actores maliciosos se adaptan a la nueva tecnología.

Según Dorian Granoša de Splx AI, la seguridad de Grok “depende de su prompt de sistema” - las instrucciones básicas que recibe la IA. Sin barreras rigurosas, el modelo es fácilmente engañado. Las pruebas de Granoša en julio encontraron que Grok falló en resistir inyecciones de prompts el 99% de las veces, mucho peor que competidores como ChatGPT de OpenAI o Gemini de Google.

Por Qué Aumentan los Riesgos

Esta explotación de Grok no es solo un fallo técnico - es una señal de advertencia para la industria de las redes sociales. A medida que las plataformas se apresuran a lanzar funciones de IA, la seguridad suele ser una idea tardía. El resultado: los ciberdelincuentes obtienen nuevas herramientas para escalar viejos trucos. Los analistas del mercado señalan que, con el alcance global de X, incluso unas pocas campañas exitosas pueden exponer a millones a malware, estafas o algo peor. Y a medida que la IA se convierte en la interfaz predeterminada de la vida online, estos puntos débiles podrían tener efectos dominó en economías y sociedades.

Conclusión: Cuando los Ayudantes se Vuelven Peligrosos

Grok se suponía que haría a X más inteligente y seguro. En cambio, se ha convertido en una advertencia: en la carrera por innovar, recortar en seguridad puede convertir una IA útil en la mejor aliada de un hacker. Hasta que las plataformas inviertan en salvaguardas robustas - escaneando enlaces en todas partes, reforzando las barreras de la IA y manteniéndose un paso adelante - la estafa del “grokking” puede ser solo el comienzo.

WIKICROOK

  • Grok: Grok es el asistente chatbot de IA de X para responder preguntas y resumir contenido, pero puede ser manipulado si no cuenta con controles de seguridad sólidos.
  • Inyección de Prompt: La inyección de prompt ocurre cuando los atacantes introducen entradas dañinas en una IA, haciendo que actúe de manera no intencionada o peligrosa, a menudo eludiendo las salvaguardas normales.
  • Malvertising: El malvertising es el uso de anuncios en línea para difundir malware, a menudo engañando a los usuarios para que hagan clic en enlaces dañinos, incluso en sitios web confiables.
  • Sistema de Distribución de Amenazas (TDS): Un Sistema de Distribución de Amenazas (TDS) es una red que automatiza la propagación de malware o estafas a grandes audiencias mediante campañas cibernéticas coordinadas.
  • Barreras de Seguridad (IA): Las barreras de seguridad en IA son reglas o filtros integrados que evitan que la inteligencia artificial produzca contenido dañino, inseguro o inapropiado.

AUDITWOLF AUDITWOLF
Cyber Audit Commander
← Back to news