Dentro del Gran Robo de la IA: Cómo Empresas Chinas Supuestamente Reingeniaron Claude
Anthropic acusa a tres start-ups chinas de IA de copiar sistemáticamente la inteligencia de su chatbot, Claude - generando alarma en toda la industria.
A simple vista, el mundo de la inteligencia artificial parece una carrera por innovar. Pero tras bambalinas, se libra una batalla en la sombra - una batalla no solo por la supremacía tecnológica, sino por los propios secretos que hacen funcionar a estas máquinas. Esta semana, Anthropic, desde Silicon Valley, lanzó una bomba: afirma que tres empresas chinas de IA orquestaron un sofisticado plan para extraer la inteligencia de su chatbot insignia, Claude, utilizando una técnica controvertida conocida como “destilación de modelos”. Las acusaciones, de ser ciertas, exponen un nuevo frente en la carrera armamentista global de la IA, donde el código y los prompts ingeniosos pueden importar tanto como el silicio y los datos.
Las explosivas afirmaciones de Anthropic ponen el foco sobre una amenaza de seguridad poco conocida pero cada vez más crucial: los ataques de destilación de modelos. En términos simples, la destilación es un proceso legítimo donde los desarrolladores usan una IA “maestra” poderosa para entrenar un modelo “alumno” más ágil y rápido. Pero cuando los rivales despliegan sistemas automatizados para bombardear el chatbot de un competidor - recolectando millones de respuestas estructuradas - pueden, en efecto, replicar gran parte de su inteligencia ganada con esfuerzo sin tocar jamás el código o los datos originales.
Según Anthropic, las empresas chinas acusadas - DeepSeek, MiniMax y Moonshot AI - no actuaron simplemente como usuarios curiosos. Los investigadores afirman haber detectado patrones coordinados de consultas de alto volumen, con DeepSeek realizando por sí sola más de 150.000 intercambios enfocados en razonamiento complejo. Moonshot AI habría ejecutado más de 3,4 millones de consultas orientadas a codificación y análisis de datos, mientras que MiniMax habría superado los 13 millones, concentrándose en tareas “agénticas” avanzadas que permiten a los sistemas de IA planificar y orquestar operaciones complejas.
Anthropic sostiene que estos esfuerzos fueron mucho más allá de la investigación legítima o las pruebas de producto. La empresa afirma que las operaciones incluyeron eludir salvaguardas de uso, evadir controles de exportación sobre chips y software avanzados de IA, e incluso diseñar consultas “seguras para políticas” para extraer respuestas moderadas - esquivando así los filtros incorporados para evitar fugas de información sensible.
Para contrarrestar esta nueva clase de ataque, Anthropic se apresura a desplegar sistemas de detección capaces de señalar consultas sospechosas - buscando patrones inusuales de prompts y recolección automatizada de datos. Pero las implicaciones van mucho más allá de un solo chatbot o una sola empresa. William Wright, CEO de Closed Door Security, advierte que cualquier negocio con un asistente de IA personalizado podría estar en riesgo. “La destilación significa que el conocimiento propietario puede ser robado simplemente haciendo las preguntas correctas - sin necesidad de una brecha de código o datos”, alerta.
A medida que la IA generativa se vuelve más poderosa - y más valiosa - la carrera por proteger, robar y replicar estos cerebros digitales no hace más que intensificarse. Los días en que robar un modelo requería hackear un servidor pueden haber terminado. Ahora, los mayores riesgos podrían provenir de las propias interfaces diseñadas para hacer la IA accesible a todos.
WIKICROOK
- Destilación de Modelos: La destilación de modelos entrena un modelo de IA más pequeño para imitar a uno más grande, permitiendo soluciones de ciberseguridad eficientes y precisas en dispositivos con recursos limitados.
- Razonamiento Agéntico: El razonamiento agéntico es la capacidad de una IA para planificar, decidir y actuar de forma autónoma, mejorando la ciberseguridad al automatizar la detección de amenazas y la respuesta a incidentes.
- Aprendizaje por Refuerzo: El aprendizaje por refuerzo es un método de aprendizaje automático donde la IA aprende acciones óptimas mediante prueba y error, guiada por recompensas y penalizaciones.
- Ingeniería de Prompts: La ingeniería de prompts consiste en crear instrucciones o preguntas claras para los modelos de IA, asegurando que generen respuestas relevantes y precisas.
- Restricciones de Exportación: Las restricciones de exportación son normas gubernamentales que limitan la venta o transferencia de ciertos productos o tecnologías a otros países, principalmente por razones de seguridad.