Anthropic enfrenta doble crisis: ataques de destilación y demanda por uso de libros pirateados
En un revelador episodio que expone las tensiones en el desarrollo de inteligencia artificial, la compañía Anthropic ha denunciado que tres laboratorios chinos ejecutaron "ataques de destilación" contra su modelo Claude. Según la empresa, estos ataques consistieron en millones de interacciones mediante cuentas falsas diseñadas para replicar las capacidades del sistema a un costo significativamente menor.
Anthropic presentó esta situación como una amenaza directa a la seguridad de sus datasets y su know-how propietario, generando preocupaciones sobre la protección de los modelos de IA avanzados. Sin embargo, esta denuncia rápidamente desvió la atención pública hacia una pregunta fundamental: ¿cuál es el origen de la información utilizada para entrenar a Claude?
Demanda multimillonaria por uso de material pirateado
La respuesta llegó con un antecedente legal significativo. En 2025, Anthropic acordó pagar USD 1.500 millones para conciliar una acción de grupo presentada por varios autores. La demanda alegaba que la compañía había utilizado millones de libros adquiridos de fuentes ilegítimas durante el entrenamiento de sus modelos de IA generativa.
El fallo judicial que precedió a esta conciliación estableció una línea clara en la jurisprudencia: mientras que entrenar modelos grandes de lenguaje con obras legalmente adquiridas puede considerarse fair use y constituir una excepción a la protección del derecho de autor, el uso de copias pirateadas no recibe esta protección.
Tres lecciones jurídicas fundamentales
Este caso complejo deja tres enseñanzas cruciales para el desarrollo de inteligencia artificial:
- Origen lícito y trazabilidad: La fuente de la información utilizada para entrenar modelos de IA es tan relevante como el uso que se le da. No basta con argumentar que la actividad es transformativa; es necesario demostrar el origen lícito y mantener trazabilidad completa. De lo contrario, se configura una infracción a derechos de propiedad intelectual.
- Protección de funcionalidades: A través de reclamaciones por "model extraction" y destilación, las compañías creadoras de modelos de IA buscarán reivindicar derechos sobre las funcionalidades de sus sistemas. En estos casos, la protección debe articularse mediante mecanismos diferentes a los derechos de autor, como el secreto empresarial.
- Riesgos económicos cuantificables: Los costos de entrenar con material ilícito ya tienen un precio concreto. El "precio implícito" del acuerdo de Anthropic con los autores rondó USD 3.000 por libro, una cifra que, multiplicada a escala, convierte la adquisición legítima de información en una prioridad estratégica fundamental.
Implicaciones prácticas para Colombia
Para el contexto colombiano, las implicaciones son inmediatas y significativas. Empresas privadas, medios de comunicación y agencias gubernamentales están adoptando IA generativa para:
- Producción de contenidos
- Investigación avanzada
- Servicio al cliente automatizado
Cuando un proveedor promete un "LLM de última generación" pero no explica claramente qué licencias adquirió, qué datasets utilizó y cómo audita el origen de esta información, surgen riesgos legales considerables que deben evaluarse cuidadosamente durante la selección de proveedores.
Además, el temor a que competidores "destilen" información, datos y outputs requiere la implementación de medidas preventivas robustas:
- Acuerdos de uso claros y específicos
- Contratos con cláusulas de protección robustas
- Compartimentalización estratégica de la información
- Monitoreo técnico continuo
- Políticas integrales para el manejo de datos sensibles
Este caso de Anthropic establece un precedente crucial que redefine los parámetros legales y éticos en el desarrollo de inteligencia artificial, destacando la importancia crítica de la transparencia en el origen de los datos y la protección adecuada de la propiedad intelectual en la era digital.



