- Los modelos de IA requieren volúmenes masivos de obras protegidas, generando disputas por reproducción, distribución y creación de obras derivadas sin autorización.
- La doctrina de fair use es decisiva pero no automática; tribunales analizan carácter transformativo, obtención legítima de datos e impacto en el mercado.
- Sentencias recientes son mixtas: algunas protegen entrenamiento cuando los datos son legítimos; uso de material pirateado aumenta responsabilidad legal.
- Sector responde mediante litigios, acuerdos y modelos de licenciamiento; Oficina de Copyright recomienda evaluar factores de fair use y distinguiendo fuentes públicas y piratas.
Por el Lcdo. Silvino Edward Díaz
Abogado de entretenimiento, y fundador de la firma Starving Artists (SED Law, PLLC), con servicios en Miami, FL, Puerto Rico, y nacional para asuntos selectos.
La inteligencia artificial está causando una transformación fundamental en cómo la ley protege la creatividad, la identidad y la propiedad. En el mundo del entretenimiento y más allá, no solo están en juego las obras, sino también las personas, las marcas y otros intereses jurídicos. Esto ha generado una nueva ola de retos legales que convergen, entre ellos, el uso de material protegido por derechos de autor para entrenar modelos de inteligencia artificial.
En esta nota se discuten estos asuntos, algunos casos importantes y la dirección hacia la cual se encamina la ley.
Asuntos clave
Los modelos de inteligencia artificial requieren grandes volúmenes de datos para entrenarse y generar resultados. Estos datos —artículos, fotografías, videos, sonidos— suelen estar protegidos por derechos de autor. La controversia jurídica surge cuando dichas obras se utilizan sin autorización para entrenar modelos, lo que puede implicar la reproducción, distribución y creación de obras derivadas bajo el Copyright Act.
En los últimos años, importantes empresas de medios y titulares de derechos han presentado demandas contra compañías de inteligencia artificial, alegando el uso no autorizado de sus obras para entrenamiento de modelos.
Uno de los elementos centrales en estos litigios es determinar si el uso con fines de entrenamiento constituye una infracción o si, por el contrario, responde a una función tecnológica distinta que podría ampararse bajo la doctrina de fair use. También resulta determinante la forma en que se obtuvieron los datos: el uso de material pirateado implica un riesgo jurídico significativamente mayor que el uso de contenido disponible públicamente o licenciado.
Asimismo, se evalúa el impacto en el mercado, particularmente si el entrenamiento de modelos afecta mercados existentes o potenciales de licencias. Las causas de acción más comunes incluyen infracción de derechos de autor, responsabilidad contributiva, infracción indirecta, violaciones bajo la DMCA, competencia desleal, apropiación indebida y enriquecimiento injusto.
Por su parte, las empresas de inteligencia artificial suelen invocar el fair use, argumentando que el entrenamiento es transformativo y que los modelos no reproducen obras específicas ni generan resultados sustancialmente similares a obras protegidas.
La tendencia judicial apunta a que el entrenamiento de inteligencia artificial no es ilegal per se, pero tampoco está completamente protegido. El análisis depende de factores como el carácter transformativo del uso, la obtención legítima de los datos y el impacto en el mercado. En particular, los casos relacionados con medios de comunicación pueden implicar mayores riesgos cuando existe sustitución de contenido o desvío de tráfico.
Casos notables
The New York Times Co. v. Microsoft Corp. / OpenAI
Este caso representa uno de los litigios más relevantes en la intersección entre la industria editorial y la inteligencia artificial. El New York Times alega que OpenAI y Microsoft utilizaron millones de artículos sin autorización para entrenar sistemas de inteligencia artificial, los cuales pueden reproducir o imitar su contenido, afectando su modelo de negocio basado en suscripciones y licencias.
El caso destaca que el uso de inteligencia artificial puede ir más allá del entrenamiento, convirtiéndose en una fuente sustitutiva de contenido informativo. Los argumentos de fair use podrían debilitarse cuando los resultados compiten directamente con contenido protegido en mercados activos.
Presentado en diciembre de 2023 en el Distrito Sur de Nueva York, el caso forma parte de un litigio multidistrito consolidado, que al 1 de abril de 2026 incluye múltiples acciones relacionadas.
Kadrey v. Meta Platforms
En este caso, varios autores, incluyendo Richard Kadrey, Sarah Silverman y Ta-Nehisi Coates, alegaron que Meta utilizó versiones pirateadas de sus libros para entrenar su modelo Llama.
El tribunal emitió una de las primeras decisiones que sugiere que el entrenamiento con libros podría constituir fair use. Meta obtuvo un fallo favorable en ese aspecto; sin embargo, el caso continúa en cuanto a cuestiones relacionadas con la obtención de los datos, particularmente si fueron adquiridos de forma ilícita.
Bartz v. Anthropic
En este caso, los demandantes alegaron que Anthropic utilizó millones de libros descargados de bibliotecas piratas para entrenar su modelo Claude.
En una decisión de 2025, el tribunal determinó que el uso de libros adquiridos legalmente para entrenamiento podía constituir fair use. Sin embargo, estableció que el uso de material pirateado no estaba protegido. Posteriormente, el caso se resolvió mediante un acuerdo por aproximadamente $1.5 mil millones, incluyendo compromisos de eliminar datos obtenidos ilícitamente.
Este caso constituye un precedente relevante al distinguir entre uso legítimo y uso basado en fuentes ilícitas.
Thomson Reuters v. Ross Intelligence
Este caso, presentado en 2020, enfrenta a Thomson Reuters, propietaria de Westlaw, contra Ross Intelligence, desarrolladora de herramientas de investigación jurídica con inteligencia artificial.
Ross utilizó los “Westlaw Editorial Headnotes” para entrenar su sistema y alegó que dicho uso estaba protegido por fair use. Sin embargo, en 2025 el tribunal resolvió a favor de Thomson Reuters, rechazando esa defensa al considerar que el uso era comercial, no transformativo y sustitutivo del mercado original.
La decisión constituye uno de los primeros rechazos claros del fair use en el contexto de entrenamiento de inteligencia artificial.
Casos en la industria musical
La industria musical ha sido particularmente impactada por la inteligencia artificial. Plataformas como Suno y Udio permiten generar música a partir de texto, lo que ha provocado litigios por el uso no autorizado de grabaciones para entrenar modelos generativos.
Casos como UMG Recordings, Inc. v. Suno Inc. y UMG Recordings, Inc. v. Uncharted Labs, Inc. (Udio) alegan copia masiva de grabaciones protegidas. Las defensas se centran en el carácter transformativo del entrenamiento.
Algunos de estos litigios han culminado en acuerdos que incluyen licencias de catálogos musicales y el desarrollo de herramientas de inteligencia artificial basadas en contenido autorizado, lo que sugiere un modelo emergente en la industria: litigio seguido de licenciamiento.
El impacto económico ya es significativo. Reportes indican un crecimiento sustancial en la cantidad de música generada por inteligencia artificial en plataformas digitales, lo que refleja la magnitud del fenómeno.
Estado actual de la ley
Guía del Copyright Office
El Copyright Office ha abordado el tema del entrenamiento de inteligencia artificial en la tercera parte de su informe Copyright and Artificial Intelligence (2024–2025). El informe no ofrece una conclusión definitiva sobre la legalidad del entrenamiento, pero analiza el tema desde la perspectiva del fair use.
Identifica factores clave como el carácter transformativo del uso, la legalidad en la obtención de los datos y el impacto en el mercado. Además, distingue entre el uso de material disponible públicamente y el uso de contenido pirateado, subrayando los riesgos adicionales de este último.



