Propiedad Intelectual en la Era de la IA: La “Caja Blanca” Desarrollada por Alumnos de Prieste Cuestiona el ‘Black Box’ Creativo

En el Colegio Prieste de Artes y Letras, no vemos la tecnología, el derecho y la creatividad como silos separados. Los vemos como un ecosistema único, entrelazado y, a menudo, conflictivo. En ningún lugar es esta tensión más evidente que en el auge de la Inteligencia Artificial Generativa (GenAI). Estas herramientas, capaces de crear arte, música y código, operan como “cajas negras” legales y técnicas. ¿En qué datos se entrenaron? ¿Cuánta influencia de un artista protegido por derechos de autor es “demasiada” influencia?

Mientras los tribunales y los legisladores debaten estas cuestiones en abstracto, un equipo de nuestros estudiantes de Grado ha decidido construir una respuesta.

Ha surgido una colaboración radical entre estudiantes de nuestro Grado en Gestión de Industrias Creativas y Tecnología (BBA) y nuestro Grado en Ciencias de la Computación (CS). Lo que comenzó como un acalorado debate en un seminario conjunto dirigido por la Dra. Clara Neumann (Propiedad Intelectual) y el Dr. Javier Marín (Ética de la IA), se ha convertido en un prototipo funcional: un marco de auditoría algorítmica que han denominado la iniciativa “Caja Blanca”.

El objetivo no es detectar si una imagen fue “hecha por IA”. El objetivo es mucho más profundo: auditar el linaje de un modelo de IA antes de que se despliegue comercialmente.

El Problema: Una Caja Negra Legal

Como señalaron los estudiantes del BBA, el mayor riesgo para las empresas creativas que adoptan la IA no es la IA en sí, sino la incertidumbre legal. Si una empresa utiliza un modelo de IA entrenado en un conjunto de datos masivo y no verificado (el llamado “scraping”), se expone a litigios de infracción de derechos de autor que podrían invalidar todo su catálogo de productos. Sin embargo, ¿cómo puede una empresa demostrar la “limpieza” de su modelo?

Aquí es donde entró el equipo de Ciencias de la Computación. Rechazaron la idea de que los modelos de GenAI sean inescrutables. Argumentaron que, aunque complejos, los modelos entrenados dejan “huellas” estadísticas.

La Solución: Un Prototipo de Auditoría

Durante los últimos meses, el equipo ha desarrollado un marco de software. Este sistema no intenta identificar obras individuales en la salida del modelo. En su lugar, realiza un análisis estadístico forense sobre el propio modelo entrenado (sus pesos y sesgos).

El prototipo de “Caja Blanca” hace dos cosas:

  1. Análisis de Influencia del Conjunto de Datos: Compara los vectores de estilo del modelo con conjuntos de datos de artistas conocidos (con derechos de autor). Busca patrones de “influencia indebida” o “sobreajuste” (overfitting), que es la evidencia estadística de que el modelo no solo “aprendió” de un artista, sino que esencialmente “memorizó” su estilo a expensas de la originalidad.
  2. Validación de “Datos Limpios”: El sistema puede ejecutar pruebas en un modelo entrenado exclusivamente con datos de dominio público o con licencia explícita. Esto crea una “línea de base” de comportamiento ético, contra la cual se pueden comparar otros modelos de caja negra.

La Dra. Neumann señaló: “Los estudiantes de BBA no solo identificaron un problema legal; identificaron un vacío en el mercado. No están construyendo una herramienta para demandar a la gente; están construyendo una herramienta de certificación“.

El objetivo final del equipo es proponer un “Sello de Linaje Ético” (Sello de Certificación de Linaje). Las empresas de IA podrían someter voluntariamente sus modelos a esta auditoría de “Caja Blanca” para certificar a sus clientes que sus herramientas creativas se basan en datos obtenidos de manera ética y legalmente defendibles.

Los Límites y el Próximo Desafío

El equipo es el primero en admitir que su prototipo está lejos de ser una solución universal. Es un trabajo imperfecto, pero honesto.

El marco funciona notablemente bien en modelos de tamaño pequeño a mediano (por ejemplo, modelos de difusión especializados entrenados para un estilo específico). Sin embargo, la pura complejidad y el tamaño de los modelos fundacionales masivos (como los que impulsan DALL-E 3 o Midjourney V6) hacen que este tipo de análisis forense sea exponencialmente más difícil y costoso computacionalmente.

“No hemos ‘resuelto’ los derechos de autor de la IA”, explicó la estudiante líder del proyecto de CS. “Pero hemos demostrado que el argumento de la ‘caja negra’ es, en parte, una excusa. No es magia; es matemática. Y si es matemática, se puede auditar”.

Este proyecto encarna la misión del Colegio Prieste de Artes y Letras. No estamos esperando a que el mundo defina las reglas de la próxima era digital. Estamos en nuestros laboratorios y seminarios en Madrid, construyendo las herramientas para escribirlas. El debate ya no es solo filosófico; gracias a estos estudiantes, ahora es técnico.


Comments

Leave a Reply

Your email address will not be published. Required fields are marked *