Skip to main content

¿Cómo está desafiando la inteligencia artificial generativa los marcos tradicionales de propiedad intelectual y autoría?

¿Qué obligaciones éticas y jurídicas tenemos los académicos y científicos cuando utilizamos IA generativa? ¿Qué políticas deben establecer las instituciones científicas y académicas?

¿Qué iniciativa ha adoptado el Congreso respecto del uso de IA en el ámbito cultural, en particular en premios y subvenciones?

 

La inteligencia artificial generativa -como Chatpgt, Copilot, Perplexity, Gemini, Dall-E, StableDiffusion, Midjourney y un largo etcétera- está revolucionando numerosos sectores, incluido el docente, académico y científico, que tanto interesa a Valgrai. Y conlleva muchos desafíos legales y éticos y por lo que hoy interesa, relacionados con la propiedad intelectual de la que se celebra su día mundial. Se trata de un sector en el que la IA generativa realmente implica un terremoto que remueve sus cimientos mismos y los marcos tradicionales de propiedad intelectual y autoría. Estos son algunos de los problemas jurídicos más significativos que plantea. En principio las creaciones de IA no son humanas, y la legislación actual presupone que una obra protegida por derechos de autor necesita un autor humano. Mientras en Europa o EEUU ya se ha asentado esta premisa, excepcionalmente un tribunal en China considera que un texto escrito por una inteligencia artificial está protegido por copyright. Además, los sistemas de IA generativa son entrenados con grandes cantidades de datos, que por lo general están protegidos por propiedad intelectual y derechos sui generis que protegen las bases de datos. Es muy posible que en general los grandes sistemas han aprendido vulnerando estos derechos y van a tener que demostrar que no es así. También, y ello interesa especialmente recordarlo hoy, los humanos que usan IA generativa para generar contenidos, deben cumplir con unas obligaciones jurídicas y unos deberes éticos importantes, siendo, por lo demás, que en modo alguno está claro hasta qué punto su uso de instrucciones y prompts pueden estar protegidos de algún modo.

Y la IA generativa también ha llegado a la investigación y la academia. Investigadores y Revistas de teórico prestigio incluyen contenidos generados por chatgpt  sin citar y ni se molestan en disimularlo, como este esperpéntico caso en el que la IA ha escrito la introducción y ni se han molestado en revisarlo (“Certainly, here is a possible introduction for your topic:”

https://www.sciencedirect.com/science/article/abs/pii/S2468023024002402

 

 

Frente a esto, se están forjando normas éticas, jurídicas y prácticas académicas y de investigación responsables al utilizar herramientas de IA generativa. Además de algunas guías universitarias, destaco hoy las recomendaciones de la Comisión Europea para investigadores e instituciones  de 20 de marzo de 2024, como ValgrAI.

Así, los investigadores deben ser transparentes en cuanto al uso de IA en sus procesos de investigación, mencionando específicamente las herramientas utilizadas, las versiones y cómo influyeron en el resultado de la investigación. Estas directrices subrayan que los investigadores deben ser completamente responsables del contenido científico generado con ayuda de la IA. Esto incluye mantener un enfoque crítico y asegurar la integridad de los datos y resultados presentados. Asimismo, se insiste en la necesidad de su transparencia en el uso de IA y que los autores e investigadores deben detallar el uso de herramientas de IA generativa en el proceso de investigación, incluyendo el tipo de herramienta, versión, y cómo estas influyeron en el trabajo realizado. Deben tener en cuenta en que la IA genera resultados que bien pueden ser variables según el azar incluso a partir de las mismas entradas de datos. También se subraya que los investigadores deben ser cautelosos con la privacidad y la confidencialidad de los datos que introducen, especialmente cuando se manejan datos sensibles o protegidos. En esta línea y en general se recomienda evitar el uso de IA generativa en ámbitos especialmente sensibles de investigación, así como actividades como pueda ser revisión que habitualmente hacemos de proyectos de investigación o de publicaciones científicas. Y en general, se recomienda que todos estemos al tanto de la legislación que va variando en estos temas y la necesidad formación continua al respecto de la IA generativa, estando al día de las mejores prácticas y evolución tecnológica. Se trata, pues,  fomentar un entorno académico y de investigación ético y responsable bajo los principios de integridad científica, fiabilidad y confianza, honestidad, responsabilidad y dación de cuentas y respeto a la comunidad científica y la sociedad.

Por lo que toca a las instituciones científicas, como ValgrAI, se recuerda que deben establecer políticas claras sobre el uso de IA, incluyendo la formación y el control y monitoreo para prevenir abusos.

Estamos viviendo posiblemente la mayor revolución tecnológica y social de la historia de la humanidad, una oportunidad increíble para la investigación y la academia, pero hemos de acompañarla con uso responsable, ético y legal.

Y el día de la propiedad intelectual, a la espera de mayores avances normativos en la materia, me permito recordar también la aprobación por el Congreso de los Diputados de España de una Proposición no de Ley presentada por el Grupo Parlamentario Socialista sobre el uso de la inteligencia artificial (IA) en el ámbito cultural y creativo, especialmente en convocatorias públicas.

A este respecto, cabe recordar casos como el de Théâtre D’opéra Spatialuna obra creada íntegramente por Midjourney y que fue premiada en la feria estatal de Colorado, en Estados Unidos. O más cerca, la polémica porque el Ministerio de Juventud difundió en redes imágenes personajes de Disney que al parecer  habían sido creadas con inteligencia artificial.

Esta proposición señala la necesidad de regular el uso de IA en la creación de contenidos audiovisuales y gráficos, en concreto para para asegurar que no se vulneren los derechos en competiciones públicas. También insiste en que las creaciones de IA generativa no son humanas no pueden considerarse originales y pueden violar derechos de autor. Insta al Gobierno a desarrollar un documento de buenas prácticas y se sugiere la creación de una agencia regulatoria o la adopción de un sello de calidad ética en estos contextos culturales. Finalmente, se llama a todas las Administraciones a apoyar a los creadores y artistas.

Concluyo finalmente recordando que al parecer ya existe una Guía desde el Ministerio de Cultura, que lamentablemente no está disponible, sólo a la nota informativa de esta Guía “sobre Buenas Prácticas Relativas a la Utilización de Sistemas de Inteligencia Artificial en el Ámbito del Ministerio de Cultura». Según nos cuentan, dicha guía se llama a respetar los derechos de los autores, a la integración de la IA como herramienta de apoyo, pero sin reemplazar la creación, siendo que en la contratación pública y las subvenciones, se priorizará la creatividad humana, incluso en la guía se aboga por la exclusión de las obras creadas íntegramente por IA.

 

 

Lorenzo Cotino Hueso, ValgrAI, Catedrático de Derecho Constitucional de la Universidad de Valencia

Nota: para la elaboración de este contenido el autor ha utilizado ChatGPT como apoyo a la revisión de la redacción del mismo.