15 ene. 2024
Natalia Martos
El auge de la Inteligencia Artificial (IA) está ofreciendo muchos beneficios para la sociedad, sin embargo, también está comenzando a afectar a ciertos sectores en la peor manera posible, pero lo más negativo de todo es que ni las empresas, marcas, gobiernos o instituciones están preparadas para afrontarlos.
Todo comenzó en diciembre de 2023, cuando The New York Times denunció a OpenAI, la compañía creadora de ChatGPT, por usar sin permiso sus artículos y reportajes con intención de formar y entrenar a este chatbot. Ante la denuncia, la compañía de IA aseguró que de no hacerlo habría sido "imposible" crear una IA con el nivel que tiene ChatGPT.
De esta manera, se abrió el melón sobre si los derechos de autor y la formación de la IA eran compatibles. Desde OpenAI aseguran que sería imposible llegar a una tecnología tan inteligente como las que hay sin usar los contenidos que hay publicados en internet, además de que en realidad no incumplen estas leyes porque el uso de estos contenidos era para fines formativos, y no lucrativos.
Desde elEconomista.es, nos hemos puesto en contacto con Natalia Martos, CEO y fundadora de Legal Army, expertos en legislación digital y nuevas tecnologías, para indagar un poco más en este tema y llegar a algunas conclusiones sobre si la IA supone el fin de los derechos de autor.
El problema, como señala Martos, es que en este caso OpenAI debería haber pedido permiso a los autores para usar sus contenidos en el entrenamiento de la IA, sin embargo, este proceso habría llevado meses o inclusos años en completarse, por lo que no tendríamos ningún ChatGPT, y quién sabe si esta tecnología habría avanzado tan rápido como lo ha hecho en el último año.
Por esa razón, OpenAI decidió hacerlo por su cuenta, y aunque se les acuse de robar información, lo cierto es que estrictamente hablando el uso de materiales protegidos sí se permite para la formación, y es esto en lo que se amparan los creadores de ChatGPT, pero claro, aquí entra el debate de que a partir de esta formación, la compañía se está haciendo de oro.
Hay personas que incluso han calificado de piratería lo que han estado haciendo estas compañías, ya que no es solo OpenAI, por ejemplo, se le acusa a la plataforma de generación de imágenes con IA Midjourney de copiar estilos, géneros, movimientos, medios, técnicas a miles de artistas para entrenar a su plataforma.
De nuevo, la diferencia que tiene este entrenamiento con la piratería es la comercialización de estos archivos, y aunque ChatGPT o Midjourney, no revenden la obra de un artista directamente, está ofreciendo un producto basado en ella y se está lucrando por ello. Y lo peor de todo es que ni compañías ni gobiernos están preparados o si quiera mentalizados para solucionar este vacío legal.
Como decíamos, el principal problema alrededor de este debate, es que todo esto es muy nuevo y que las leyes vigentes no contemplan este tipo de casos, porque hasta ahora no habían ocurrido, por lo que para evitar que vuelva a ocurrir cosas similares, va a ser necesario que la normativa se actualice.
En este caso, Martos señala que se debería valorar la exención de permiso (entendiendo que entra dentro del ámbito formativo) o bien imponer el pago por uso de materiales para el entrenamiento de la IA, aunque recalca que esta opción supondría un impedimento para el rápido desarrollo de esta tecnología.
Para ella, lo más coherente sería crear de cero una nueva regulación específica para el uso de materiales de entrenamiento de la IA que permita usar estos contenidos con el consenso de los titulares de los derechos.
Artículo original publicado en El Economista
Recibe mensualmente información relevante de nuestra actividad.