La IA debería ayudar a financiar el trabajo creativo

LONDRES – Los modelos de IA generativa se basan en el trabajo colectivo de innumerables personas. Detrás de cada respuesta generada por IA se esconde una vasta mano de obra invisible -escritores, cantantes, periodistas, poetas, programadores, ilustradores, fotógrafos y cineastas-, cuyas creaciones se han utilizado sin permiso ni compensación. Estos creadores nunca han conocido -mucho menos les han facturado- a los titanes de Silicon Valley que se benefician de su trabajo.

Como era de esperar, muchos de ellos hoy alzan la voz y exigen una reforma significativa. En octubre de 2024, más de 10,000 actores, músicos y autores firmaron una declaración pública en la que advertían que el uso sin licencia de su trabajo para entrenar IA generativa representa una “amenaza grave e injusta” para sus medios de vida e insistían en que es algo que no debe permitirse. En cuestión de meses, el número de firmantes había ascendido a 50,000.

En lugar de reforzar la protección de los derechos de autor, como muchos proponen, deberíamos tratar el conocimiento creativo como un bien público y financiar colectivamente su producción. Al igual que las carreteras, las vacunas y la radiodifusión pública, debería ser accesible para todos y estar financiado por todos.

Los aspectos económicos del problema son bien conocidos. La información suele funcionar como un bien público, ya que es difícil impedir que las personas accedan a ella, y el costo de copiarla se ha reducido a casi cero. Cuando un bien no se puede controlar fácilmente, los mercados tienden a fallar porque las personas prefieren aprovecharse de las inversiones de otros en lugar de pagar por el acceso. Dado que la distribución digital es más difícil de controlar que los medios tradicionales, la información en línea es un bien público aún más.

El poder de los modelos de IA generativa como ChatGPT reside en su capacidad para producir respuestas coherentes y convincentes mediante la síntesis de cantidades masivas de datos. Por eso, las empresas de IA recopilan todos los datos que encuentran, muchos de ellos provenientes del dominio público. Dado que este contenido suele ser de libre acceso en línea, impedir su recopilación resulta extremadamente difícil. De hecho, algunos informes sugieren que los modelos de IA más grandes ya han consumido casi toda la información pública disponible en Internet.

La naturaleza opaca y de caja negra de los modelos de IA hace que sea prácticamente imposible rastrear resultados específicos hasta las entradas individuales, lo que dificulta la aplicación de las leyes de derechos de autor. Pero incluso cuando las infracciones son evidentes, los gobiernos se han mostrado reacios a actuar, por temor a que una intervención pueda sofocar la innovación -un pecado capital en el capitalismo contemporáneo.

Para agravar el problema, los contenidos de IA hoy compiten directamente con los creadores originales cuyo trabajo se utilizó para entrenar los modelos. Algunos medios locales ya han despedido a periodistas tras adoptar generadores automatizados de historias. Los bancos de imágenes se están inundando de material gráfico generado por IA, y las empresas de software recurren cada vez más a herramientas como GitHub Copilot para generar código repetitivo, lo que reduce la demanda de desarrolladores júnior.

Muchos creadores de contenido se están resistiendo. El New York Times ha demandado a OpenAI por consumir sus archivos; escritores destacados, encabezados por el Gremio de Autores, han presentado una demanda colectiva, alegando que OpenAI ha violado sus derechos de autor; Disney y Universal han demandado al creador de imágenes Midjourney por piratería. Del mismo modo, las tres discográficas más grandes del mundo -Sony, Universal y Warner Music- han llevado a los tribunales a los generadores de canciones con IA Suno y Udio, acusándolos de copiar sus catálogos completos.

El enojo es comprensible. En nombre de la innovación, los gobiernos invierten cada vez más en desarrolladores de IA -a menudo mediante contratos opacos con pocas condiciones-, mientras que los grandes modelos lingüísticos (LLM) se aprovechan del trabajo creativo no remunerado. La carga no es solo económica, sino también ambiental: los centros de datos que alimentan los sistemas de IA consumen cantidades asombrosas de energía y agua, lo que sobrecarga aún más la infraestructura pública.

Como el sector sigue expandiéndose rápidamente, se espera que estas demandas se intensifiquen. McKinsey calcula que la IA generativa podría aportar hasta 4.4 billones de dólares anuales a la economía global. Se prevé que solo OpenAI genere más de 12,700 millones de dólares en ingresos este año (aunque sigue sin ser rentable).

Al mismo tiempo, los mismos periodistas, ilustradores y músicos cuyo trabajo alimenta los modelos de IA tienen que arreglárselas a duras penas con sueldos cada vez más bajos y presupuestos cada vez más reducidos. El Fondo Nacional de las Artes de Estados Unidos, por ejemplo, solo recibirá 210 millones de dólares de financiación pública en el año fiscal 2025, lo que equivale a aproximadamente el 0.003% del presupuesto federal.

La IA se está comiendo los bienes comunes

Hay dos formas principales de abordar este problema: intentar “arreglar” el mercado o diseñar una alternativa pública. La primera opción implica que los gobiernos refuercen la susceptibilidad de exclusión erigiendo muros digitales, reforzando las normas de propiedad intelectual y mejorando la aplicación de los derechos de autor. Unos derechos de propiedad más sólidos, según el argumento, convertirían el contenido creativo en un bien más privado, frenarían el oportunismo y redirigirían los recursos de los desarrolladores de modelos a los creadores a través de las regalías.

Algunas plataformas y editores ya han probado este enfoque en un esfuerzo por monetizar el acceso. Reddit, por ejemplo, licencia su vasto archivo de comentarios de usuarios a Google, mientras que The Guardian, Associated Press y Shutterstock han llegado a acuerdos con OpenAI, lo que le permite a la empresa entrenar sus modelos con su contenido.

Pero, en la mayoría de los casos, las entidades que conceden las licencias de los datos no son los creadores originales, y a menudo ejercen un poder desproporcionado sobre los que sí lo son. Los músicos en Spotify y los creadores de videos en YouTube ilustran el problema: incluso cuando las plataformas pagan, solo una pequeña fracción de los ingresos les llega a los artistas.

La verdadera competencia en el sector actual de la IA no consiste en mejorar los servicios. Se trata más bien de captar la atención del usuario mediante la manipulación algorítmica y extraer lo que llamamos rentas de atención algorítmica: un impuesto que no se paga en efectivo, sino en recursos cognitivos. Una aplicación más estricta de los derechos de autor corre el riesgo de afianzar una forma de feudalismo digital, permitiendo que las plataformas dominantes aíslen grandes franjas de contenido en línea mientras extraen valor de los creadores que realmente lo producen.

Asimismo, aplicar el enfoque de licencias a todo el universo de material del que dependen los LLM es sencillamente inviable. Los mercados solo funcionan cuando los costos de transacción son bajos en relación con el valor intercambiado. Pero cuando los potenciales titulares de derechos incluyen a millones de escritores, fotógrafos, programadores y aficionados dispersos, los costos de transacción se disparan.

Si bien un enfoque de pago por byte podría funcionar para grandes propietarios de contenidos como Reddit, ningún sistema legal, burocrático o algorítmico podría establecer de forma realista un precio personalizado para cada fragmento de los terabytes de texto, código, imágenes y audio consumidos por los modelos de IA con billones de parámetros.

Peor aún, la imposición de tales barreras sofocaría la innovación y marginaría a las pequeñas empresas, a los estudiantes y a los creadores independientes. El resultado sería un panorama intelectual cerrado que enriquecería a unos pocos privilegiados mientras que privaría de recursos a la misma creatividad que pretende proteger.

Sin embargo, los mercados son solo un método para asignar recursos, y a veces simplemente no funcionan. En tales casos, cuando es difícil excluir a quienes no pagan los costos de transacción, los mecanismos alternativos no solo están justificados, sino que son necesarios.

La autora

Mariana Mazzucato es profesora de Economía de la Innovación y Valor Público en el University College de Londres y autora, más recientemente, de The Big Con: How the Consulting Industry Weakens Our Businesses, Infantilizes Our Governments and Warps Our Economies (Penguin Press, 2023).

El autor

Fausto Gernone es estudiante de doctorado en el Instituto de Innovación y Propósito Público de la UCL.

Copyright: Project Syndicate, 1995 – 2025

www.project- syndicate.org

admin