La era del poder blando de la IA
TOKIO – Líderes en IA como OpenAI y DeepMind se ven a sí mismos inmersos en una carrera por desarrollar la inteligencia artificial general (IAG): un modelo capaz de realizar cualquier tarea intelectual que pueda llevar a cabo un ser humano. Al mismo tiempo, los gobiernos de Estados Unidos y China consideran la carrera de la IA como una prioridad de seguridad nacional que exige inversiones masivas que recuerdan al Proyecto Manhattan. En ambos casos, la IA se considera una nueva forma de “poder duro”, accesible solo para las superpotencias con vastos recursos informáticos y los medios para convertirlos en dominio económico y militar.
Pero esta visión es incompleta y cada vez más obsoleta. Desde que el desarrollador chino DeepSeek lanzó su modelo de bajo costo y rendimiento competitivo a principios de este año, nos encontramos en una nueva era. La capacidad de crear herramientas de IA de vanguardia ya no se limita a unos pocos gigantes tecnológicos. Han surgido múltiples modelos de alto rendimiento en todo el mundo, lo que demuestra que el verdadero potencial de la IA reside en su capacidad para ampliar el poder blando.
La era de los modelos de “cuanto más grande, mejor” terminó en 2024. Desde entonces, la superioridad de los modelos no está determinada únicamente por la escala (basada en un volumen creciente de datos y en potencia de cálculo). DeepSeek demostró no solo que se pueden construir modelos de primer nivel sin grandes inversiones de capital, sino también que la introducción de técnicas de desarrollo avanzadas puede acelerar radicalmente el progreso de la IA a nivel global. Apodado el “Robin Hood de la democratización de la IA”, su decisión de adoptar el código abierto desencadenó una ola de innovación.
El monopolio de OpenAI (o el oligopolio de unas pocas empresas) de hace apenas unos meses ha dado paso a un panorama multipolar sumamente competitivo. Desde entonces, Alibaba (Qwen) y Moonshot AI (Kimi) en China también han lanzado modelos potentes de código abierto, Sakana AI (mi propia empresa) en Japón ha puesto en código abierto innovaciones de IA, y el gigante estadounidense Meta está invirtiendo fuertemente en su programa Llama de código abierto, reclutando agresivamente talento de IA de otros líderes de la industria.
Presumir de un rendimiento de modelos de vanguardia ya no basta para satisfacer las necesidades de las aplicaciones industriales. Consideremos los chatbots de IA: pueden dar respuestas precisas a preguntas generales, pero no pueden alcanzar la precisión o fiabilidad de “99 puntos” necesaria para la mayoría de las tareas del mundo real -desde la evaluación de préstamos hasta la programación de la producción, que dependen en gran medida del conocimiento colectivo compartido por los expertos-. El antiguo marco en el que los modelos básicos se consideraban de manera aislada de las aplicaciones específicas ha llegado a sus límites.
La IA del mundo real debe gestionar tareas interdependientes, procedimientos ambiguos, una lógica condicional y casos de excepción -todas ellas variables desordenadas que exigen sistemas estrechamente integrados-. En consecuencia, los desarrolladores de modelos deben asumir una mayor responsabilidad en el diseño de aplicaciones específicas, y los desarrolladores de aplicaciones deben comprometerse más a fondo con la tecnología fundacional.
Esta integración es tan importante para el futuro de la geopolítica como para el de los negocios. Esto se refleja en el concepto de “IA soberana”, que exige reducir la dependencia de proveedores de tecnología extranjeros en nombre de la autonomía nacional de la IA. Históricamente, la preocupación fuera de Estados Unidos ha sido que, al externalizar infraestructura crítica -motores de búsqueda, redes sociales, teléfonos inteligentes- a empresas gigantescas de Silicon Valley, incurría en persistentes déficits comerciales digitales. Si la IA siguiera el mismo camino, las pérdidas económicas podrían crecer exponencialmente. Asimismo, muchos se preocupan por los “interruptores de seguridad” que podrían desactivar la infraestructura de IA de origen extranjero en cualquier momento. Por todas estas razones, el desarrollo nacional de la IA se considera ahora esencial.
Pero una IA soberana no tiene por qué significar que todas las herramientas se fabriquen en el país. De hecho, desde el punto de vista de la rentabilidad y la diversificación de riesgos, sigue siendo mejor combinar modelos de todo el mundo. El verdadero objetivo de la IA soberana no debería ser simplemente lograr la autosuficiencia, sino acumular poder blando de IA mediante el desarrollo de modelos que otros quieran adoptar voluntariamente.
Tradicionalmente, el poder blando se ha referido al atractivo de ideas como la democracia y los derechos humanos, exportaciones culturales como las películas de Hollywood y, más recientemente, tecnologías y plataformas digitales como Facebook, o incluso de forma más sutil, diferentes aplicaciones como WhatsApp o WeChat que moldean culturas a través de hábitos cotidianos. Cuando coexistan diversos modelos de IA en todo el mundo, los más adoptados se convertirán en fuentes de un poder blando sutil pero profundo, dado lo integrados que estarán en la toma de decisiones cotidiana de la gente.
Desde la perspectiva de los desarrolladores de IA, la aceptación pública será fundamental para el éxito. Muchos usuarios potenciales ya desconfían de los sistemas de IA chinos (y también de los estadounidenses), debido a los riesgos percibidos de coacción, vigilancia y violación de la privacidad, entre otros obstáculos para una adopción generalizada. Es fácil imaginar que, en el futuro, solo las IA más confiables serán plenamente adoptadas por gobiernos, empresas y particulares. Si Japón y Europa pueden ofrecer modelos y sistemas de este tipo, estarán bien posicionados para ganarse la confianza del Sur Global -una perspectiva con implicancias geopolíticas de gran alcance.
Una IA digna de confianza no consiste solo en eliminar sesgos o evitar filtraciones de datos. A largo plazo, también debe incorporar principios centrados en el ser humano: mejorar, no sustituir, el potencial de las personas. Si la IA acaba concentrando riqueza y poder en manos de unos pocos, profundizará la desigualdad y erosionará la cohesión social.
La historia de la IA recién empieza y no tiene por qué convertirse en una carrera en la que “el ganador se lo lleva todo”. Pero tanto en el envejecido hemisferio norte como en el joven Sur Global, la desigualdad impulsada por la IA podría crear divisiones duraderas. Es de interés de los desarrolladores garantizar que la tecnología sea una herramienta confiable de empoderamiento, y no un instrumento generalizado de control.
El autor
Ren Ito, exdiplomático japonés, es cofundador de Sakana AI.
Copyright:
Project
Syndicate,
1995 – 2025