México necesita una estrategia nacional de inteligencia artificial

México carece de una hoja de ruta clara para orientar sus esfuerzos, proteger a la población y fomentar la innovación frente al desarrollo e implementación de tecnologías de inteligencia artificial (IA).
“Hasta ahora, México no tiene realmente lo que se podría llamar una regulación de IA”, dijo Claudia del Pozo, directora y fundadora de Eon Institute, un think tank especializado en políticas públicas sobre tecnologías emergentes.
Te puede interesar
-
Arte e Ideas
Proponen asignar a la Secretaría de Ciencia la regulación sobre IA’s
Política
Sin avanzar, regulación del uso de Inteligencia Artificial
En nuestro marco legal existen normas sobre tratamiento de datos personales, derechos de autor o no discriminación que inciden en aplicaciones de IA, pero ninguna ley o estrategia que aborde esta tecnología de manera integral.
La única referencia en este sentido data de 2018, cuando bajo la administración de Enrique Peña Nieto se publicó una breve “Estrategia Digital Nacional” que incluía un apartado de IA en el que participó la propia Del Pozo.
Dicha iniciativa careció de seguimiento: no se traducía en metas específicas, montos de inversión definidos ni procesos de evaluación, por lo que nunca logró consolidarse como política pública de largo plazo.
Propuestas parciales
En ausencia de un plan federal, diputados y legisladores han presentado iniciativas aisladas. El más reciente ejemplo es la propuesta, a nivel local en Ciudad de México, del diputado Pablo Emilio García González de Morena, enfocada en regular el uso de datos biométricos y prevenir deep fakes.
Aunque atiende preocupaciones legítimas sobre la creación no consentida de imágenes y voces, el proyecto apenas registra avances en el Congreso capitalino y padece de un alcance demasiado limitado como para generar un efecto sistémico .
Del Pozo advierte que “nos falta mucho para saber por dónde empezar en temas regulatorios” y subraya la necesidad de articular una estrategia nacional de IA que establezca prioridades (salud, educación, seguridad, finanzas), metas de adopción, presupuestos y mecanismos de gobernanza claros.
Te puede interesar
-
Tecnología
Gobierno de AMLO crea comisión de tecnología y ciberseguridad
Lecciones
La experiencia internacional ofrece múltiples enfoques. La Unión Europea lidera con su reglamento de IA, basado en un modelo de “gestión de riesgos” que categoriza aplicaciones en cuatro niveles: prohibidas, de alto riesgo, de riesgo medio y de bajo o nulo riesgo.
A cada categoría le asigna obligaciones proporcionales de transparencia, evaluación de conformidad y control de la cadena de suministro.
Este cuadro ha servido como referente para debates legislativos en todo el mundo, aunque su complejidad y el involucramiento de múltiples actores regulatorios podría superar la capacidad de coordinación de un país como México.
En Estados Unidos, las regulaciones son más fragmentadas y orientadas a sectores: no existen normas federales específicas de IA, pero en 2024 la Administración Biden publicó lineamientos de “IA responsable” sin carácter vinculante.
El presidente Trump, por su parte, rechazó esas directrices y amenazó con retirar fondos federales a estados que impusieran reglas locales. Apenas este 24 de abril, Trump giró una orden ejecutiva que limita considerablemente las capacidades regulatorias del gobierno estadounidense en materia de inteligencia artificial.
Te puede interesar
-
Geopolítica
Trump deroga regulación de Biden sobre seguridad y transparencia en el sector de IA
Canadá fue pionero en lanzar su Estrategia Pan-Canadiense de IA en 2017, seguida por Reino Unido (2018), Francia y Alemania (2019). Desde entonces, muchos países han anunciado sus propias estrategias con planes de inversión pública, competencias de talento, sandboxes regulatorios y alianzas público-privadas. México, sin embargo, ya suma siete años de retraso respecto al primer anuncio internacional.
Riesgos
La urgencia de una estrategia nacional no solo obedece a la competitividad, sino a la protección de derechos y la mitigación de daños.
En los Países Bajos, por ejemplo, un sistema automatizado de detección de fraude en la distribución de apoyos sociales provocó acusaciones injustas a miles de familias, llevando a la bancarrota a algunos hogares, suicidios y separación de niños de sus padres, todo por sesgos en el algoritmo que discriminaba a migrantes con doble nacionalidad.
En Estados Unidos, el uso de reconocimiento facial en sistemas de vigilancia ha desencadenado detenciones erróneas de personas afroamericanas, debido a que los modelos fueron entrenados con predominio de rostros caucásicos y no alcanzan la misma precisión en otras etnias.
Te puede interesar
-
Tecnología
Crece uso de reconocimiento facial sin regulación en México: R3D
También proliferan deep fakes con fines de difamación, fraude electoral o violación de la intimidad, fenómeno denunciado por legisladores y expertos en seguridad digital.
Del Pozo enfatiza que “una buena regulación no frena la innovación; al contrario, crea un marco donde prospera la innovación positiva” y remite al ejemplo de la obligatoriedad de cinturones de seguridad en automóviles, que permitió incrementar velocidades de forma segura.
Para la experta, México debería priorizar la prohibición de usos claramente nocivos (deep fakes pornográficos no consentidos, sistemas de discriminación algorítmica) y avanzar por fases, con espacios de prueba o “sandboxes” donde evaluar medidas antes de su implementación definitiva.
Estrategia
La construcción de una estrategia nacional de IA implica, en primer lugar, consensuar objetivos de largo plazo: ¿cómo se quiere usar la IA para mejorar servicios públicos, impulsar la productividad industrial, potenciar la investigación científica y garantizar derechos ciudadanos?
En segundo término, es necesaria una asignación presupuestal específica y un órgano rector con capacidad de interlocución transversal (secretarías de Economía, Educación, Salud, Gobernación e Instituto Nacional de Transparencia).
Tercero, debe diseñarse un marco regulatorio basado en riesgos, pero adaptado al tamaño y capacidades de México, concentrándose en sectores críticos como salud, justicia y bienestar social antes de extenderse a ámbitos de menor impacto.
Te puede interesar
-
Arte e Ideas
La digitalización en la salud se acelera de la mano de la IA
Finalmente, es clave disponer de laboratorios regulatorios o “sandboxes”, donde el sector privado, la academia y las autoridades puedan experimentar con normas en un entorno controlado, aprender de aciertos y errores, y ajustar políticas antes del despliegue nacional. “México debería estar en fase de pruebas, pero no está”, dijo Del Pozo.
-
-
-