¡Y lo dice en un PDF de 13 páginas!

Esta semana, principios de abril de 2026, OpenAI publicó un documento titulado Industrial Policy for the Intelligence Age: Ideas to Keep People First. Trece páginas en la que se exponen propuestas y se desnudan intenciones políticas. Un documento que dice mucho del momento en el que vivimos.
Está redactado con un tono que parece convocar a una conversación democrática y abierta, pero entrelíneas, la prosa amable pretende disimular algo bastante muy ambicioso. Es una empresa privada proponiendo, de manera explícita y ordenada, el marco institucional con el que el mundo debería gobernar la inteligencia artificial. Y… haciéndolo antes que los propios Estados.
Eso, en el mundo de la comunicación política se llama “construir agenda”, coparla (agenda setting) y proponer QUÉ pensar. Por ello, creo, se merece un análisis cuidadoso antes que se banalice con abordajes superficiales.
OpenAI sostiene que estamos en el umbral de la superinteligencia, sistemas capaces de superar en rendimiento a los humanos más inteligentes incluso cuando estos cuenten con asistencia de IA y que casi podrían ocuparse de todo, y que esa transición exige un nuevo tipo de política (y contrato social), proponiendo literalmente algo similar al “New Deal“ con implicancias similares para el desarrollo económico e industrial y reorganización sociocultural.
La analogía histórica no es inocente, porque el New Deal fue la respuesta de un Estado a una situación histórica con condicionantes determinados, no fue enunciada ni propuesta públicamente por el sector privado, al menos de forma directa.
OpenAI, apelando a este nuevo “New Deal” propuesto, se autolegitima en el rol de actor político sugiriendo que la iniciativa es de la misma naturaleza que aquella reforma del contrato social norteamericano. La diferencia es que Franklin Roosevelt tenía un mandato democrático. Sam Altman, no.
El documento se encuentra organizado en base a dos grandes ejes. El primero apunta a construir lo que llaman una “economía abierta” que implica: Garantizar que los beneficios de la IA se distribuyan ampliamente, que los trabajadores tengan voz en la transición, que exista acceso universal a modelos de IA, que se “modernice” la base tributaria para evitar que el Estado “se quede sin recursos a medida que el capital sustituye al trabajo” y que se creen mecanismos como un “Fondo de Riqueza Pública” que permita a los ciudadanos participar en los beneficios económicos del crecimiento impulsado por la IA. El segundo eje apunta a construir una “sociedad resiliente” que, según el documento, contaría con sistemas de auditoría de modelos de IA; protocolos de contención de riesgos; marcos legales, prácticas y procesos que controlen las formas en las que se dirigen y gestionan las empresas para que se mantengan alineados con el interés público, límites al uso gubernamental de la IA, y una red internacional de institutos de IA para compartir información sobre riesgos y mitigaciones.
Leído así, suena razonable y dulce.
Lo riesgoso de la propuesta no reside en sus contenidos, de hecho, merecen un debate público serio. El problema está en quién la hace, desde qué posición, con qué intereses, y en el momento en que las hace.
OpenAI es la empresa que desarrolla hoy uno de los modelos más potentes del mundo. Es la misma empresa que hace unos años era una organización sin fines de lucro dedicada a la investigación abierta, que luego mutó hacia un modelo comercial híbrido, y que hoy vale cientos de miles de millones de dólares. Es la misma que ha ganado contratos millonarios con el Pentágono para utilizar IA en los sistemas de Defensa (que pueden ser también de ataque) desplazando a Anthropic (Claude Ai) que se negó por cuestiones éticas. Es la empresa que está en el centro de la competencia geopolítica entre Estados Unidos y China por el liderazgo en IA. Y es la empresa que ahora, con este documento, propone los estándares bajo los cuales debería auditarse a las empresas de IA, incluyéndose a sí misma. Hay ahí un conflicto de intereses estructural que el documento no aborda. Juez y parte nunca es una ecuación conveniente para la mayoría.
Pero el punto más interesante, desde una perspectiva política, más allá del grado de hipocresía que podría estar o no presente, es precisamente la intencionalidad política subyacente.
Lo que OpenAI hace, de hecho, con este documento es lo que los teóricos del neoinstitucionalismo llamarían un intento de “path setting”, establecer el camino antes de que otros lo establezcan. Pegar primero. Pegar dos veces.
Si los estándares de auditoría, los marcos de control, los protocolos de contención y las definiciones de “riesgos y límites” se fijan con el vocabulario y las categorías que propone OpenAI, entonces habrá ganado la batalla más importante, la de los conceptos y definiciones. Las regulaciones que vendrían después sólo llenarían un molde que ya fue diseñado en San Francisco (por OpenAI).
No es algo nuevo en la historia, sobre todo con las grandes transformaciones tecnológicas, porque en cierto modo el Estado y su capacidad regulatoria no puede anticipar la dinámica del desarrollo tecnológico y los descubrimientos. Las empresas que dominan una tecnología nueva siempre intentan capturar la narrativa regulatoria antes que el marco jurídico y legal sobre la cuestión se consolide.
Lo hicieron las telefónicas, lo hicieron las farmacéuticas, lo hicieron los bancos, muy visible, además, después de la crisis de 2008 (en Argentina lo habían hecho también después de la crisis del 2001).
La diferencia con la IA es la velocidad y la escala. Y lo extraordinario en este caso es la sofisticación del intento. OpenAI no está haciendo lobby en el Congreso de la manera opaca habitual. Publica un PDF, “invitando” a una conversación global, ofreciendo becas de hasta cien mil dólares (en créditos de uso de sus modelos de IA) para quienes quieran investigar estas ideas, y proponiendo un workshop para mayo en Washington. Es un lobby con construcción de consenso y legitimidad política disfrazada de deliberación democrática.
Hay dos propuestas en el documento que merecen atención muy especial porque revelan particularmente la tensión entre la retórica democrática y la realidad del poder concentrado.
La primera es la propuesta de “gestión corporativa alineada con un propósito superior”. OpenAI sugiere que las empresas líderes de IA deberían adoptar estructuras de gobierno que incorporen un sistema de rendición de cuentas (accountability) de interés público, similar al que tienen las organizaciones sin fines de lucro. Suena muy progresista, sin embargo dicho así por la misma OpenAI que ha tenido serios problemas internos en los últimos años, que fueron desde la destitución y reincorporación de Sam Altman en 2023, las tensiones entre el directorio sin fines de lucro y los inversores, hasta los que surgieron por la conversión hacia una estructura comercial que cotiza en la bolsa; este tipo de propuestas, si se convierten en el estándar, podrían de hecho proteger a OpenAI de regulaciones más duras pretendiendo mostrar que ya “se autorregula”. Es un movimiento típico de “captura regulatoria preventiva”, que implica influir por anticipado a los legisladores para “moldear” normativas a favor o menos agresiva para ellos.
La segunda es la propuesta de una red internacional de institutos de IA para compartir información sobre capacidades y riesgos. La idea tiene algo de mérito. La coordinación internacional en materia de riesgos tecnológicos es deseable y creo que necesaria. La cuestión es, otra vez, quién sienta las bases y con qué criterios.
El documento propone expandir el rol del Center for AI Standards and Innovation (CAISI), una institución gestionada desde el gobierno norteamericano. Así, el marco de referencia es explícitamente el de Estados Unidos, por lo cual propuesta implica que los países del mundo converjan hacia estándares diseñados en Washington, con OpenAI como uno de los actores centrales en la definición de esos estándares. Reproduce, en el dominio de la IA, la misma asimetría que ya existe en materia de registros de propiedad intelectual, regulación financiera y estándares fitosanitarios, donde los países desarrollados definen las reglas y el resto del mundo acata o queda afuera.
Desde América Latina, y desde Argentina en particular, esta dimensión del documento es la que más debería preocuparnos. No porque seamos incapaces de generar propuestas propias, sino porque seríamos participantes pasivos en la conversación o la discusión si OpenAI logra su cometido. Porque de imponerse, nos llegará un marco global cocinado en el “primer mundo” en el que nuestros intereses, nuestras estructuras productivas y nuestra concepción del bien común seguramente no estarán representados.
Hay algo más en este documento que vale la pena señalar antes de cerrar, que tiene que ver con una tensión filosófica profunda que OpenAI no resuelve y probablemente no puede resolver desde su posición.
El texto afirma en múltiples ocasiones que la transición hacia la superinteligencia debe ser guiada por procesos democráticos, que la gente debe tener poder real para moldear el futuro de la IA y que las decisiones sobre alineamiento no deben ser tomadas por ingenieros o ejecutivos a puertas cerradas. Pero al mismo tiempo, y en términos reales, OpenAI es una empresa que determina cuándo lanzar un modelo, con qué capacidades, bajo qué condiciones de acceso, y con qué restricciones de uso. Esas decisiones no pasan por ningún proceso democrático ni control público. Las toma una empresa privada, con inversores, con competidores, con presiones de mercado y por ende con ánimo de lucro.
El llamado a la democracia convive con una estructura de poder que es sobre todo comercial y no democrática.
Las empresas privadas pueden tener ideas valiosas sobre política pública, y muchas de las propuestas que se presentan en el documento como la distribución de beneficios económicos por la productividad que aporte la IA o la actualización de los mecanismos de asistencia social son contribuciones legítimas al debate contextualizado. Pero deben ser leídas sabiendo de dónde vienen.
Hay que leerlas siendo conscientes que cuando una de las empresas más poderosas en el desarrollo de IA publica un documento con propuestas políticas, no está haciendo un ejercicio académico ni un gesto de compromiso. Está moviendo sus fichas. Juega al ajedrez.


