La inteligencia artificial transita por un momento triunfal. Desde 2022, las nuevas tecnologías denominadas «generativas», entre las cuales se destaca ChatGPT, se han extendido a una velocidad sin precedentes1. Todo el ecosistema informático se ha puesto en marcha para sostener la innovación. Al igual que las burbujas especulativas de los años 2000 y 2012, el salto tecnológico ha provocado una carrera desenfrenada, tanto en términos narrativos como de apuestas financieras y ambiciones geoeconómicas. «Superinteligencia» prometeica y progreso imparable2 para unos. Riesgo de caída bursátil3 y extinción de la humanidad4 para otros. Desilusión5 y cita fallida con la inteligencia efectiva6 y la productividad económica7 para los demás.
En medio de la pugna, el avance chino con DeepSeek a principios de 2025 reactivó una carrera iniciada tres años antes por el unicornio estadounidense OpenAI. Sin embargo, este alboroto y la confusión perceptiva que lo acompaña ocultan un proceso mucho más silencioso y estructural que se está desarrollando en el ámbito de la inteligencia artificial y la gobernanza. El actual despegue de la IA está acelerando la creación de una tecnoestructura global cuyas piezas se van colocando estratégicamente.
Una tecnoestructura pivoteando sobre a seis componentes metodológicos
Este proceso se ha hecho más visible en los últimos años en el mundo científico, así como en múltiples iniciativas civiles o multilaterales que multiplican sus investigaciones en el campo de la IA y la gobernanza. Los temas tratados abordan explícitamente cuatro grandes ámbitos, todos ellos estudiados desde la perspectiva de las transformaciones emancipadoras que proporciona la IA: la ética, la formulación y el diseño de políticas públicas, la toma de decisiones mediante la modelización digital de sistemas reales y la optimización de la asignación de recursos. Estos avances ya están alimentando proyectos institucionales y prácticas concretas. Sin embargo, son tratados de forma compartimentada, lo cual limita la posibilidad de construir una visión general. Si bien cada contribución particular parece a primera vista desprovista de malas intenciones, su perspectiva de conjunto revela, sin embargo, una orientación muy diferente.
El hilo conductor que une estos diferentes trabajos e iniciativas lleva, en efecto, al desarrollo de una tecnoestructura de gobernanza, basada en la automatización de la deliberación humana y su exclusión de los mecanismos tradicionales de regulación y control político. Se pueden identificar seis grandes componentes metodológicos8, en consonancia con los ámbitos de investigación mencionados anteriormente:
La modelización de los sistemas naturales y humanos mediante los gemelos digitales.
La automatización del arbitraje moral y ético.
El diseño de las normas y de la ley.
La aplicación de la regulación mediante la infraestructura informatizada.
La retroalimentación adaptativa de la tecnoestructura.
El modelaje conductual y cognitivo de la sociedad.
Representar la realidad mediante los «gemelos digitales»
Este primer componente metodológico se basa en la representación del funcionamiento de la sociedad en un modelo digital. El «gemelo digital» de la realidad consiste en crear en la computadora un espejo virtual del mundo real o de un subsistema social. Entre las investigaciones científicas publicadas, se destacan cinco grandes ámbitos de modelización: la agricultura, la salud, la infraestructura urbana, la energía y los ecosistemas.
Las Naciones Unidas han incluido este enfoque en su agenda desde el año 2022. El «plan de acción para un planeta sostenible en la era digital»9 propone gemelos digitales planetarios10, capaces de medir, supervisar y modelar la salud de la biosfera del planeta y sus interacciones con los sistemas sociales y económicos11. Durante ese mismo año 2022, la institución onusiana documentó modelos institucionales de IA capaces de ampliar los gemelos digitales a escala mundial12. En el ámbito de la agricultura de precisión13, los modelos desarrollados abarcan desde la escala de la región geográfica hasta la planta sembrada en el campo cultivado. En el ámbito de la salud, el gemelo simula el metabolismo de toda una población y de los individuos que la componen14. En el entorno urbano, los modelos simulan el consumo de energía, el tráfico urbano y los comportamientos sociales15.
El objetivo oficial del enfoque de hermanamiento digital es hacer que la gestión pública sea más eficaz y eficiente. La IA es entonces una nueva herramienta de apoyo a la toma de decisiones. Permite responder a «consultas causales mediante el análisis de intervención16» y «mejorar el diseño de políticas públicas basadas en pruebas17». Sin embargo, la modelización, tal y como se propone en estas iniciativas, implica establecer un nuevo estrato de representación que se interpone entre la sociedad y la realidad. Modelizar para decidir mejor conduce a transferir el discernimiento y la decisión, que solían proporcionar la deliberación colectiva y la opinión de los expertos, a este estrato y a los simuladores informáticos. De este modo, la intervención humana queda relegada a un segundo plano tras la potencia de cálculo que constituye el modelo digital.
Estos enfoques basados en la modelización se están promoviendo actualmente a nivel mundial y europeo18. Implican diferentes modalidades de coordinación tecnocrática19, que van desde las articulaciones institucionales, los ecosistemas de gemelos digitales y la búsqueda de un marco metodológico común20.
Automatizar el juicio moral
Este segundo campo de investigación implica la intervención de la computadora en la deliberación moral. Se trata de programar la ética en la máquina y someter cada acción humana potencial a un arbitraje definido según un determinado marco de referencia. Así, cualquier acción que deriva de un sistema informatizado puede activarse mediante la simulación de una especie de «conciencia moral», transcrita en la computadora y capaz de tener en cuenta los dilemas éticos inherentes a cualquier elección que se deba realizar en un sistema social.
Para los académicos, la ética incorporada en la computadora debe ser capaz de «emprender un giro21» para ir más allá de los casos particulares para abarcar el sistema sociotécnico en su conjunto22. En lugar de adaptar un algoritmo para hacerlo «más equitativo», o incluso combinarlo con una etapa de supervisión humana, se recomienda insertar la ética como una capa independiente de la infraestructura informática. En otras palabras, la ética se va codificando en el sistema informático como si se tratara de una capa de software independiente del sistema operativo23. Este enfoque implica trasladar la aplicación de las referencias morales, que suelen situarse antes y después de cualquier elección colectiva, a las etapas de recopilación de datos, de construcción de modelos, de integración y supervisión de los sistemas. Aquí encontramos un mecanismo de exclusión similar al del punto anterior.
Este enfoque ya es objeto de experimentos concretos. Se ha diseñado un «razonador ético» para producir arbitrajes éticos en tiempo real, en función de las variables que caracterizan un contexto social determinado24. El prototipo produce una combinación de reglas formales derivadas de la filosofía o del derecho con un razonamiento estadístico procesado por computadora. Se está desarrollando un segundo enfoque25 basado en la metodología del «aprendizaje por refuerzo multiobjetivo26», que permite incorporar restricciones éticas explícitas en la IA. Estos procesos construyen, en última instancia, sistemas informáticos capaces de actuar como «árbitros éticos automatizados» y de evaluar comparativamente las opciones contempladas por otros sistemas de IA. Un primer esfuerzo normativo ha sido implementado para entablar esta agenda. Las conferencias sobre IA, ética y sociedad (AAAI/ACM)27 producen así referencias sobre el marco de aplicación de una ética técnica. Paralelamente, la Sustainable AI Coalition ha elaborado pautas para actuar con una ética «desde el diseño»28.
Cabe destacar que la ruptura en las relaciones entre la ética y la sociedad no se menciona explícitamente en estos trabajos. La dimensión moral se convierte implícitamente en una capa lógica del sistema informático, lo cual supone una reducción de substancia de la ética humana.
Diseñar la regulación mediante computadoras
La acción inteligente impulsada por la IA se sitúa, por tanto, en el ámbito de las representaciones del mundo que las sociedades necesitan para gobernarse (primer componente) y en el de los arbitrajes morales inherentes a la acción colectiva (segundo componente). A estos dos primeros se añade una tercera dimensión metodológica: la de la concepción de los textos legales y normativos mediante modelos de lenguaje.
En los últimos años, se han logrado avances significativos en el ámbito de las Naciones Unidas y la gobernanza medioambiental. Uno de ellos, el proyecto UNBench29, evalúa comparativamente el rendimiento de los modelos lingüísticos en las actividades de la agenda de la ONU. Utilizando los archivos documentales del Consejo de Seguridad de las Naciones Unidas, los chatbots permitieron elaborar una resolución diplomática, poner en marcha una simulación de la adhesión de los países miembros y generar declaraciones diplomáticas. El ensayo demuestra que los modelos de lenguaje producen textos cuya calidad se aproxima a la de las resoluciones de la ONU.
En el ámbito de la conservación marina, se ha desarrollado un agente conversacional para proporcionar posiciones oficiales y recomendaciones sobre el tratado de alta mar30. Por último, en un tercer caso, los modelos de lenguaje se pusieron a prueba en los Estados Unidos para generar textos vinculados con el nuevo decreto federal 1411031 sobre la gobernanza de la IA32. Algunos modelos han producido resultados casi tan convincentes como los de los expertos en la interpretación del decreto. Los agentes conversacionales también verifican la pertinencia de otros textos sobre el mismo tema, lo que demuestra que la IA es capaz no solo de diseñar el contenido de nuevas políticas, sino también de interpretar y criticar las ya existentes.
Como es bien sabido, estas novedades metodológicas se están difundiendo en el ámbito institucional y profesional. Los analistas económicos o políticos utilizan los agentes conversacionales para elaborar borradores de informes, sintetizar ideas y convertir datos técnicos en un lenguaje accesible. A nivel multilateral, la Universidad de las Naciones Unidas incentiva ahora a las agencias internacionales a adoptar su propio modelo de lenguaje para facilitar la redacción de textos33. En estos diferentes casos, el objetivo principal es ayudar a los responsables políticos, en particular a los de los países en desarrollo, a adquirir conocimientos especializados de forma clara y rápida.
La labor de reconstruir los hechos, las normas y los escenarios de evolución tiende a transferirse a la computadora. Este último se encuentra, por tanto, en posición de enunciar las políticas que los seres humanos deben seguir o aplicar. El legislador o el regulador no desaparecen, sino que su función evoluciona hacia la de supervisores que deben arbitrar entre diferentes orientaciones o resolver ciertas incertidumbres puntuales. No obstante, la intervención del ordenador introduce diferentes sesgos algorítmicos y conceptuales. En el marco de los textos sobre las políticas de la ONU, varios comentaristas han señalado por ejemplo que la experiencia con la IA refleja un punto de vista etnocéntrico girando en torno a las posiciones occidentales34.
Más allá de su función de asistencia a la concepción, el campo en el que se inmiscuya la computadora no deja de ser el delicado ámbito de la formulación de símbolos, lenguaje, normas y agenda política. La redacción inteligente mediante IA puede presentar los retos en juego desde un ángulo preferencial, minimizar ciertas preocupaciones o inducir compromisos que, en última instancia, modifiquen la orientación de la regulación. En este sentido, los argumentos de rapidez y eficacia se esgrimen como una excusa para legitimar la sustitución de la acción humana directa en este ámbito. No obstante, esta redistribución de las cartas por parte de la computadora reduce el papel del experto o del regulador. Sus actividades pasan así de la tarea de diseñar y aprobar políticas a la de supervisar o validar un proceso pilotado por la IA.
Codificar la aplicación de las políticas en la tecnoestructura
El cuarto componente metodológico que sustenta esta tecnoestructura tiene que ver con la implementación de las políticas dentro de una infraestructura informatizada. Esta estructura puede entonces encargarse directamente de la ejecución de las acciones incluidas en una política determinada, al menos algunas de ellas.
Las monedas digitales son uno de los campos de aplicación. A diferencia del dinero en efectivo, las monedas digitales de los bancos centrales pueden programarse para orientar la forma en que se gasta el dinero. Se puede por ejemplo activar una ayuda financiera en el momento de comprar un producto determinado en el mercado, o aplicar automáticamente un impuesto sobre el carbono a una transacción si ésta implica el consumo de energía fósil.
El Bundesbank alemán o el Banco Central Europeo destacan las ventajas de esta solución, resaltando las virtudes de los pagos automatizados (peajes de carretera, control del blanqueo de capitales, recaudación de impuestos, asignación de ayudas a los consumidores en caso de emergencia)35. En el espacio urbano, lo cierto es que las ciudades tienden a dotarse de una infraestructura informatizada que funciona sobre la base de una red telemétrica. Los sensores36, distribuidos por el área urbana y sus flujos, pueden acoplarse a los medios de transporte individuales o colectivos, con el objetivo, en particular, de restringir los desplazamientos más allá de un perímetro local para reducir la huella de carbono vinculada con el transporte.
Un segundo campo de aplicación se observa en el ámbito político del marco regulatorio para una IA «segura, protegida y confiable37» en los Estados Unidos38. Este marco obliga a las agencias federales a garantizar que los sistemas públicos y privados de IA sean objeto de detección de sesgos y se ajusten a principios comunes (conformidad con los valores y prevención de amenazas). De este modo, la administración establece la norma y exige que toda IA desplegada en los ámbitos de las finanzas, la salud o las infraestructuras críticas incorpore el control o la acción de aplicación dentro de la tecnoestructura (enforcement by design). Esta directiva menciona incluso el concepto de «gobernanza mundial de la IA» con socios internacionales, lo que deja entrever una búsqueda de conformidad hasta ese nivel.
De este modo, la aplicación automatizada de una política mediante una infraestructura informática materializa un nuevo registro de gobernanza que se transfiere a la tecnoestructura. Además, automatizar el cumplimiento del comportamiento de un ciudadano o un subsistema anula la posibilidad del libre albedrío, sin contar lo que ello implica en términos de desaparición de los cuerpos intermedios. Lejos de ser una cuestión menor, esta reconfiguración pone en tela de juicio el contrato social. En un Estado republicano, la aplicación de las leyes se basa en organismos sociales (justicia, policía, agencias gubernamentales) y dispone de cierta flexibilidad, siempre en función de la naturaleza del régimen político en el que se evoluciona. Una vez automatizada la aplicación, las reglas ejecutadas por los algoritmos, en su caso siguiendo cláusulas éticas y ciertos criterios de transparencia, eliminan todo margen de maniobra.
Retroalimentar y adaptar la tecnoestructura
Los componentes que acabamos de ver constituyen los principales motores de la tecnoestructura. Su funcionamiento genera enormes cantidades de datos. Cada sensor telemétrico, cada transacción autorizada o prohibida y cada decisión supervisada por la IA genera a su vez otros datos, que son susceptibles de ser reinyectados en los gemelos digitales y otras acciones automatizadas39. La gestión de esta retroalimentación se convierte entonces en un componente metodológico.
A su vez, este aprendizaje no solo se refiere al bucle de los flujos de datos digitalizados. Tiene que ver con los estándares, las normas y la estructura.
El enfoque de la conferencia global sobre IA, ética y sociedad40, así como el de la Sustainable AI Coalition41, materializan bastante bien esta búsqueda de una tecnoestructura evolutiva. Además de generar conocimientos, estas iniciativas modifican la elaboración de los enfoques generales y los criterios normativos. En la misma línea, algunos investigadores consideran que el reajuste continuo de la tecnoestructura es una respuesta a la deficiencia «por defecto» de los sistemas sociotécnicos42. Cuando surge un problema, es porque hay causas estructurales en juego. Por lo tanto, es necesario modificar la estructura general del sistema, en lugar de corregir solo elementos específicos y aislados.
En este contexto, la mente humana interviene a priori para evaluar los objetivos de nivel superior y responder a las anomalías identificadas en el sistema. Se recurre efectivamente a la acción humana, al menos a la de los expertos y las personas cualificadas para ello. Sin embargo, es probable que las anomalías de funcionamiento se reduzcan con el tiempo y disminuyan aún más esta participación. La consecuencia de la centralización de funciones dentro de la tecnoestructura es de crear una opacidad difícil o imposible de comprender para cualquier actor social afectado por las decisiones o en situación legítima de expresar demandas de orden político. Pensemos, por ejemplo, en el voto electrónico habilitado en diferentes países y en la proliferación posterior de múltiples maniobras irregulares, sin que la ciudadanía tenga realmente medios para auditar y hacer transparente el mecanismo.
En términos de eficacia, este principio de alimentación recursiva de la tecnoestructura contribuye, con un nuevo efecto colateral, a blanquear su legitimidad. Así, ésta puede aprender de la experiencia y encarnar una posible solución a las fallas de la gobernanza humana (corrupción, sesgos, inercia, falta de información).
Modelar comportamientos y conocimientos
Un último componente cierra el circuito metodológico formado por los elementos anteriores. La tecnoestructura tiene como objetivo reducir al mínimo el error humano y la imprevisibilidad. Según ella, el eslabón débil de la gobernanza proviene de las impurezas de la inteligencia humana. Por lo tanto, se trata, de manera ciertamente experimental pero abiertamente declarada en la agenda científica, de conectar el cerebro humano al sistema técnico a través de interfaces cerebro-computadora43. Los gobiernos y las empresas ya están invirtiendo en neurociencias y en este tipo de interfaces.
En 2025, las tecnologías de Neuralink fueron probadas en las personas. De hecho, las instituciones que trabajan en el campo de la programación de la ética en la computadora exploran simultáneamente el terreno de la neuroética44, es decir, el diseño y la regulación de las interfaces cerebro-computadora según normas éticas. La automatización del arbitraje moral y ético, es decir, el segundo componente que hemos descrito, reaparece aquí. Al igual que se han codificado principios morales para que se tengan en cuenta en la acción automatizada, es concebible que los modos de pensar o las reacciones emocionales de las personas conectadas sean monitoreados con el fin de mantenerlos en una zona de aceptación o equilibrio.
Paralelamente a la interfaz cerebro-computadora, la creación de un entorno cognitivo favorable al proyecto de la tecnoestructura y a las tecnologías subyacentes constituye una estrategia aún más determinante. En cuanto a las narrativas y el lenguaje, el vocabulario utilizado en las comunicaciones oficiales suele ser benévolo, amistoso, irenista, e incluso humanista. Este lenguaje enarbola objetivos emancipadores y limita espontáneamente cualquier desconfianza hacia las intenciones loables de gobernar con mayor eficacia, prevenir el hambre, optimizar el uso de los recursos o promover una sociedad digital inclusiva.
No obstante, esta fachada es engañosa. Por un lado, forzar la adhesión al proyecto tecnopolítico y tiende a presentar cualquier resistencia como retrógrada. Por otro, enmascara un instrumenlización inversa de la ética en contra del individuo. Cada criterio ético se basa en las reglas subyacentes formuladas por la tecnoestructura. En lugar de partir de los marcos morales existentes para concebir la ley, la ética se enuncia en sentido contrario, partiendo de las reglas que deben aplicarse45. En concreto, los términos actuales de la ética de la IA se deducen no de una reflexión filosófica, sino de las restricciones normativas que se pretenden aplicar. Del mismo modo, los Objetivos de Desarrollo Sostenible y la Agenda 2030 de las Naciones Unidas están repletos de declaraciones con apariencia ética y moral para inducir normas de conformidad.
Este uso ofensivo de la ética queda relativamente bien ilustrado en las conferencias de Globe Ethics sobre la buena gobernanza de la IA46. En este marco, la inteligencia artificial se sitúa permanentemente del lado del bien y del progreso, mientras el desarrollo tecnológico se presenta como un remedio para una gobernanza alterada e imperfecta. La dinámica AI for Good47 refuerza este enfoque. Las reticencias a la gobernanza automatizada se consideran moralmente reprobables. El incentivo al consentimiento mediante la ética se encuentra en todas las iniciativas que asocian la IA con la salud, la educación, el clima y los ecosistemas, la gobernanza, etc. Frente a los tropismos de corrupción, lentitud e imperfección de los sistemas políticos tradicionales, la tecnoestructura exhibe atributos de eficacia, transparencia, ética, orden y calidad.
Por último, la puesta en escena de ciertos antagonismos contribuye a este modelado. Al mismo tiempo que se alaban las virtudes de la IA o la obtención de derechos para las máquinas, los grandes empresarios de la industria informática ratifican su peligrosidad comparándolas con el riesgo nuclear o el de extinción de la especie48. Las amenazas potencialmente vinculadas con la IA han sido enunciadas por algunos think tanks49. Se refieren al bioterrorismo, la desinformación, la delincuencia, el armamento autónomo o la desestabilización social. De hecho, estas declaraciones suscitan un debate sobre la restricción de acceso a la IA. Este velo permite, de paso, eclipsar la amenaza mayor que supone la tecnoestructura50.
A este panorama se suma la competencia tecnológica entre las grandes potencias. En enero de 2025, la irrupción de DeepSeek llevó naturalmente a Estados Unidos a contraatacar con el proyecto Stargate y su agenda interna de despliegue de la IA. Sin embargo, el unicornio, DeepSeek, no es realmente un competidor para su rival estadounidense, ya que existe una intensa cooperación científica entre ambos países51 y que los servidores utilizados por DeepSeek se basan en tecnologías Nvidia importadas a China (y posteriormente prohibidas) por los Estados Unidos52. Esta competencia relativamente sesgada ha servido sobre todo para justificar la carrera tecnológica en el ámbito de la IA.
Un golpe de Estado 3.0...
Este proceso permite vislumbrar los contornos de un vasto proyecto de injerencia, o incluso de captura, de la gobernanza por parte de una tecnoestructura en proceso de despliegue. Si bien esta arquitectura se encuentra aún en su adolescencia, el salto cualitativo que dio la inteligencia artificial desde 2022 ha acelerado drásticamente su agenda. Sus modalidades observables permiten asemejarlas con otras maniobras conflictivas llevadas a cabo a nivel mundial en el ámbito de la geoeconomía. De hecho, existe un paralelismo de forma con las estrategias que se están llevando a cabo desde hace poco menos de un siglo en torno a la agenda medioambiental, las Naciones Unidas y la sostenibilidad.
Poco a poco, el panorama que se va revelando remite directamente a la cultura cibernética y transhumanista formulada por Julian Huxley, Norbert Wiener o Ray Kurzweil. Los objetivos enunciados pivotean constantemente sobre un doble lenguaje. Dado que el consentimiento de las masas es una condición existencial para tal tecnoestructura, es necesario legitimar la desaparición de la frontera entre el hombre y la máquina y crear una ruptura en la relación entre la ética y la acción humana.
En este punto, es importante precisar que la IA en sí misma no es la principal causante de los problemas ni la impulsora de un sistema técnico cuya inclinación natural sería avanzar inevitablemente hacia un sistema de control discrecional. En esencia, la IA es una forma de inteligencia con efecto diferido53, transferida humanamente a la computadora a través de la programación. Esta inteligencia diferida produce una inteligencia emergente cuando entra en contacto con la inteligencia inmediata que proporciona la mente humana. La inteligencia efectiva, es decir, la inteligencia más virtuosa y creativa para las actividades humanas, nace fundamentalmente de la sinergia entre ambas. Esta sinergia no es maliciosa ni negativa en sí misma. Tampoco es neutra, en la medida en que ha modificado profundamente, desde hace varias décadas, el entorno cultural y social. Pero es sobre todo el uso de esta sinergia al servicio de un proyecto maquiavélico lo que se encuentra en el centro de la dinámica que estamos describiendo.
El objetivo de esta tecnoestructura se refiere fundamentalmente a un proyecto de control sistémico sobre los individuos y la sociedad. Con el fin de obtener la adhesión y el control de las masas, oculta su finalidad tras un barniz conceptual y ético, sacando provecho del sistema informático contemporáneo. Este proyecto combina estrechamente la búsqueda del consentimiento y la subversión de los sistemas tradicionales de gobernanza. La inteligencia artificial, situada en la frontera estratégica entre la información, la automatización y la inteligencia, constituye un modo de acción privilegiado. El origen conceptual de este proyecto, yendo mucho más allá del objeto de esta nota, sigue siendo un elemento clave para comprenderlo en su conjunto. En él participa un vasto conglomerado de organizaciones e individuos, entre los que se encuentran las grandes empresas emergentes de la economía digital. Dada su naturaleza, su escala y su modus operandi, este designio se presenta como la ingeniería de control más sofisticada de la historia moderna.
La tercera revolución industrial, nacida con la microinformática en la década de 1970, se ve hoy envuelta en una maniobra conflictiva sin precedentes. Se relacionó con las grandes presunciones de supremacía global, de control geoeconómico y de dominación de las sociedades y de los individuos. En un momento en que esta agenda está acelerando, ¿no es hora de concientizarse y responder a tal oscurantismo?
Notas
1 Cien millones de usuarios creados en unas semanas para ChatGPT.
2 The Gentle Singularity.
3 Brace for a crash before the golden age of AI.
4 La inteligencia artificial sería tan peligrosa como «las pandemias o la guerra nuclear», según los líderes del sector.
5 The Delusion at the Center of the A.I. Boom.
6 Welcome to the AI trough of disillusionment.
7 MIT report: 95% of generative AI pilots at companies are failing.
8 El investigador inglés Escape Key es uno de los que ha realizado los análisis más exhaustivos. Esta nota retoma sus conclusiones publicadas en el artículo AI for Good.
9 Action Plan for a Sustainable Planet in the Digital Age.
10 Action Plan for a Sustainable Planet in the Digital Age.
11 CODES Action Plan for a Sustainable Planet in the Digital Age.
12 Towards a UN Role in Governing Foundation Artificial Intelligence Models.
13 Banerjee, S., Mukherjee, A., Kamboj, S. (2025), Precision Agriculture Revolution: Integrating Digital Twins and Advanced Crop Recommendation for Optimal Yield. Computer Science and Engineering, KIIT University.
14 Katsoulakis, E., Wang, Q., Wu, H. et al. Digital Twins for Health: a Scoping Review. Digit. Med. 7, 77 (2024).
15 B. Koirala, H. Cai, F. Khayatian, E. Munoz, J.G. An, R. Mutschler, M. Sulzer, C. De Wolf, K. Orehounig, Digitalization of urban multi-energy systems – Advances in digital twin applications across life-cycle phases, Advances in Applied Energy, Volume 16, 2024, 100196, ISSN 2666-7924.
16 El análisis de intervención es una técnica estadística que se usa para evaluar el impacto de una intervención o un evento específico en un conjunto de datos de series temporales.
17 Hazeleger, W., Aerts, J.P.M., Bauer, P. et al. Digital Twins of the Earth with and for Humans. Commun Earth Environ 5, 463 (2024).
18 Al respecto, visitar el sitio de Destination Earth.
19 Bennett, H., Birkin, M., Ding, J., Duncan, A., & Engin Z. (2023). Towards ecosystems of connected digital twins to address global challenges. Zenodo.
20 Bolte, L., van Wynsberghe, A. Sustainable AI and the third wave of AI ethics: a structural turn. AI Ethics 5, 1733–1742 (2025).
21 Hasselbalch, G., van Wynsberghe, A. (2025). Artificial Intelligence, Power and Sustainability. In The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence, Cambridge University Press.
22 Drukarch, H., Viktorova, M. (2024). Embedding Ethical Oversight in AI Governance through Independent Review.
23 Digital Twin Hub.
24 Upreti, N., Ciupa, J., Belle, V., (2025) Towards Developing Ethical Reasoners: Integrating Probabilistic Reasoning and Decision-Making for Complex AI Systems.
25 Pandi, M. (2025). Ethical Decision-making in AI systems: a reinforcement learning framework for moral alignment.
26 Al respecto, consultar esta entrada.
27 Sitio de AAAI.
28 Coalition for Sustainable Artificial Intelligence.
29 Liang, Y., Liangwei, Y., Wang, C., Xia, C., Meng, R., Xu, X., Wang, H., Payani, A., Shu, K., Benchmarking LLMs for Political Science: A United Nations Perspective.
30 Ziegler, M., Lothian, S., O'Neill, B., Anderson, R., Ota, Y. (2024). AI Language Models Could Both Help and Harm Equity in Marine Policymaking: The Case Study of the BBNJ Question-Answering Bot.
31 Al respecto, consultar esta publicación.
32 Kramer, M. A, Leavens, A., Scarlat, A. (2024). Harnessing AI for efficient analysis of complex policy documents: a case study of Executive Order 14110.
33 Hausenloy, J., Dennis, C. (2023). Towards a UN Role in Governing Foundation Artificial Intelligence Models.
34 Ziegler, M., Lothian, S., O'Neill, B., Anderson, R., Ota, Y. (2024). opcit.
35 CBDC – How Dangerous is Programmability?.
36 Allam, Z., Bibri, S. E., Jones, D. S., Chabaud, D., & Moreno, C. (2022). Unpacking the ‘15-Minute City’ via 6G, IoT, and Digital Twins: Towards a New Narrative for Increasing Urban Efficiency, Resilience, and Sustainability. Sensors, 22(4), 1369.
37 Decreto ejecutivo (enero 2023). Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence.
38 White House AI Memo Addresses National Security and AI.
39 Awouda, A., Traini, E., Bruno, G., & Chiabert, P. (2024). IoT-Based Framework for Digital Twins in the Industry 5.0 Era. Sensors, 24(2), 594.
40 Das, S., Patrick Green, B., Varshney, K., Ganapini, M., Renda., A. (2024). Proceedings of the Seventh AAAI/ACM Conference on AI, Ethics, and Society (AIES-24).
41 Sustainable AI Coalition.
42 Bolte, L., van Wynsberghe, A. (2025). Sustainable AI and the third wave of AI ethics: a structural turn. AI Ethics 5, 1733–1742.
43 Neuralink.
44 International Conference on the Ethics of Neurotechnology.
45 The Great Inversion.
46 Conference AI for Good Governance.
47 AI for Good.
48 Statement on AI Risk. AI experts and public figures express their concern about AI risk.
49 An Overview of Catastrophic AI Risks.
50 AI for Good.
51 Más de 40 000 artículos científicos han sido coescritos durante la última década por investigadores chinos y estadounidenses sobre temas relacionados con la IA.
52 Al respecto, consultar esta publicación.
53 Blanc, P., Chevalier, H., Corniou, J-P., Lorphelin, V., Volle, M. (2018). Élucider l’intelligence artificielle. Institut de l’iconomie.