( por Alfredo Moreno) El poder algorítmico y el control de la Inteligencia Artificial en manos de la oligarquía del Silicon Valley socaban las democracias, entonces los Estados Soberanos deben actuar.
Los algoritmos se han vuelto omnipresentes en nuestras sociedades. Pensemos en las tareas administrativas del diagnóstico médico, la asignación de alumnos a las escuelas o la determinación del derecho a la seguridad social y a las prestaciones laborales. Estas políticas públicas pueden mejorarse tanto en calidad como en eficiencia, pero también es obvio que las consecuencias de los algoritmos inexactos pueden ser desastrosas. Lo sabemos por la dura experiencia de casos en los que no se ha mantenido la transparencia ni el control. Se han puesto en riesgo vidas humanas, han caído gobiernos y la soberanía se ha cedido voluntariamente a organizaciones privadas no democráticas. Ya no podemos fingir que todo esto ocurre en una esfera digital distante. Sucede aquí mismo, en el corazón de nuestra sociedad.


La conexión permanente y la toma de datos que se deriva, busca la conversión de las vidas y vinculaciones en una relación de explotación, para generar ganancias. Se convierte en rentable toda la especie humana, mediante la colonización de datos. Es una tendencia determinante en la evolución del capitalismo. El colonialismo de datos es la captura y control de la vida humana[1]
El modelo de sociedad del conocimiento, motorizado por las oligarquías tecnológicas del Silicón Valley, configura el Estado digital actual como un modelo operacional que pretende que el comportamiento computacional como el comportamiento humano deben estar integrados en sus infraestructuras de tecnologías. En ellas, se trabaja con procesos describibles y sistemáticamente reejecutables formalizados mediante algoritmos y datos.


Esta ingeniería es muy útil para el funcionamiento de tuberías hidráulicas, dispositivos de transmisión de datos, motores de automóviles y demás aplicaciones de la vida industrial y de transacciones comerciales y documentales.
Los especialistas de este sector dinamizan las innovaciones con sentido de mercado. S in embargo, cuando el comportamiento social y emocional de las personas es también describible (representable), calculable y programable estamos ante una creciente desconfianza en las políticas públicas que soportadas en algoritmos presentan riesgos que debilitan fuertemente la democracia.
Los países más avanzados y referentes en digitalización de los servicios del Estado a la población, caso Suecia y Estonia, muestran gran eficiencia en tiempos operacionales de las prestaciones públicas mediante plataformas digitales e IA, pero una creciente distancia emocional con las personas. Como afirma Robert Kurz en su trabajo La ignorancia de la sociedad del conocimiento. (2002), estamos ante la materialización de las visiones de terror de las modernas utopías negativas tecnológicas.
La promesa de eficiencia tecnológica y la «inocencia» del solucionismo tecnológico esconde un proyecto más profundo: la idea de un Estado reemplazado por algoritmos. Lo que queda en juego no es solo la privacidad de la población, sino la capacidad misma del Estado de conducir sus políticas en áreas vitales.
Con la transformación digital de la administración pública, la automatización de la toma de decisiones públicas y la creciente «datificación» de los sistemas de bienestar, se pone en riesgo los principios fundamentales de libertad de información en una sociedad democrática.
Cuando la administración pública se convierte en una caja negra, mediante el uso de software propietario comercial, incluso para las tareas gubernamentales más básicas, la externalización de decisiones políticas a programadores y el ocultamiento de decisiones cruciales tras un código impenetrable, oscurece tanto la transparencia como supervisión pública. El resultado final de esta trayectoria, es una burocracia oculta tras algoritmos, fuera del alcance del seguimiento y control democrático.
¿Qué hacer?
El pasado 11 de noviembre, la Comisión de Ciencia, Tecnología e Innovación productiva de la Cámara de Diputados, presidida por el diputado Daniel Gollán, realizó la octava reunión con diecisiete diputados de los diferentes bloques de representación política para debatir el proyecto de ley marco normativo y de desarrollo de los sistemas de IA, proyecto que comenzó a desarrollarse a partir de 2024. El proyecto plantea un marco legal para el desarrollo, implementación y uso responsable de sistemas de IA en la Argentina y fue debatido y consensuado con representantes de universidades nacionales, fundaciones, cámaras y empresas del sector, y propuestas presentadas por diputados que integran la comisión y colegios de profesionales. El desarrollo de la reunión puede verse en este video (NdelR: Recomiendo su seguimiento desde el minuto 28)
El proyecto propone la creación un marco para desarrollar estrategias orientadas al cuidado de la implementación de la IA en el país, atendiendo a los siguientes objetivos:
- Proporcionar un marco de valores, principios y acciones para orientar la acción de los organismos estatales.
- Orientar y respaldar a las personas, grupos, comunidades, instituciones y organizaciones del sector privado a fin de asegurar la incorporación de los valores, principios y acciones de la presente ley.
- Proteger, promover y respetar los derechos humanos y las libertades fundamentales, la dignidad humana, la igualdad y equidad; salvaguardar los intereses de las generaciones presentes y futuras; minimizar el impacto ambiental; y respetar la diversidad cultural en todas las etapas del ciclo de vida de los sistemas de IA.
- Fomentar el diálogo multidisciplinario y pluralista entre todas las partes interesadas y la concertación sobre cuestiones éticas y morales relacionadas con los sistemas de IA.
- Promover el acceso equitativo a los avances y los conocimientos en el ámbito de la IA y el aprovechamiento compartido de los beneficios.
- Promover el desarrollo y la adopción de los sistemas de IA en el estado nacional y los sectores productivos del país que lo requieran.
El debate presenciado me lleva a las siguientes preguntas: ¿A quién beneficia que en la Argentina la implementación de aplicaciones y centro de datos para la IA continúe desregulada? ¿Por qué los diputados oficialistas expresan su necesidad de contar con más tiempo porque no saben que hay que regular? ¿Por qué no argumentan en el sentido de colaborar con un debate democrático y con fundamentos científicos y técnicos?
El Gobierno argentino presentó una supuesta megainversión de OpenAI y Sur Energy por valor de veinticinco mil millones para instalar un «data center para procesar IA» en la Patagonia Argentina. Dicha inversión está en el marco del Régimen de Incentivos para Grandes Inversiones (RIGI) que asegura jurídicamente la supuesta inversión por un período de hasta treinta años.
Estos centros de datos, al menos a escala actual, son actores relativamente nuevos en el sistema energético global. Se estima que su consumo eléctrico actual, 500 megavatios (MW) ascenderá a unos 415 MW teravatios hora (TWh), lo que representa aproximadamente el 1,5 % del consumo eléctrico mundial medido en 2024.
El RIGI exige un 20 % de bienes y obras a proveedores locales, condicionado a que exista oferta disponible y a «precio/calidad de mercado». No impone obligaciones robustas de transferencia tecnológica ni metas de empleo calificado o de servicios locales. El país pone la tierra, la energía y los beneficios fiscales, sin garantías de fortalecimiento industrial.
Detrás de las cifras hay un esquema que puede perjudicar seriamente los intereses nacionales y configurar en el sur latinoamericano La Potosí del siglo XXI.
Las tecnologías digitales o las conocidas tecnologías de informática y comunicaciones (TIC)) son fundamentales para el buen funcionamiento de las sociedades modernas, pero la forma en que actualmente se organiza su desarrollo y despliegue promueve la centralización económica y una dinámica donde «el ganador se lo lleva todo», que va en contra del interés público. De ahí la importancia de contar con herramientas legislativas que permitan cuidar los derechos soberanos y su población.
Dado el alto costo de desarrollar estas tecnologías, su relevancia y su huella ecológica, disponer de una ley marco de IA permitiría a la Argentina crear ámbitos de trabajo orientados a garantizar regulaciones y controles que promuevan el desarrollo sostenible de la IA. Trabajar con un horizonte de soberanía digital requiere de un plan para un modelo alternativo donde los Estados intervengan y diseñen instituciones públicas multilaterales con autonomía de gobiernos específicos que puedan proporcionar infraestructuras y servicios digitales esenciales como servicios públicos o bienes comunes construidos a través de la cooperación internacional. La potencia social, cultural, industrial y política de las tecnologías digitales y la IA no puede seguir regulada por «el mercado» o que Argentina continúe alineada la los intereses que promueve el gobierno de Trump.
La Recomendación sobre la Ética de la Neurotecnología, aprobada por los 194 Estados miembro de la Unesco en noviembre de 2025, constituye el primer instrumento internacional que define reglas globales para tecnologías que pueden leer, registrar o modular la actividad cerebral.
El documento reconoce oficialmente la existencia de los «datos neuronales» —información capturada directamente del sistema nervioso— y los ubica en la categoría más alta de sensibilidad, por encima incluso de los datos biométricos tradicionales. Según Unesco, este avance responde a que la actividad cerebral permite inferir emociones, rasgos de personalidad, estados mentales, intenciones o patrones cognitivos, incluso sin expresión verbal o física.
En palabras del organismo, la humanidad está ingresando en una etapa en la cual la mente se convirtió en «un espacio que requiere protección jurídica explícita». Según Unesco, la aceleración tecnológica desplazó el debate ético: el desafío ya no es «si la mente puede ser leída», sino quién controla esa capacidad y con qué autoridad para hacerlo.


