Este es un blog dedicado al análisis político sobre diferentes temáticas como ciencia, tecnología, derechos humanos, democracia, elecciones, políticas públicas, educación, epistemología,filosofía y muchas más. El cacomixtle es un mamífero originario de México y América Central, un animal nocturno, sigiloso e inteligente. En muchos pueblos originarios, el cacomixtle representa la estrategia, la astucia y la independencia. Es así que buscamos analizar desde los elementos políticos los distintos fenómenos de la ciencia y los derechos humanos desde una mirada crítica y contestataria, tal como el cacomixtle se mueve con agudeza. Este espacio representa uno alternativo, autónomo y resistente, lejos de los discursos convencionales.
Por Guillermo S. Tovar S.
La inteligencia artificial (IA) ha dejado de ser un tema de ciencia ficción para convertirse en un eje central de nuestro día a día. Desde asistentes virtuales hasta algoritmos capaces de crear arte o manipular discursos políticos, la IA redefine cómo vivimos, cómo trabajamos y hasta cómo nos relacionamos. Pero con cada avance surgen preguntas incómodas: ¿Estamos construyendo herramientas para emanciparnos o para autodestruirnos? , ¿para reconstruir el tejido social o para desgarrarlo más?
Ese debate no es nuevo. Desde principios de la década pasada, dos titanes de la tecnología, Elon Musk y Mark Zuckerberg, encarnaron posturas opuestas: el primero, advirtiendo sobre los riesgos existenciales de la IA; el segundo, defendiendo su potencial para mejorar la humanidad. Hoy, a la luz de los recientes desarrollos —como el auge de ChatGPT o, más recientemente, DeepSeek, las regulaciones propuestas por la Casa Blanca o el uso de IA en conflictos geopolíticos—, revisitar esta controversia nos obliga a preguntarnos: ¿Quién tiene razón?, ¿ambos?, ¿ninguno?, ¿quién se beneficia?, ¿qué nuevo orden geopolítico se construye?
En 2014, Elon Musk comparó la IA con "invocar a un demonio", advirtiendo que, sin regulación global, podríamos desatar fuerzas fuera de control. Su temor no era abstracto: hablaba de armas autónomas, sistemas capaces de tomar decisiones letales sin intervención humana. Junto a Stephen Hawking y otros, Musk impulsó los Principios de Asilomar en 2017, 23 directrices éticas para guiar el desarrollo de la IA, desde la transparencia hasta la prohibición de armas autónomas. Curioso que ahora es el más grande impulso de la desregulación.
Por su parte, Mark Zuckerberg tildó de "irresponsables" las advertencias apocalípticas. En 2016, presentó Jarvis, un asistente doméstico de IA, y argumentó que la tecnología es neutral: su impacto depende de cómo la usemos. Para Zuckerberg, frenar la IA significaría perder oportunidades en medicina, educación o conectividad global.
Los Principios de Asilomar, redactados en una conferencia organizada por el Future of Life Institute (FLI) —financiado en parte por Musk—, reunieron a científicos, filósofos y empresarios. Entre sus puntos clave destacan:
Sin embargo, críticos señalan que estos principios son ambiguos y carecen de mecanismos de aplicación (recientemente se ha escrito sobre la imposibilidad de entrenar las IAs con todos los parámetros morales o éticos de un ser humano). Además, la presencia de figuras como Musk o investigadores vinculados a empresas como IBM o Tesla plantea dudas: con esta iniciativa, ¿buscan proteger a la humanidad o blindar intereses corporativos?
La relación entre la oligarquía tecnológica —encabezada por figuras como Elon Musk, Mark Zuckerberg y Jeff Bezos— y el poder político en Estados Unidos ha dejado de ser un tema marginal para convertirse en un eje crítico de análisis. En un contexto donde Donald Trump impulsa órdenes ejecutivas que violan derechos humanos (como la política de "Tolerancia Cero" que separó familias migrantes o el reciente reforzamiento de medidas fronterizas brutales), surge una pregunta incómoda: ¿Cómo contribuyen estas empresas y sus líderes a normalizar, financiar o incluso beneficiarse de políticas que atentan contra la dignidad humana?
Aunque Musk, Zuckerberg y Bezos han tenido roces públicos con Trump —especialmente Bezos, dueño del Washington Post, medio crítico del expresidente—, sus acciones tras bambalinas revelan una relación más compleja:
Las tecnologías promovidas por estos magnates no son neutrales. En el contexto de las órdenes ejecutivas de Trump, que criminalizan la migración y militarizan fronteras, la IA se ha convertido en un arma de control:
Estas herramientas, diseñadas por empresas que firman pactos éticos como los Principios de Asilomar, contradicen sus promesas de "IA para el bien común". ¿Dónde queda el principio de "evitar daños" cuando sus tecnologías vigilan, separan y criminalizan?
Este cinismo no es casual, pues los Principios de Asilomar, aunque bienintencionados, carecen de mecanismos para sancionar a quienes los violan. Son ética de pantalla, no de acción.
Las recientes órdenes ejecutivas de Trump —como el despliegue de tropas en la frontera sur o la reactivación de centros de detención masiva, o la imposición de aranceles para presionar negociaciones— no solo violan derechos humanos, acuerdos internacionales y la soberanía de países latinoamericanos, sino que dependen de infraestructura tecnológica financiada por esta oligarquía:
Esto va más allá de un conflicto ético, es el renovado modelo de negocio capitalista (algunos sugieren tecnofeudalismo o capitalismo de plataforma). La industria de la seguridad fronteriza genera $55 mil millones anuales en EE.UU., y empresas como Amazon, Palantir y Anduril (fundada por exingenieros de Musk) son sus mayores beneficiarias.
La oligarquía tecnológica ha creado un sistema donde la IA sirve tanto para "salvar al mundo" (según sus narrativas) como para destruir derechos básicos. Su apoyo tácito —o participación— en políticas represivas de Trump expone tres crisis:
La pregunta no es si la IA será regulada, sino quién lo hará: ¿Gobiernos capturados por intereses corporativos, o ciudadanos organizados que exigen transparencia? Mientras Musk, Zuckerberg y Bezos sigan financiando think tanks y políticos que normalizan la represión, su retórica de "IA ética" seguirá siendo eso, pura y llana retórica.
¿Hasta cuándo permitiremos que los dueños de la tecnología definan los límites de nuestros derechos?
Referencias clave:
1. AI Now Institute. (2023). Corporate power and AI: The case for accountability. https://ainowinstitute.org
2. Future of Life Institute. (2017). Asilomar AI principles. https://futureoflife.org/open-letter/ai-principles/
3. Mijente. (2022). No tech for ICE: Resistencia ante la vigilancia fronteriza. https://mijente.net/notechforice
4. Snow, J., & Koebler, J. (2020, octubre 8). Amazon’s face recognition falsely matched 28 members of Congress with mugshots. The Intercept. https://theintercept.com/2020/10/08/amazon-rekognition-facial-recognition-congress-mugshots/
5. The White House. (2023, octubre 30). Executive order on the safe, secure, and trustworthy development and use of artificial intelligence. https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/
6. Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.