¿Y ahora qué?

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Oriente Medio en las orillas del Apocalipsis

La Guerra en Oriente Medio se ha convertido en campo propicio para los armamentos más sofisticados y riesgosos, muchos de ellos autónomos a raíz de la aplicación de la Inteligencia Artificial. Primero fueron diplomáticos y voceros militares chinos quienes plantearon el peligro por el uso de este tipo de armamentos, y luego consejeros de Trump, pero el POTUS 47 y su compañero de aventuras Benjamín Netanyahu parecen decididos a llevarse al mundo por delante, caiga quien caiga (incluso el mundo) y contra viento y marea.

El empleo de la Inteligencia Artificial en la guerra de Oriente Medio no sólo para analizar información y definir objetivos, sino también para tomar decisiones (de hecho, dotando de autonomía a las armas utilizadas), es motivo de advertencias y debates. El tema no es nuevo y se fundamenta en algo evidente: si las partes beligerantes despliegan arsenales regidos por la Inteligencia Artificial, los algoritmos vinculados al armamento autónomo tomarían, en última instancia, decisiones letales sin intervención humana.

Recientemente diplomáticos y voceros militares chinos advirtieron al respecto, en el marco de una escalada de las hostilidades que no parece tener fin. Colocaron en la superficie los peligros implícitos en la falta de regulaciones y destacaron, como preocupación máxima, el empleo de “sistemas de armamentos autónomos letales aptos para definir sus objetivos y atacarlos sin órdenes directas de un operador humano.

O sea que la humanidad estaría, paradójicamente y por decirlo de alguna manera, frente a una extraña deshumanización de la guerra, que según los analistas chinos podría desencadenar una suerte de Apocalipsis regional. Los motivos son varios: la Inteligencia Artificial incorporada a los arsenales de última generación, además de nutrirse de información provista a raudales por el desenvolvimiento de los hechos mismos, reduce los tiempos para la toma de decisiones a milisegundos, cuando no a la mera simultaneidad, heideggereanamente hablando. Y tal circunstancia, dada la ausencia de intervención humana que controle o regule su comportamiento, también eleva a la enésima potencia la posibilidad del error.

Habrá que volver sobre la cuestión referida al error. Por el momento corresponde advertir que los algoritmos son en la actualidad algo así como lo que hace varias décadas fueron las computadoras, presentadas en sociedad como unidades de proceso pero también, apelando a una metáfora sugestiva, como “cajas negras” de una opacidad absoluta donde los usuarios conocían el input y el output, no lo programado y sucedido en su interior. En el caso de los algoritmos, y máxime si están involucrados con armas letales en un campo de batalla, la opacidad y autonomía torna imposible saber por qué decidieron disparar, y hacerlo contra un blanco y no contra otro. Por añadidura, al no registrarse la intervención de ser humano alguno que las haya accionado en el momento de realizar su acción destructiva, se anularía toda responsabilidad jurídica, salvo que se decida responsabilizar a las máquinas por eventuales violaciones de las leyes de la guerra.

De ahí que en pleno desenvolvimiento de las hostilidades en Oriente Medio llegaran voces de alarma desde Beijing, como queda dicho, reclamando normas internacionales para limitar el uso de sistemas autónomos letales y para garantizar que las decisiones críticas en el campo de batalla no salgan del control humano. El panorama pesadillesco de un terminator gravemente multiplicado daría cuenta de la necesidad de limitar el uso de armas autónomas, garantizar la intervención humana en las decisiones de combate para impedir que los algoritmos ocupen su lugar y, en definitiva, impedir la evolución hacia una nueva forma de guerra dominada por máquinas.

Interludio: la razón de las armas

La guerra desatada por Israel y Estados Unidos contra Irán, corolario de la denominada “de los Doce Días” a fines de junio de 2025, aún no sugiere un final próximo ni claridad respecto de su desenlace. A las alarmas por el trámite de la contienda se agregó la evaluación de un asesor clave del POTUS 47, David Sacks, multimillonario y cabal hombre de derecha que se desempeña, precisamente, como coordinador de Inteligencia Artificial y criptomonedas del gobierno, y fuera un destacado colaborador y donante de la campaña presidencial en 2024.

Lo curioso es que Sacks, también sudafricano como su amigo Elon Musk, en estos días haya tomado considerable distancia del ala más extremista y consecuentemente belicista de los republicanos en el poder, criticando la idea de “intensificar la guerra” en base a la sobrevaluación de la respuesta misilística iraní contra Israel y la posibilidad (retomando la estructura de la extraña línea argumental de Marco Rubio) de que Israel ataque a Teherán con un arma nuclear.

Para Sacks, sin embargo, lo cierto es que “Israel está siendo golpeado con más fuerza que nunca en su historia, y solo llevamos dos semanas de esto”. Seguidamente agregó: “Si esta guerra continúa durante semanas o meses bien podría Israel ser destruido.” Y retomando el estilo dominante en la Casa Blanca, sin solución de continuidad aseguró que incluso existe preocupación respecto de que Israel intensifique la guerra apelando a su arsenal nuclear, si bien sus funcionarios en ningún momento sugirieron haber contemplado siquiera el despliegue de armas de ese tipo.

Según el consejero estrella del POTUS 47 en Inteligencia Artificial y criptomonedas, finalmente, habría que “desescalar” el conflicto y lograr algún acuerdo de alto el fuego o de solución negociada con Irán. Lo expresó públicamente y de algún modo parafraseando, pero también interpelando, a Trump cuando planteó que la “excursión” en Oriente Medio habría cumplido sus objetivos antes de lo previsto, y por lo tanto “este es un buen momento para declarar la victoria y retirarnos”. Fueron declaraciones proféticas: poco después el director del Centro Nacional de Contraterrorismo, Joseph Kent, renunció por no poder, en conciencia, “apoyar la guerra en curso en Irán”. Difundió su renuncia en la red social X, donde aseguró que Irán no representaba una amenaza inminente contra los Estados Unidos, y agregó: “Está claro que iniciamos esta guerra a causa de la presión de Israel y su poderoso lobby estadounidense.” El POTUS 47, imperturbable como de costumbre, dijo a la prensa que siempre había pensado que Joseph Kent era débil en materia de seguridad, muy débil. Y concluyó: “Me di cuenta de que es algo bueno que se haya ido.”

La inteligencia por tanteo y error

Estas consideraciones intempestivas del especialista en Inteligencia Artificial y criptomonedas fueron interceptadas al vuelo por declaraciones intensas del POTUS 47 pidiendo, ante el cierre efectivo del Estrecho de Ormuz decidido por Irán, que países “amigos” (China, Francia, Japón, Corea del Sur y Reino Unido) y “el mundo entero” se involucre en el conflicto y mande protección naval. También reclamó específicamente la intervención de la OTAN, de malas maneras como es habitual en él (“Si no hay respuesta o si es negativa, creo que será muy malo para el futuro de la OTAN”, aseguró), y recibió varios rechazos estrepitosos, destacándose los del Reino Unido y Alemania que plantearon que el conflicto en Oriente Medio no encuadra con la finalidad del bloque militar del cual participan, y que cuenta incluso con la membrecía de los Estados Unidos.

Pero a pesar de las advertencias del asesor estrella en materia de Inteligencia Artificial y criptomonedas, que por añadidura coinciden con los mensajes de la dirigencia china sobre la peligrosidad de los sistemas de armamentos autónomos letales, Trump parece convencido de que su guerra no tiene retorno y moviliza más fuerzas, incluso terrestres. A su vez la Inteligencia Artificial ocupa el centro del escenario y salen a la luz las vinculaciones del Pentágono con las grandes corporaciones tecnológicas de Silicon Valley, proveedoras de drones, centros de datos con seguridad militar, desarrollos de Inteligencia Artificial con autonomía en situaciones de combate y redes de satélites orbitando a baja altura para controlar los movimientos de tropas y misiles.

También la guerra cognitiva, vehiculizada por las redes y manifiesta en la enorme cantidad de falsas imágenes y videos generados por Inteligencia Artificial que muestran soldados estadounidenses capturados por Irán, una ciudad israelí en ruinas o embajadas de Estados Unidos en llamas, cuando no la capital iraní, Teherán, convertida en un montón de escombros, ha generado reacciones asombrosas. En tal sentido, y para proteger la “información auténtica” (sic) durante conflictos, la red X anunció que suspendería por tres meses de su programa de ingresos a los creadores que publicasen videos sobre la guerra sin avisar de que fueron generados con Inteligencia Artificial. Pero pese a las buenas intenciones de la red X y por extensión de su propietario, Elon Musk, a quien la revista Forbes consagró por segundo año consecutivo como el hombre más rico del mundo, los investigadores de la desinformación y de la guerra cognitiva se mantienen escépticos.

Está claro que en el campo de batalla se registra, como advirtieron diplomáticos y voceros militares chinos, el empleo de la Inteligencia Artificial para generar y desplegar “sistemas de armamentos autónomos letales”, aptos para definir sus objetivos y atacarlos sin órdenes directas de un operador humano. Los estudiosos del tema relacionaron estas advertencias con lo dicho por el Papa Francisco en una de sus últimas participaciones públicas en un cónclave de altísimo nivel, el 14 de junio de 2023. Había sido invitado por la primera ministra Giorgia Meloni a la cumbre del G7 en Apuria, Italia. Entonces Bergoglio fue y centró su intervención en la Inteligencia Artificial, advirtiendo que es una herramienta “fascinante y tremenda” que debe mantenerse, sin embargo, bajo control humano. En línea con ese razonamiento sostuvo que deben prohibirse las armas autónomas letales, y además que dicha herramienta “fascinante y tremenda” debe mantenerse en el marco de una inspiración ética. En conclusión, dijo a los líderes del G7 que “es urgente replantearse el desarrollo y la utilización de dispositivos como las llamadas «armas autónomas letales» para prohibir su uso, empezando desde ya por un compromiso efectivo y concreto para introducir un control humano cada vez mayor y significativo, porque ninguna máquina debería elegir jamás poner fin a la vida de un ser humano.”

El 9 de julio del año siguiente se reunieron en Hiroshima, Japón, más de 150 participantes de 13 naciones diferentes y 11 religiones, y difundieron un documento (el Llamamiento de Hiroshima), en el cual reafirmaron la necesidad de utilizar la Inteligencia Artificial sólo para el bien de la humanidad y del planeta. También 16 líderes religiosos de diferentes confesiones orientales (incluidos el budismo, el hinduismo, el zoroastrismo y el bahaismo), acompañados por exponentes de las religiones abrahámicas (cristianos, judíos y musulmanes), desde el espacio sobrecargado simbólicamente del Parque Memorial de la Paz en Hiroshima instaron a la comunidad internacional a suscribir el Llamamiento de Roma por una Ética de la Inteligencia Artificial (2020).

El Papa Francisco no viajó, pero envió un mensaje replicando su intervención en el G7, donde planteó que “incluir en la gobernanza de las inteligencias artificiales las riquezas culturales de los pueblos y de las religiones es una clave estratégica” si se quiere gestionar con sabiduría la innovación tecnológica. Y también reiteró que cada vez que la máquina “en algunas formas y con estos nuevos medios” produce “elecciones algorítmicas”, llega a “una elección técnica entre varias posibilidades y se basa en criterios bien definidos o en inferencias estadísticas”. En cambio “el ser humano, por su parte, no sólo elige sino que en su corazón es capaz de decidir” y, por lo tanto, hacer “una valoración práctica”. Y profetizó: “Estaríamos condenando a la humanidad a un futuro sin esperanza si quitáramos a las personas la capacidad de decidir sobre sí mismas y sobre sus vidas, condenándolas a depender de las elecciones de las máquinas.”

Para contribuir a la comprensión general

Los hechos en el campo de batalla y las consecuencias globales trazan las pinceladas más gruesas de un paisaje lúgubre. Y tal vez para dilucidar muy superficialmente algo que implica el futuro, como es el caso del despliegue de sistemas de armamentos autónomos letales, convenga referirse en lenguaje llano a alguna de sus características partiendo de cualquier ejemplo simple hasta el descaro que funcione por analogía grosera, y sin abandonar el sentido del humor pese a la seriedad del asunto.

A esta altura una sonrisa no sería un gesto redundante porque es sabido que el inodoro es un aparato sanitario con un depósito (arriba, o empotrado a la pared) donde se almacena agua. Luego de usar el inodoro, oprimiendo un botón o accionando una palanquita (tirando la cadena, antiguamente) procede la descarga del depósito y la consecuente limpieza de la taza. Entonces ocurren varias cosas: al soltar el botón o la palanquita vuelve el tapón de descarga a su sitio, obturando al depósito, y éste comienza a llenarse nuevamente porque el extremo del brazo del flotante opera una válvula de apertura o de cierre de un cañito para la entrada del agua. Con la descarga (y el descenso del flotante) la válvula se abre, y conforme aumenta el nivel del agua también sube el flotante, hasta que en un punto cierra la válvula del cañito de entrada de agua, de modo que el depósito lleno no desborde y todo quede a la espera de un nuevo usuario.

En este dispositivo clásico, sin otros agregados, se reconoce la automatización mínima y ciertos intercambios de información entre sus componentes, como cuando el flotante “dice” a la válvula cuándo abrirse para que llegue agua y vuelva a llenarse el depósito, y cuándo cerrarse, según lo que infiere del nivel del agua, por ejemplo. Pero lo que no se verifica es algún tipo de autonomía, dado que para funcionar requiere indefectiblemente la intervención humana, el usuario que accione la palanquita o el botón. Para que un inodoro acceda a cierto nivel de autonomía requeriría un juego de sensores capaz de distinguir cuándo empieza y cuándo termina cada visitante, para no ponerlo en funcionamiento accionando la descarga cuando empieza sino cuando termina, y un largo etcétera que no viene al caso. El mecanismo sería complejo y peligroso, porque si tiene lugar un desperfecto (la rotura del flotante, algo frecuente) podría la cisterna desbordar e inundar el baño, y al llegar el personal de mantenimiento repetir, por mérito de los sensores, la operación de “tirar la cadena” indefinidamente, profundizando todavía más el zafarrancho. Si quienes van a repararlo carecen de una vía de acceso fuera del alcance de los sensores, enfrentarían un serio error de diseño que dificultaría aún más su intervención.

La automatización ya es parte sustantiva del presente estadio de la civilización, al tiempo que la autonomización va en camino de serlo. En lo que hace a la industria armamentística, los riesgos son enormes porque al igual que en el ejemplo del inodoro díscolo, los arsenales operando sin intervención humana pueden ser doblemente dañinos, y en caso de un error de diseño provocar efectos que podrían colocar al mundo en las orillas del Apocalipsis. De ahí los temores y recomendaciones no solamente de regulación de este tipo de armas, sino también de su prohibición.

Finalmente, respecto de los temores ante posibles errores de diseño en sistemas de armamentos autónomos letales, siempre es aconsejable mantener presente el golpe al narcisismo que fue el problema del año 2000, o problema informático Y2K, un error de software a causa de que los programadores omitieron la centuria en el año para el almacenamiento de fechas, en principio con la idea de economizar memoria. Cuando se tomó conciencia del problema, o sea, cuando se comprendió que los dos ce­ros finales del recién llegado año 2000 iban a sugerir a los sistemas que pudo haberse produ­cido una arruga en el tiempo para volver desde el año 1999 al año 1900, por ejemplo, y que en esas condiciones era desaconsejable seguir funcio­nando, cundió el estupor. Y también se especuló con situaciones dramáticas, como computadoras de un avión en vuelo induciendo el apagado de los motores, o que funcionando con medidores de tiempo enloquecidos se abrieran o cerraran re­presas, se des­truyeran depósitos, se clausuraran puertos o se lanzaran misiles con cabezas nucleares. Pero el Y2K pudo resolverse invirtiendo ingentes recursos, y cuando llegó el momento no hubo que lamentar grandes daños humanos o pérdidas materiales. Y algo más: eso fue posible porque la automatización, pese a todo, carecía de autonomía.

Un comentario sobre «Oriente Medio en las orillas del Apocalipsis»

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *