En el año con más comicios de la historia humana el orden establecido ataca con la Inteligencia artificial (IA) generativa a funcionarios e instituciones electorales. En enero, los votantes de New Hampshire recibieron una llamada automática de Joe Biden. Excepto que no fue Joe Biden. De esto discute gente que, como Altman, es la que vio el Presidente en Silicon Valley. De esto discute y en la Argentina no se informa. Excepto en Y ahora qué?
El martes 28 de mayo en la gira a Estados Unidos que emprendió el presidente de la Nación Javier Milei, impulsada por las enjundiosas razones de fondo geopolíticas del perche mi piace, tocó San Francisco y se reunió con Sam Altman, il capo di tutti i capi en Inteligencia Artificial (IA). Es el mentor del ChatGPT. En la cuenta oficial de X del primer magistrado posteó: “Aquí foto con Sam Altman luego de una maravillosa reunión sobre AI y las enormes posibilidades que brinda una Argentina libertaria…!!! VIVA LA LIBERTAD CARAJO”.
Demian Reidel, que está afamado de gran conocedor de la IA, es un físico con posgrado en economía que está a cargo del Consejo de Asesores Económicos de la presidencia. Viajó tres días antes que Milei a San Francisco. A la salida del encuentro de la delegación oficial argentina con Altman, explicó el escenario que prometen esas “enormes posibilidades”. Consignó Reidel que “como siempre en Europa hacen todo mal, sobrerregulan y están matando toda la innovación. Por eso no hay grandes empresas de esto en Europa: que van a hacer nada. [En] China van a hacer lo que se les dé la gana (…) En Estados Unidos lo está tratando el Congreso, que no saben, no tienen idea como regular esto”. Milei ante una requisitoria periodística acerca de cuál era el objetivo de la visita al templo de la IA respondió: “Crear el cuarto polo de inteligencia artificial del mundo en Argentina”.
Y es factible, según Reidel, que la Argentina en materia de la IA -“el tema más importante del mundo”, resaltó- sea el cuarto mosquetero dado que el nuestro es “un país adonde hay grandes extensiones de tierra, con clima frío y reserva de energía, y adonde se están impulsando las ideas de la libertad, de baja regulación, de libre empresa, y todo lo que quiere hacer él (Milei)”.
Estos pibes son unos bananas bárbaros, con una fe a prueba de cualquier realidad. ¿Así que se esperanzan en abrirles las puertas que los países desarrollados les cierran y se confían en que los países desarrollados -donde están los mercados solventes que hacen al interés primordial de estas corporaciones- se van a quedar en el molde? O son muy boludos o están reescribiendo “El Jardinero Fiel” de John LeCarré: en vez en clave de prueba farmacológica que toma como conejitos de India a los africanos, sería lo mismo pero con IA en la Argentina.
Al sumo cuidado con que los países tratan la IA, Milei los quiere mejicanear con el ¡Viva la Pepa! Y esto va bastante más allá del encule y juicio de Scarlett Johansson a la empresa de Altman porque usó su voz sin permiso, y encima luego de recibir la negativa de la estrella. Además de la privacidad y el ataque a la propiedad intelectual hay toda una discusión –y escarceos- sobre el impacto de la IA en el menoscabo del ejercicio de la democracia. Nada más y nada menos.
Buena prueba de ellos son los encontronazos en la cúpula de OpenAI, en la que talla como factótum Altman. Es una de las corporaciones clave (que se cuentan con los dedos de una mano) en el avanzadísimo sector de la Inteligencia Artificial (IA). Ese enfrentamiento interno de la corporación ha sacado chapa de botón de muestra de un entrevero global de proporciones.
¿Qué entrevero? Este 2024 bien podría calificarse –cuantitativamente- como el año de la democracia. En términos cualitativos no tanto, al menos como perspectiva al considerar el avance global de la ultraderecha -cuya hilacha no es muy del vox populi, vox dei– y las consecuencias nada claras –más bien oscuras- de la irrupción de la IA en las elecciones, la ceremonia democrática por antonomasia.
Unas semanas atrás renunció Ilya Sutskever como científico jefe de OpenAI. Sutskever cofundó OpenAI con Sam Altman. Hace unos meses Sutskever lo quiso echar del puesto de CEO a Altman. No prosperó. Junto a Sutskever también se fue Jan Leike, un ejecutivo de peso en OpenAI. Sutskever y Leike supervisaban el llamado equipo de súper alineamiento de la corporación, que tenía la tarea de auditar que los productos que se hagan no se convirtieran en una amenaza para la humanidad. A modo de despedida escribió Jan Leike en la red social X «La cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes». Altman y el presidente de OpenAI, Greg Brockman, explicaron su enfoque sobre la seguridad de la IA en una publicación conjunta unos días después. No despejaron las dudas de cualquier malpensado de que si hay buena plata con el software de IA y este –por caso- arruina la democracia, adelante con los faroles.
La democracia
Conforme un relevamiento de Chequeado en base a datos oficiales de los organismos electorales, “la Fundación Internacional para Sistemas Electorales (IFES) y la consultora Anchor Change- (…) El 2024 será un súper año electoral. Por primera vez, cerca de 100 países de todo el mundo celebrarán comicios “durante los 12 meses (…) Seis países de América Latina elegirán presidente y, además, habrá comicios presidenciales en los Estados Unidos (…) De acuerdo a los últimos datos del Banco Mundial, este escenario implica que la mitad de la población del planeta, un estimado de 4.000 millones de personas, vive en los países donde habrá comicios en 2024. De este total, según cálculos compartidos por el Foro Económico Mundial, alrededor de 2.000 millones estarán habilitadas para ejercer su voto”. La geografía mundial está parcelada en 197 Estados, de los cuales la ONU, por cuestiones que no vienen al caso, reconoce 193 como tales. Están asentados en 6 continentes. África alberga a 54 países, Europa 49, Asia 48, América del Norte 23, Oceanía 16 y Sud América 12.
Para el semanario británico The Economist “2024 es el año electoral más importante de la historia”, desde que se les dio a los seres humanos por abusar de la estadística, según definió a la democracia el sarcasmo borgiano. Pero la democracia es más que votar dicen los ingleses e informan que según sus cálculos, “está previsto que 76 países celebren elecciones en las que todos los votantes tengan la oportunidad de sufragar en 2024. De los 71 incluidos en el Índice de Democracia de EIU (Economist Intelligence Unit), 43 disfrutarán de votos totalmente libres y justos (27 de los cuales son miembros de la UE); los otros 28 no reúnen las condiciones esenciales para una votación democrática. Ocho de los diez países más poblados del mundo (Bangladesh, Brasil, India, Indonesia, México, Pakistán, Rusia y Estados Unidos) celebrarán elecciones en 2024. En la mitad de ellos, las elecciones no son libres ni justas y muchos otros requisitos previos de la democracia, como la libertad de expresión y de asociación, están ausentes”.
El domingo 2 de junio hay elecciones en México, en noviembre en Indonesia y los Estados Unidos. La India tiene un proceso electoral que lleva tres meses y finaliza en la primera semana de junio. En el resto de ese listado de los ocho países ya hubo elecciones y no se aquietaron las preocupaciones de diversa índole respecto a la salud de la democracia. La de la primera semana de junio para elegir legisladores al parlamento europeo agrega –en el listado de desasosiegos – el avance de la ultraderecha.
La astucia de la Razón
Volviendo al universo borgiano, un numen del periodismo conservador criollo reflexionó sobre ese desagradable arte de injuriar que práctica el actual primer mandatario, a partir de cómo lo situara el escritor de laberintos y espejos relatando la Historia de la Eternidad en la cabeza de “El hombre de Corrientes y Esmeralda [quien] adivina la misma profesión en la madre de todos”.
Esa genealogía común alcanza a la Astuta Razón, a la cual la óptica filosófica la dotó de la capacidad de darles a conocer a los seres humanos la evolución del conocimiento haciéndoles morder el polvo. Primero dunga-dunga. De manera que el mote de Astuta es una indudable gentileza desde Corrientes y Esmeralda.
Funcione o no así la evolución del conocimiento, lo de la Astuta Razón ma se non è vero, è ben trovato y esa multitud de elecciones en la novísima inteligencia artificial generativa tiene un elemento con la potencialidad de convertirse en un enemigo clave que en el ámbito del territorio digital le propine una terrible derrota al acto de votar. Ya dicho: primero dunga-dunga.
Lo que se teme en todo el mundo es que mediante los ingenios que se crean por medio de IA se invada y ocupe impunemente el territorio digital con la infantería del embuste e induzcan al sufragista a votar por intereses que no son suyos.
El miércoles 29 el presidente Milei dio una conferencia en la Universidad de Stanford. En su opinión como “Saporiti nunca se equivoca”, los mercados tampoco. En ningún caso hace falta que el Estado intervenga, pues no hay fallas en el funcionamiento libre de la oferta y la demanda. Fue muy criticado por argumentar que las eventuales hambrunas se arreglan solas. Pero de la IA ni mu. Ocurre que en Stanford se publica el Foundation Model Transparency Index. El índice analiza a 10 desarrolladores de modelos líderes de IA mediante 100 indicadores que incluyen acceso a datos, confiabilidad del modelo, políticas de uso e impactos posteriores. Destaca –con diplomacia-, que bastantes modelos son “extremadamente opacos”. Nadie de la delegación oficial argentina en Stanford se vio obligado a explicar la compatibilidad entre la libertad para la IA que proponen y la opacidad que amenaza.
Los Estados Unidos
Las metidas de pata que puede inducir en los comicios el infierno visto, oído y sentido como paraíso por medio de la IA tiene de lo más preocupados a la trama de funcionarios encargados de las elecciones presidenciales norteamericanas del próximo noviembre. Sobre eso informó el semanario “Politico”, uno de los medios más transitados en Washington DC.
El artículo de Politico describe situaciones en las que “una llamada falsa de un secretario de Estado (asimilables a nuestros ministros de Gobierno) diciéndoles a los funcionarios encargados de la elección que no son necesarios el día de los comicios. Un vídeo falso de un director electoral estatal triturando papeletas antes de contarlas. Un correo electrónico enviado a un funcionario electoral del condado que intentaba realizar phishing para iniciar sesión en su base de datos de votantes (…) A los funcionarios electorales les preocupa que el aumento de la IA generativa haga que este tipo de ataque al proceso democrático sea aún más fácil antes de las elecciones de noviembre, y están buscando formas de combatirlo”.
Uno de los obstáculos importantes para salir victorioso en esta pelea por no malograr uno de los actos fundacionales de la democracias –nada más y nada menos- es que “Los funcionarios electorales son objetivos excepcionalmente vulnerables: son lo suficientemente oscuros como para que nadie sepa quiénes son realmente, por lo que, a diferencia de una figura falsa prominente (como Joe Biden o Donald Trump), es posible que la gente no esté atenta a algo que parezca extraño. Al mismo tiempo, son lo suficientemente importantes como para falsificarlos y lo suficientemente públicos como para que sea fácil de hacer”, consigna Político.
¿De Waterloo a Waterpeor?
Si los gringos con todos los recursos que tienen están más que preocupados, el resto del planeta tiene que andar con la guardia muy alta en vista de que el orden establecido tiene todas las de ganar. Siempre los que propugnan un cambio se encuentran con que las mayorías favorecidas por lo que prometen los nuevos tiempos son reacias a dar apoyo. En cambio, las minorías que pierden los privilegios saben bien qué arroja el balance y pelean con uñas y dientes para conservar lo amenazado. Ahora tiene como gran aliada posible a la IA generativa.
Es así como los funcionarios electorales norteamericanos ya han pasado los últimos años luchando por descubrir cómo combatir un entorno electoral cada vez más tóxico en el que la desinformación ha alimentado la desconfianza pública en el sistema electoral y las amenazas físicas. Ahora les preocupa que la IA haga que ese desafío sea aún más inmanejable. ¿Tendrán éxito? Politico señala al respecto que los funcionarios electorales –que pese a todo gozan de prestigio entre las ciudadanía norteamericana- “dicen que ya están acostumbrados a luchar contra la desinformación; basta con mirar la marejada de dudas y teorías conspirativas desde 2020, alimentadas por las mentiras del ex presidente Donald Trump sobre el fraude electoral”.
Los escépticos podrían retrucar que una golondrina no hace verano. Además, la tecnología ha mejorado tan rápidamente que la gente a menudo no se da cuenta de la facilidad y eficacia con la que la IA puede hacer pasar al Guasón por Batman. El parisino Le Monde, en una larga nota dedicada a la IA, señala que “Los investigadores de encuestas juegan a los piratas informáticos para romper las barreras de la inteligencia artificial generativa. Se dirigen a tres vulnerabilidades: datos, modelos y aprendizaje. Utilizando envenenamiento de datos, instrucciones inteligentes o incluso invisibles, engañan al software. ¿Frágil, IA?”
La nota de Le Monde da cuenta que “desde enero de 2023, se han publicado más de doscientos posteos en el sitio Arxiv.org que proponen ataques, contraataques, secuestros u otros jailbreaks, un término que designa la hazaña de romper los bloqueos de la IA. Un maremoto que bien podría socavar el capital fiduciario de herramientas como ChatGPT, Bard, Midjourney (…) Desde los albores de la informática, se ha repetido la misma historia del gato y el ratón. Los “hackers” encuentran fallas en los sistemas, que se emparchan hasta que se encuentran otras nuevas”.
El sitio GZEROIA resumió un informe de la organización británica sin fines de lucro Center for Countering Digital Hate (Centro para Contrarrestar el Odio Digital, CCDH) en el que se concluye que las salvaguardias electorales de la IA no son buenas. El CCDH utilizó Midjourney, ChatGPT de OpenAI, DreamStudio de Stability.ai e Image Creator de Microsoft para realizar pruebas en febrero, vinculando diferentes indicaciones de texto relacionadas con las elecciones estadounidenses. El grupo descubrió que podía eludir las protecciones de las herramientas en un sorprendente 41% de las veces.
Las imágenes que crearon contenían escenas con Donald Trump siendo llevado esposado, a Trump en un avión con el presunto pedófilo y traficante de personas Jeffrey Epstein (se suicidó en la cárcel en 2019), y a Joe Biden en una cama de hospital. Para GZEROIA lo examinado por el CCDH es otra prueba más –entre las contundentes- de que “La IA generativa ya está desempeñando un papel tangible en las campañas políticas, especialmente ahora que los votantes acuden a las urnas para las elecciones nacionales en 64 países diferentes este año (…) Las protecciones fallan casi la mitad de las veces y simplemente no son suficientes”.
El chatbot Gemini de Google mediante IA generativa creo imágenes ahistóricas de soldados de asalto nazis negros y asiáticos. La corporación se disculpó.
ElevenLabs, una nueva empresa de software, utiliza inteligencia artificial para simular un lenguaje que suena natural. En enero, los votantes de New Hampshire recibieron una llamada automática de Joe Biden. Excepto que no fue Joe Biden. Era una falsificación generada por IA hecha con ElevenLabs. En respuesta, ElevenLabs prohibió la cuenta responsable y en febrero cambió su política sobre la suplantación de figuras públicas. Si bien la compañía ya prohibió la suplantación de figuras privadas sin su consentimiento, o cualquier cosa destinada a dañar a otros, ElevenLabs agregó una lista de voces «prohibidas», específicamente prohibiendo la suplantación de candidatos presidenciales o de primer ministro en los Estados Unidos y el Reino Unido. Verdad que ese software de IA ayudó al ex primer ministro paquistaní Imran Khan a pronunciar un discurso de campaña desde prisión, pero también causó problemas al candidato político indonesio Anies Baswedan, víctima de un audio que pretendía ser un partidario político reprendiéndolo. Además de difundir desinformación, estas herramientas también podrían usarse para romper las medidas de autenticación de voz utilizadas por los bancos y otras instituciones financieras.
La buena voluntad
«Todas estas herramientas son vulnerables a las personas que intentan generar imágenes que podrían usarse para respaldar acusaciones de elecciones robadas o para disuadir a la gente de ir a los lugares de votación», dijo Callum Hood del CCDH a la BBC. «Si hay voluntad Por parte de las empresas de IA, pueden introducir salvaguardias que funcionen”.
En el mismo sentido el consultor condal Antoni Gutiérrez-Rubí –de amplia actuación en diferentes elecciones argentinas- en una columna de opinión publicada en un diario porteño, manifestó que en lo que respecta al uso avieso de la IA “ningún país del mundo ha sido capaz de poner en vigor una ley que regule su aplicación de manera amplia. Eso significa que, en el año con más elecciones de la historia, dependemos en buena medida de los controles que se autoimpongan las empresas tecnológicas y la propia esfera política. Lamentablemente la regulación democrática va lenta, llega tarde y parece insuficiente”.
“Los controles que se autoimpongan las empresas tecnológicas” -aclara el consultor condal- no implican “el compromiso de prohibir o retirar cualquier contenido falso creado con IA. Las empresas se limitan a indicar que compartirán conocimientos sobre el tema con la idea de que se identifiquen y etiqueten este tipo de publicaciones y se sepa responder cuando se viralizan. Las respuestas finales seguirán dependiendo del juicio de cada compañía”.
De acuerdo a Gutiérrez-Rubí “Esta compleja realidad obliga a la ciudadanía a aumentar la cautela verificando los contenidos antes de tomarlos en serio y compartirlos. La tarea, sin embargo, no es sencilla. Según un estudio de Plus One, las personas tienen dificultades para reconocer 1 de cada 4 deepfakes de voz. Con las imágenes pasa algo similar. (…) Los partidos deben considerar este escenario en sus estrategias para diseñar acciones y métodos específicos para el control de daños y la denuncia de fakes (…) en sociedades polarizadas, estas publicaciones se diseminan rápido y la confianza en los actores políticos es mucho más frágil. Las campañas deben involucrar a los ciudadanos y a organizaciones independientes en estos esfuerzos (…) Ante la falta de regulaciones efectivas y los insuficientes esfuerzos de las empresas tecnológicas, las campañas se han convertido en competencias por la verdad. Pasamos de quién tiene la razón a quién dice la verdad”.
Y por lo visto no va ser fácil distinguir razón de verdad a tenor también de lo reflexionado por el Aziz Huq en Foreign Affairs, en tanto habitamos “Un mundo dividido por la inteligencia artificial” dado que la geopolítica obstaculiza la regulación global de una tecnología tan poderosa. Huq rememora que “En una era de vacilante resolución global respecto de otros desafíos, las grandes potencias inicialmente habían dado un tono optimista al lidiar con la IA. En Beijing, Bruselas y Washington parecía haber un amplio acuerdo en que la IA puede causar daños potencialmente graves y que se necesitaba una acción transnacional concertada”.
Pero duró poco. Aziz Huq entiende que “los países no están tomando este camino. En lugar de alentar un esfuerzo colectivo para establecer un marco legal claro para gestionar la IA, los Estados ya están involucrados en conflictos sutiles y oscuros sobre los fundamentos materiales e intangibles de la IA. El orden jurídico resultante se caracterizará por la fractura y la distancia, no por el entrelazamiento. Esto hará que los países sospechen unos de otros, socavando la buena voluntad. Y será difícil promover propuestas para una mejor gobernanza global de la IA. Como mínimo, el régimen emergente hará que sea más difícil recopilar información y evaluar los riesgos de la nueva tecnología. Lo que es más peligroso, los obstáculos técnicos planteados por la creciente balcanización legal de la regulación de la IA pueden hacer imposibles ciertas soluciones globales, como el establecimiento de un panel intergubernamental sobre IA”.
La conclusión obvia e inquietante de Aziz Huq es que “Hay mucho que perder, entonces, si un esfuerzo global para regular la IA nunca se materializa realmente”. Algo menos obvio y más inquietante todavía, es lo dicho en el reportaje dado al Financial Times por Peter Turchin, el reconocido experto en prospectiva al señalar que «Estados Unidos se encuentra en una situación mucho más peligrosa que Rusia», en cuanto a estabilidad política.
A lo largo de la entrevista con Turchin ni se menciona a la IA generativa. Lo que si dice respecto de la situación de los Estados Unidos es que “Estos períodos de alta inestabilidad suelen durar muchos años. Cinco años es poco; Lo más habitual es entre 10 y 15 años (…) Lo que derriba a los Estados son las luchas internas dentro de las élites (…) En este momento, Trump es ‘la contraélite’ (…) La pregunta es si habrá un brote de macroviolencia (…) En entre el 10 y el 15 % de los casos, cuando las sociedades entran en crisis, evitan [la macroviolencia] (…) Mi predicción no es 100 % que vayamos a conseguir una de esas cosas”.
¿Y si lo de la IA generativa es solo un síntoma de esto que se describe cómo macroviolencia? Lindo despelote en puerta en el núcleo de la acumulación a escala mundial. Sea como fuere, por suerte tenemos hasta el año que viene, cuando se convoque a las legislativas, para ver qué onda con todo esto en Corrientes y Esmeralda, mientras el país oficial se embala con protagonizar una de piratas.