El escritor es cofundador y director de Rice, Hadley, Gates & Manuel LLC, una firma de consultoría
En los primeros días de la guerra fría, EE. UU. había ganado la carrera para adquirir armas nucleares, las más poderosas y mortíferas de la Tierra. Estados Unidos hizo entonces algo noble y sin precedentes: en 1946, menos de un año después de las tragedias de Hiroshima y Nagasaki, el gobierno estadounidense propuso que la ONU controlara los recursos nucleares y se asegurara de que se utilizaran únicamente con fines pacíficos.
Ahora estamos presenciando el advenimiento de una inteligencia artificial verdaderamente poderosa y aún no somos capaces de comprender completamente tanto la promesa como los peligros de esta nueva tecnología.
Razón de más, entonces, para que nuestros gobiernos sean tan sabios y juiciosos como en el período inmediatamente posterior a los primeros ataques nucleares: debemos tratar de controlar los aspectos militares más dañinos de la IA y asegurarnos de que las ganancias repercutan en todos.
Ingenuo, dicen los críticos. Quijotesco. Los chinos y los rusos nunca aceptarán eso. Es probable que eso sea cierto, a corto plazo.
No es realista esperar que China, Rusia, EE. UU. y la UE impongan restricciones inmediatas a los usos militares de la IA. Después de la propuesta inicial de EE. UU. en 1946, pasaron casi dos décadas (años en los que se probaron bombas de hidrógeno en el Pacífico Sur, se inflaron los arsenales nucleares y se produjo la crisis de los misiles cubanos) antes de que la URSS y EE. UU. acordaran el Tratado de Prohibición Limitada de Pruebas en 1963 y Tratado de No Proliferación Nuclear de 1968.
Pero eso no significa que los primeros esfuerzos se desperdiciaron, al igual que ahora, por dos razones importantes.
Primero, simplemente al comenzar esta conversación con los aliados, pero también con China y Rusia, ejercitaremos el músculo de la cooperación. Los expertos técnicos clave y los funcionarios gubernamentales se conocerían entre sí, aprenderían más sobre cómo nuestros países competidores están abordando los usos militares de la IA y qué suposiciones hacemos sobre los demás que podrían ser peligrosas.
En segundo lugar, durante las repetidas reuniones de grupos del sector privado, académicos y gubernamentales sobre estos temas, surgiría naturalmente un esbozo de qué usos de la IA se consideran claramente inaceptables y contra cuáles deben protegerse. Incluso sin un acuerdo, esta es información poderosa y valiosa para mantener la estabilidad frente a una tecnología en rápido desarrollo.
Bonnie Jenkins, del Departamento de Estado de EE. UU., ha dicho que “tenemos la obligación de crear normas sólidas de comportamiento responsable en relación con los usos militares de la IA” © Denis Balibouse/Reuters
En un anuncio que pasó desapercibido, el Departamento de Estado de EE. UU. hizo recientemente una pequeña pero prometedora incursión en esta dirección. En febrero en La Haya, Bonnie Jenkins, subsecretaria de control de armas del departamento, presentó 12 normas no vinculantes legalmente para regir los usos militares de la IA. Incluyen una exhortación a que los seres humanos siempre deben controlar cualquier lanzamiento de armas nucleares y que se deben aplicar las Convenciones de Ginebra. Hizo hincapié en que “tenemos la obligación de crear normas estrictas de comportamiento responsable en relación con los usos militares de la IA”.
Este es un gran comienzo, aunque limitado. Se deben tomar medidas urgentes para redoblar estos esfuerzos. Como han advertido Henry Kissinger, el ex director ejecutivo de Google Eric Schmidt y otros, China, EE. UU. y Europa corren el peligro de entrar en conflicto sonámbulos, dada esta era de nueva tecnología que realmente no entendemos y no podemos controlar. Esto no es solo alarmismo hiperbólico: en el conflicto de Ucrania, los drones probablemente se usarán pronto para seleccionar y atacar objetivos sin interferencia humana. A medida que se desarrollen ChatGPT y tecnologías similares, pronto serán capaces de escribir virus de código más potentes y dañinos que los que vimos con WannaCry y NotPetya.
Es cierto, como pueden argumentar los escépticos, que ni siquiera 75 años de acuerdos de control de armamentos minuciosamente negociados han desterrado las armas nucleares del mundo. Esas negociaciones, sin embargo, han tenido éxito en la medida más importante de todas: desde el horror de Hiroshima y Nagasaki, las armas nucleares no se han utilizado ni una vez en la guerra.