Reciba actualizaciones gratuitas de Life & Arts
Te enviaremos un Resumen diario de myFT correo electrónico redondeando lo último Vida y artes noticias cada mañana.
Cuando Tristan Harris se dio cuenta de que quería advertir al mundo sobre los peligros que representan las redes sociales, creó The Center for Humane Technology. Era 2018 y Harris, un ex diseñador de Google que había trabajado en herramientas digitales adictivas, estaba aterrorizado por lo que la cultura de las “aplicaciones” le estaba haciendo a nuestros cerebros. Así que a través de su organización sin fines de lucro y documentales como El dilema socialinstó a los políticos a prestar atención.
Avance rápido cinco años, y está claro que los formuladores de políticas no escucharon. A pesar de que las empresas de redes sociales pregonan su mejor supervisión, los controles siguen siendo laxos. Mientras tanto, como han señalado académicos como Jonathan Haidt, la salud mental de los jóvenes se ha deteriorado drásticamente junto con el auge de las redes sociales.
El mes pasado, Harris, junto con su colega Aza Raskin, dieron una presentación sobre inteligencia artificial al Aspen Ideas Institute que probablemente fue el tutorial de IA más lúcido y escalofriante que jamás haya visto.
Enmarcan la amenaza que representa la IA como una extensión de los peligros de las redes sociales. Específicamente, Harris cita la metáfora de las películas de ciencia ficción para sugerir que “puedes pensar en las redes sociales como el primer contacto entre la humanidad y la IA”. Cuando la IA se usó para la curación, la “humanidad perdió”.
Ahora, se está produciendo el “segundo contacto”, ya que los grandes modelos de aprendizaje automático como ChatGPT no solo seleccionan el contenido, sino que lo crean. Lo que hace que esta fase sea tan aterradora, argumenta Harris, es que las herramientas de IA están proliferando más rápido que cualquier cosa vista antes, y “aprendiendo” de los datos cómo adquirir habilidades “emergentes” que los propios investigadores de IA no esperaban. Las máquinas han hecho cosas recientemente sin que se les enseñe, como informó ampliamente esta revista en abril. Como ha observado Jeff Dean, un alto ejecutivo de Google, si bien ahora hay “docenas de ejemplos de habilidades emergentes, actualmente hay pocas explicaciones convincentes de por qué surgen estas capacidades”.
Cada vez es más difícil para los de adentro rastrear exactamente lo que está pasando, y mucho menos para los de afuera. Una figura sénior de un gran grupo de IA me dijo recientemente que el problema es que no existe un único sistema de código que programe la IA y que los reguladores puedan examinar, ya que las máquinas aprenden y vuelven a aprender constantemente, haciendo conexiones sin dejar rastro.
De manera preocupante, el autoaprendizaje también puede hacer que la IA haga cosas impredecibles, conocidas como “alucinaciones”, ya sea debido a una falla en los datos, un error humano medio notado en los comandos de la IA o algún otro factor que aún no comprendemos. Para tomar un ejemplo, Harris y Raskin citaron cómo los investigadores que entrenaban plataformas de IA para buscar compuestos de fármacos menos tóxicos descubrieron que un pequeño cambio en las instrucciones les llevó a encontrar 40 000 moléculas tóxicas, incluido el agente nervioso VX.
También existe un riesgo más inmediato que preocupa a figuras tecnológicas eminentes como Geoffrey Hinton, otro ex investigador de Google: el hecho de que las herramientas de inteligencia artificial de código abierto facilitan que cualquiera arroje información errónea que se hace pasar de manera impresionante como un hecho. Como se lamenta Harris, “Todos deberíamos estar preocupados por la carrera armamentista en IA. No estoy seguro de que la democracia pueda sobrevivir”.
Harris y Raskin niegan querer cerrar la IA; El mismo Raskin lo está utilizando para promover la comunicación entre humanos y animales. Pero sí quieren frenos sensatos a su desarrollo. Estos incluyen una moratoria sobre el lanzamiento de más programas de IA de código abierto de vanguardia hasta que se introduzcan medidas de seguridad; la introducción de controles draconianos sobre los chips que alimentan los modelos de aprendizaje automático (sin los cuales nada puede suceder); marcos legales adecuados para responsabilizar a las empresas si los sistemas de IA funcionan mal; y una campaña de concientización pública sobre la desinformación antes de las elecciones de 2024.
Otros investigadores de IA con los que he hablado recientemente parecen estar de acuerdo. Justo después de la presentación de Harris y Raskin en Aspen, llegó un discurso de James Manyika, un alto ejecutivo de Google, en el que se comprometió a colaborar con los legisladores. Los líderes de las cuatro empresas clave que desarrollan sistemas de inteligencia artificial (Microsoft, Google, OpenAI y Anthropic) también se han reunido con la Casa Blanca para discutir los controles.
Sin embargo, los paralelismos con las redes sociales muestran lo difícil que es para los gobiernos desafiar a las grandes tecnologías o esperar que las corporaciones se autorregulen mientras compiten por la cuota de mercado. En este momento, es doblemente difícil para el Congreso imponer controles a la tecnología estadounidense cuando los políticos piensan que están en una carrera armamentista con China.
Espero fervientemente que la campaña de IA de Harris y Raskin tenga éxito, pero solo lo logrará con una voluntad política seria y una fuerte presión de los votantes por el cambio. Es una tarea que nos involucra a todos. Habiendo estropeado las cosas con las redes sociales, esperemos que podamos hacerlo mejor con la IA. Hay poco tiempo que perder.
Sigue a Gillian en Twitter @gilliantett y envíele un correo electrónico a [email protected]
Seguir @FTMag en Twitter para enterarte primero de nuestras últimas historias