El jefe de OpenAI, Sam Altman, advirtió que los esfuerzos de Bruselas para regular la inteligencia artificial podrían llevar al fabricante de ChatGPT a retirar sus servicios de la UE, en la señal más clara hasta el momento de una creciente brecha transatlántica sobre cómo controlar la tecnología.
Hablando con los periodistas durante una visita a Londres esta semana, Altman dijo que tenía “muchas preocupaciones” sobre la Ley de IA planeada por la UE, que se finalizará el próximo año. En particular, señaló un movimiento del parlamento europeo este mes para expandir sus regulaciones propuestas para incluir la última ola de tecnología de IA de propósito general, incluidos modelos de lenguaje grandes como GPT-4 de OpenAI.
“Los detalles realmente importan”, dijo Altman. “Intentaremos cumplir, pero si no podemos cumplir, dejaremos de operar”.
La advertencia de Altman se produce cuando las empresas tecnológicas de EE. UU. se preparan para lo que algunos predicen será una batalla prolongada con los reguladores europeos por una tecnología que ha sacudido a la industria este año. El director ejecutivo de Google, Sundar Pichai, también realizó una gira por las capitales europeas esta semana, buscando influir en los legisladores a medida que desarrollan “barandillas” para regular la IA.
La Ley de IA de la UE se diseñó inicialmente para hacer frente a usos específicos y de alto riesgo de la inteligencia artificial, como su uso en productos regulados, como equipos médicos, o cuando las empresas la utilizan en decisiones importantes, como la concesión de préstamos y la toma de decisiones de contratación.
Sin embargo, la sensación causada por el lanzamiento de ChatGPT a fines del año pasado provocó un replanteamiento, ya que el Parlamento Europeo estableció este mes reglas adicionales para los sistemas de uso generalizado que tienen aplicaciones generales más allá de los casos previamente abordados. La propuesta aún debe negociarse con los estados miembros y la Comisión Europea antes de que la ley entre en vigor en 2025.
El plan más reciente requeriría que los fabricantes de “modelos básicos”, los grandes sistemas que respaldan servicios como ChatGPT, identifiquen y traten de reducir los riesgos que su tecnología podría presentar en una amplia gama de entornos. El nuevo requisito haría que las empresas que desarrollan los modelos, incluidas OpenAI y Google, sean en parte responsables de cómo se utilizan sus sistemas de IA, incluso si no tienen control sobre las aplicaciones particulares en las que se ha integrado la tecnología.
Las últimas reglas también obligarían a las empresas tecnológicas a publicar resúmenes de los datos protegidos por derechos de autor que se han utilizado para entrenar sus modelos de IA, abriendo el camino para que los artistas y otros intenten reclamar una compensación por el uso de su material.
El intento de regular la IA generativa mientras la tecnología aún está en su infancia mostró un “miedo por parte de los legisladores, que leen los titulares como todos los demás”, dijo Christian Borggreen, director europeo de la Asociación de la Industria de la Computación y las Comunicaciones con sede en Washington. . Las empresas tecnológicas de EE. UU. habían apoyado el plan anterior de la UE para regular la IA antes de la reacción “instintiva” a ChatGPT, agregó.
Las empresas tecnológicas de EE. UU. han instado a Bruselas a actuar con más cautela cuando se trata de regular la última IA, argumentando que Europa debería tomar más tiempo para estudiar la tecnología y descubrir cómo equilibrar las oportunidades y los riesgos.
Pichai se reunió con funcionarios en Bruselas el miércoles para discutir la política de IA, incluidos Brando Benifei y Dragoş Tudorache, los principales eurodiputados a cargo de la Ley de IA. Pichai enfatizó la necesidad de una regulación apropiada para la tecnología que no sofoque la innovación, según tres personas presentes en estas reuniones.
Pichai también se reunió con Thierry Breton, el jefe digital de la UE que supervisa la Ley de IA. Breton le dijo al Financial Times que discutieron la introducción de un “pacto de IA”, un conjunto informal de pautas para que las empresas de IA se adhieran, antes de que las reglas formales entren en vigencia porque “no había tiempo que perder en la carrera de IA para construir una seguridad”. entorno en línea”.
Los críticos estadounidenses afirman que la Ley de IA de la UE impondrá nuevas y amplias responsabilidades para controlar los riesgos de los últimos sistemas de IA sin establecer al mismo tiempo estándares específicos que se espera que cumplan.
Si bien es demasiado pronto para predecir los efectos prácticos, la naturaleza abierta de la ley podría llevar a algunas empresas tecnológicas estadounidenses a reconsiderar su participación en Europa, dijo Peter Schwartz, vicepresidente senior de planificación estratégica de la empresa de software Salesforce.
Agregó que Bruselas “actuará sin hacer referencia a la realidad, como lo ha hecho antes” y que, sin ninguna empresa europea que lidere la carga en IA avanzada, los políticos del bloque tienen pocos incentivos para apoyar el crecimiento de la industria. “Básicamente, serán los reguladores europeos los que regulen a las empresas estadounidenses, como ha sido durante toda la era de la tecnología de la información”.
Las propuestas europeas resultarían viables si condujeran a “requisitos continuos para que las empresas se mantengan al día con las últimas investigaciones”. [on AI safety] y la necesidad de identificar y reducir continuamente los riesgos”, dijo Alex Engler, miembro de la Institución Brookings en Washington. “Parte de la vaguedad podría ser completada por la CE y los organismos de normalización más adelante”.
Si bien la ley parecía estar dirigida solo a sistemas grandes como ChatGPT y el chatbot Bard de Google, existía el riesgo de que “afectara a los modelos de código abierto y al uso sin fines de lucro” de la última IA, dijo Engler.
Los ejecutivos de OpenAI y Google han dicho en los últimos días que respaldan una eventual regulación de la IA, aunque han pedido más investigación y debate.
Kent Walker, presidente de asuntos globales de Google, dijo en una publicación de blog la semana pasada que la compañía apoyó los esfuerzos para establecer estándares y llegar a un acuerdo político amplio sobre IA, como los que se están llevando a cabo en EE. la UE, que es la que está más avanzada en la adopción de normas específicas.
El cronograma político significa que Bruselas puede optar por seguir adelante con su propuesta actual en lugar de tratar de elaborar reglas más específicas a medida que se desarrolla la IA generativa, dijo Engler. Tomar más tiempo para refinar la Ley de IA correría el riesgo de retrasarla más allá del término de la actual presidencia de la UE, algo que podría devolver todo el plan a la mesa de dibujo, agregó.