El escritor es fundador de tamizadoun sitio respaldado por FT sobre nuevas empresas europeas
La tecnología, dicen, se trata de convertir lo mágico en mundano. Hace una década, los asistentes digitales como Siri, Alexa y Cortana parecían inventos asombrosos. Hoy en día, el director ejecutivo de Microsoft, Satya Nadella, los descarta como “tontos como una roca”. ¿Qué tan rápido se volverán igualmente monótonos los tan publicitados modelos de IA generativa de hoy en día?
El martes, la empresa de investigación OpenAI, con sede en San Francisco, lanzó GPT-4, su último modelo de generación de contenido, que demuestra ingeniosas características nuevas, como ayudar a calcular una declaración de impuestos. El lanzamiento de OpenAI de su chatbot increíblemente plausible, aunque inquietantemente defectuoso, ChatGPT en noviembre causó sensación. Pero en varias formas significativas, GPT-4 es aún más impresionante.
El nuevo modelo es más preciso y potente y tiene mayores capacidades de razonamiento. ChatGPT lucha por responder a la pregunta: ¿cómo se llama la hija de la madre de Laura? Pero, como el filósofo Luciano Floridi encontrado al experimentarel nuevo modelo GPT-4 da la respuesta correcta (Laura, en caso de que te lo estés preguntando) cuando se le dice que la pregunta es un rompecabezas lógico.
Además, GPT-4 es un modelo multimodal que combina texto e imágenes. En el evento de lanzamiento, Greg Brockman, cofundador de OpenAI, convirtió rápidamente una fotografía de una nota escrita a mano en un sitio web funcional que contenía algunos chistes terribles sobre padres. “¿Por qué los científicos no confían en los átomos?” preguntó GPT-4. “Porque lo inventan todo”.
Las aplicaciones de estos modelos generativos de IA son aparentemente ilimitadas, lo que explica por qué los inversores de capital de riesgo están invirtiendo dinero en el sector. Estos modelos también se están filtrando en todo tipo de servicios digitales existentes. Microsoft, un gran inversor en OpenAI, ha integrado GPT-4 en su motor de búsqueda Bing. La empresa de pagos Stripe lo está utilizando para ayudar a detectar el fraude en línea. Islandia incluso está empleando GPT-4 para mejorar los chatbots en el idioma local. Eso seguramente vale la pena solo para preservar la hermosa palabra islandesa para computadora: Tolvaque significa número profetisa.
Las grandes empresas, como Microsoft y Google, serán las primeras en implementar estos sistemas a escala. Pero algunas nuevas empresas ven oportunidades en armar a los batallones más pequeños. Josh Browder, que dirige la empresa de roboabogados DoNotPay, que impugna las multas de estacionamiento, dice que GPT-4 será una herramienta nueva y poderosa para ayudar a los usuarios a contrarrestar los sistemas automatizados. Su compañía ya está trabajando para integrarlo en una aplicación para emitir demandas con un solo clic contra las llamadas automáticas molestas. La tecnología también podría usarse para impugnar facturas médicas o cancelar suscripciones. “Mi objetivo es devolverle el poder a la gente”, me dice Browder.
Sin embargo, junto con los usos positivos de la IA generativa, existen muchos abusos menos visibles. Los humanos son susceptibles al llamado efecto Eliza, o atribuir falsamente pensamientos y emociones humanos a un sistema informático. Esta puede ser una forma efectiva de manipular a las personas, advierte Margaret Mitchell, investigadora de la empresa Hugging Face AI.
Los sistemas de aprendizaje automático, que pueden sintetizar voces y generar correos electrónicos personalizados falsos, ya han contribuido a un aumento de las estafas de impostores en EE. UU. El año pasado, la Comisión Federal de Comercio registró 36,000 informes de personas estafadas por delincuentes que se hacían pasar por amigos o familiares. También se pueden utilizar para generar desinformación. Tal vez sea revelador que los reguladores de China hayan dado instrucciones a sus empresas de tecnología para que no ofrezcan los servicios de ChatGPT, aparentemente por temor a perder el control sobre los flujos de información.
Mucho sigue siendo misterioso sobre los modelos de OpenAI. La compañía acepta que GPT-4 exhibe sesgos sociales y alucina hechos. Pero la compañía dice que pasó seis meses probando la seguridad del GPT-4 y ha introducido barandillas a través de un proceso conocido como aprendizaje de refuerzo a partir de la retroalimentación humana. “No es perfecto”, dijo Brockman en el lanzamiento. Pero tú tampoco.
Las furiosas disputas sobre el entrenamiento de estos modelos parecen inevitables. Un investigador ha estado probando periódicamente el “sesgo” de ChatGPT incitándolo a responder preguntas de orientación política. Inicialmente, ChatGPT cayó en el cuadrante libertario de izquierda, pero desde entonces se ha movido hacia el centro neutral a medida que se modifica el modelo. Pero, en una publicación en línea, el investigador de IA David Rozado argumenta que será difícil eliminar los sesgos sociales generalizados y los puntos ciegos reflejados en Internet. “Los sesgos políticos en los sistemas de IA de última generación no van a desaparecer”, concluye.
Elon Musk, uno de los fundadores de OpenAI que luego renunció a la compañía, ha criticado repetidamente que “la IA despertó” y está explorando si lanzar un modelo menos restrictivo, según The Information. “Lo que necesitamos es TruthGPT”, tuiteó. Tales disputas sobre prejuicios son solo un anticipo de peleas mucho más grandes por venir.