Cada día estamos más cerca de que la película Her se haga realidad. En un informe reciente, OpenAI ha reconocido que su nuevo modo de voz en ChatGPT podría llevar a algunos usuarios a desarrollar un vínculo emocional con el modelo de inteligencia artificial.
Aunque parezca coña, cabe recordar como Sam Altman (el CEO de OpenAI) ya hizo la referencia a Her cuando lanzó mundialmente la versión de voz de ChatGPT. Cualquiera diría que incluso ese era su objetivo.
En el informe, la empresa explica que durante las pruebas iniciales, algunos usuarios mostraron señales de estar formando una conexión emocional con el chatbot, utilizando un lenguaje que indicaba una relación más allá de una simple interacción tecnológica. Algunas de las expresiones recogidas y denotaban este vínculo emocional, eran por ejemplo frases como “Este es nuestro último día juntos”. Ahora solo falta que ChatGPT aprenda a decir “no eres tú, soy yo” para que nos dé calabazas.
El chatbot de ChatCPT permite mantener una conversación bastante fluida y natural. Sin embargo, esta capacidad también aumenta los riesgos de antropomorfización, es decir, la tendencia a atribuir características humanas a entidades no humanas, como los modelos de IA.
El informe de OpenAI también señala que la voz humanizada del modelo podría reducir la necesidad de interacción humana. Si ya cuesta ligar y hacer nuevos amigos, esto solo parece anunciar que esto implicará más problemas. A pesar de que desde la compañía de Altman intentan vender esto como una característica positiva para ayudar a las personas a paliar su soledad, lo cierto es que muy probablemente solo consiga el efecto contrario: aumentar la sensación de aislamiento y soledad.
Por no mencionar que la soledad no solo se basa en sí tienes alguien con hablar o no, si no también en el hecho de tener una mano amiga o un cuerpo con el que puedas abrazarte. Las caricias y el tacto siguen siendo fundamentales para luchar contra este sentimiento.
Este no es el primer incidente relacionado con el modo de voz de OpenAI. Tras su anuncio inicial, la actriz Scarlett Johansson denunció que la voz utilizada por el chatbot era “sorprendentemente similar” a la suya en la película Her, lo que llevó a OpenAI a suspender temporalmente el uso de esa voz.
OpenAI ha reconocido la importancia de continuar investigando los riesgos potenciales del desarrollo emocional de los usuarios con la IA. La empresa planea realizar más estudios académicos y pruebas internas para comprender mejor cómo la integración profunda de las características del modelo, combinada con la modalidad de voz, podría influir en el comportamiento de los usuarios.