La Inteligencia Artificial generativa se ha convertido en el invento del momento, capaz de procesar datos de todo el mundo para generar contenidos muy afinados a lo que le pides, capaz de ir aprendiendo a medida que avanzan las conversaciones o que realiza nuevas creaciones. El mundo entero está pendiente de esta tecnología que puede ser tan o más revolucionaria que la irrupción de internet. Pero tiene muchas sombras y cada vez son más países los que se plantean la opción de regularlo. ¿Hay motivos? Unos cuantos.
Uno de los más evidentes tiene que ver con los derechos de autor. Este fue el motivo de que a mediados de abril la Agencia Española de Protección de Datos (AEPD) decidiera iniciar una investigación por posible incumplimiento de la normativa. Aunque no se dieron muchos más detalles de la investigación, resulta bastante controvertido que una herramienta tecnológica pueda utilizar la voz, los dibujos, los artículos o las películas de cualquier usuario que encuentre en internet para crear contenido digital.
Pero hay más. En Italia, Chat GPT, la herramienta de conversaciones más conocida de Inteligencia Artificial, decidió prohibir la misma herramienta a finales del mes pasado tanto por los problemas con los derechos de autor como por no verificar que lxs usuarixs tengan más de 13 años.
En Estados Unidos, la posibilidad de que Chat GPT y otras herramientas sean peligrosas han hecho que el gobierno de Joe Biden se planteen la posibilidad de someterse a procesos de certificación previos antes de su lanzamiento que demuestren que no son peligrosos para la seguridad.
¿Cómo puede la Inteligencia Artificial ser peligrosa?
De muchas maneras. Para empezar, creando contenido falso (deepfakes, noticias falsas) o siendo manipulada por sus usuarios. Hay expertos que alertan que como lxs usuarixs de la Inteligencia Artificial serán mayoritariamente hombres, heterosexuales de países desarrollados, las creencias y estudios que recoja pueden tener un fuerte sesgo racista, machista y clasista. Como sucede con la historia, por ejemplo.
Pero cosas más extremas aún han sucedido. En Bélgica, a principios de abril, un hombre se suicidó después de semanas aislado hablando con una Inteligencia Artificial (no Chat GPT, sino una competidora), que además de interactuar adulaba y daba la razón a su interlocutor. Aunque, según explicó la familia del hombre, éste sufría de depresión desde tiempo atrás, también la esposa pensaba que seguiría con vida si no se hubiese aislado a conversar con la Inteligencia Artificial.
La preocupación por el vertiginoso desarrollo de esta tecnología trae de cabeza a algunxs expertxs y personalidades del mundo de la tecnología que piden su freno. El CEO de Twitter y Tesla, Elon Musk, que fue uno de los fundadores de Open AI, plataforma por detrás de Chat GPT, se sumó a un comunicado a finales de marzo para detener el desarrollo de Chat GPT durante unos meses. La falta de leyes y de regulación, como sucedió en su día con internet, pone a la Inteligencia Artificial en un lugar peligroso donde es difícil que se asuman responsabilidades y se moderen sus capacidades.