La inteligencia artificial ya aprendió a manipular a los humanos
Una nueva investigación analizó aquellos sistemas diseñados para desempeñar una tarea específica y otros con un propósito más general.
Muchos sistemas de inteligencia artificial (IA) descubrieron la forma de utilizar la mentira, el engaño y la manipulación durante interacciones con los seres humanos para lograr sus objetivos.
Esta afirmación es la premisa de un estudio científico del departamento de física del Instituto Tecnológico de Massachusetts, en Estados Unidos.
Según el trabajo publicado en Cell Press, los grandes modelos lingüísticos y otras tecnologías no generan resultados falsos por simple accidente.
Por el contrario, su comportamiento forma parte de un patrón más amplio con el propósito de producir falsas creencias en los usuarios.
Al abordar la detección de estos problemas, los autores tomaron como referencia dos tipos de sistemas y los evaluaron por separado.
En primer lugar, analizaron aquellos diseñados para desempeñar una tarea específica, como Cicero de Meta, utilizado para jugar Diplomacy.
La IA demostró, con el objetivo de ganar, su propensión a romper acuerdos previos y comunicar falsedades descaradas.
Por otro lado, en programas de propósito general como GPT-4, del bot ChatGPT, encontraron numerosos casos de interés.
En uno de ellos, el programa actuó como un agente bursátil capaz de ejecutar transacciones y entablar comunicación con otros operadores simulados.
La nueva revisión resaltó la importancia de establecer una mayor responsabilidad por parte de los países y abogó por la implementación de requisitos de evaluación rigurosos.