Expertos comparan auge de la inteligencia artificial con una pandemia
Los líderes en el desarrollo de estas herramientas destacaron la importancia de reducir el riesgo existencial generado por los nuevos sistemas.
La inteligencia artificial (IA) sin control supone para la humanidad un "riesgo de extinción" de la magnitud de una guerra nuclear o una pandemia, según sostiene una carta abierta firmada por 350 ejecutivos del sector tecnológico.
Los líderes en el desarrollo de estas herramientas, entre ellos el empresario de OpenAI, Sam Altman; el ganador del Premio Turing, Geoffrey Hinton y varios ejecutivos de Microsoft y Google, advirtieron sobre la importancia de reducir el riesgo existencial generado por los nuevos sistemas.
A mediados de este mes, Altman declaró ante el Senado estadounidense que la IA podría "salir muy mal" y causar "un daño significativo al mundo".
El empresario sugirió la creación de una agencia estadounidense o internacional para conceder licencias a los sistemas más potentes.
De igual forma, el exdirector ejecutivo de Google, Eric Schmidt, mencionó la semana pasada la necesidad de legislar estos softwares.
En cambio, el profesor Eloy Caloca Lafont, investigador de la Universidad Autónoma de México, entrevistado a mediados de marzo por Sputnik, pidió un replanteamiento completo de las herramientas, para que no sirvan solo a las grandes corporaciones, sino también a las ciudadanías.
De acuerdo con el especialista, es esencial una vigilancia colectiva en este tema y establecer un enfoque vinculado con el bienestar social.