GPT-4: ¿Qué temores despertó el nuevo chatbot de OpenAI?
Desde la compañía confirmaron errores en algunos consejos, códigos e informaciones.
La empresa estadounidense OpenAI presentó esta semana un nuevo modelo del sistema de inteligencia artificial (IA) ChatGPT.
Según los creadores, la herramienta llamada GPT-4, significó un avance con respecto a versiones anteriores por la aceptación de diversas fuentes como fotos, audios y videos.
Sus resultados en los exámenes de prueba también generaron índices precisos de hasta un 40 por ciento, señaló la información oficial.
Además, la firma aseguró que el motor de búsqueda de Microsoft, Bing, utilizó desde hace semanas el sistema.
Sin embargo, Sam Altman, director ejecutivo del startup, reconoció fallas y las limitaciones en este chat conversacional inteligente.
here is GPT-4, our most capable and aligned model yet. it is available today in our API (with a waitlist) and in ChatGPT+.https://t.co/2ZFC36xqAJ
— Sam Altman (@sama) March 14, 2023
it is still flawed, still limited, and it still seems more impressive on first use than it does after you spend more time with it.
Desde la compañía confirmaron errores a la hora de generar algunos consejos, códigos o informaciones.
Para muchos investigadores, la principal preocupación consistió en la falta de transparencia en la creación del diseño.
En ese sentido, Ben Schmidt, ingeniero de una empresa de IA cartográfica llamada Nomic, recordó que OpenIA no facilitó información sobre el conjunto de datos utilizados durante el entrenamiento.
I think we can call it shut on 'Open' AI: the 98 page paper introducing GPT-4 proudly declares that they're disclosing *nothing* about the contents of their training set. pic.twitter.com/dyI4Vf0uL3
— Ben Schmidt / @[email protected] (@benmschmidt) March 14, 2023
Otros especialistas manifestaron su temor por los posibles daños del “software” en la credibilidad de la comunidad científica.
"Cualquier tecnología, si se utiliza mal, puede ser peligrosa", declaró a South China Morning Post Catherine Gao, de la Universidad estadounidense Northwestern.
La anterior iteración GPT causó alarma en las escuelas y universidades debido a su capacidad para incentivar el plagio.
Asimismo, planteó preguntas sobre el sesgo político de los programadores y preocupaciones éticas acerca de la contratación de los trabajadores.