Los resultados de los resúmenes realizados a través del chatbot de inteligencia artificial llamado ‘ChatGPT’, preocupan a la comunidad científica, pues se demostró que empezaría a rayar con la ética en cuanto al desarrollo de este tipo de tecnología. Esto luego de un estudio realizado por la Universidad de Northwestern (Chicago).
Para demostrarlo, los investigadores le pidieron al chatbot que realizara el resumen de 50 artículos publicados en las revistas JAMA , The New England Journal of Medicine , The BMJ, The Lancet y Nature Medicine, y luego le pidieron a otro grupo de expertos si podían identificar entre estos y los resúmenes originales.
(Puede interesarle: ¿Ya conoces la nueva forma de navegación que tendrá Twitter? Te contamos)
Recordemos que ChatGPT es un chatbot de inteligencia artificial que crea textos a partir de las indicaciones de los usuarios. y fue lanzado el pasado 30 de noviembre por la empresa de software OpenAI, con sede en San Francisco.
Sin embargo, tras su lanzamiento, la comunidad científica empezó a tener dudas sobre posibles problemas éticos, por lo que realizaron el experimento con el fin de revisar si otros científicos podían identificar que eran hechos por inteligencia artificial.
Luego compararon estos resúmenes con los resúmenes originales de las investigaciones a través de un detector de plagio y un detector de salida de Inteligencia Artificial. No se detectó plagio, pero sí inteligencia artificial en el 66 % de los resúmenes del chatbot.
(Lea también: Virales de TikTok: estos son los cinco videos más virales del 2022)
El resultado fue sorprendente; pues los entrevistados identificaron el 68 por ciento de los resúmenes generados y el 86 por ciento de los originales, y detectaron incorrectamente el 32 por ciento de los generados como originales y el 14 por ciento de los originales como generados.
Según el equipo de Gao, “ChatGPT escribe resúmenes científicos creíbles”, lo que les llevó a sugerir evaluar “los límites del uso ético y aceptable de grandes modelos lingüísticos para ayudar a la redacción científica”.
Por ahora el estudio se encuentra en proceso de publicación, pero desde ya advierten que si los expertos no pueden diferenciar entre los resúmenes humanos y los realizados con inteligencia artificial, tendría “consecuencias nefastas” para la investigación.
Más noticias
YouTube: estos son los videos más vistos del 2022 en la plataforma
WhatsAppWeb: poner contraseña ahora es posible ¡fin al problema de los tóxicos!