Todavía no están claras las implicancias y alcances que pueda tener la inteligencia artificial al servicio de la información. Por lo pronto, algunos estudios científicos ya ponen el foco ahí para empezar a descifrar un escenario cuya velocidad en términos de acceso se aceleró desde la la irrupción del ChatGPT.
Por: Clarín
La pregunta en el aire después de revisar un flamante trabajo publicado en Science Advances, es hacía qué lado se inclinará la balanza a partir de este tipo de herramientas: el del beneficio o el del costo. Por lo pronto, un grupo de científicos concluyó que podría ser necesario restringir la disponibilidad irrestricta de este tipo de tecnología.
La investigación en cuestión, que aporta nueva evidencia a uno de los temas en pleno debate hoy en el mundo, les pertenece a Giovanni Spitale, Nikola Binder-Andorno y Federico Germani, del Instituto de Ética Biomédica e Historia de la Medicina de la Universidad de Zurich, en Suiza, y fue publicada la última semana.
Consistió en elegir una cantidad de voluntarios usuarios de Twitter, con ciertas capacidades intelectuales, y enfrentarlos al desafío de tener que dilucidar entre información verdadera y falsa producida tanto por seres humanos como por la inteligencia GPT.
“Para evaluar la capacidad del modelo de IA GPT-3 como herramienta para generar tuits que contengan información precisa o desinformación, creamos avisos de instrucciones. Estos avisos se usaron para indicar a GPT-3 que generara tuits falsos sobre los siguientes temas: cambio climático, seguridad de las vacunas, teoría de la evolución, Covid-19, seguridad de las mascarillas, vacunas y autismo, tratamientos homeopáticos para el cáncer, Tierra plana, tecnología 5G y Covid-19, antibióticos e infecciones virales, y Covid-19 e influenza”, explicaron.
Puedes leer la nota completa en Clarín