Home Tecnología Se descubrió que chatear con un robot de inteligencia artificial debilita las...

Se descubrió que chatear con un robot de inteligencia artificial debilita las creencias en las teorías de conspiración

22
0
Se descubrió que chatear con un robot de inteligencia artificial debilita las creencias en las teorías de conspiración

Manténgase informado con actualizaciones gratuitas

Los teóricos de la conspiración que discutieron con un chatbot con inteligencia artificial estaban más dispuestos a admitir dudas sobre sus creencias, según un estudio que proporciona información sobre cómo lidiar con la información errónea.

Los científicos descubrieron que esta tolerancia se extendía incluso a los creyentes más acérrimos y continuaba mucho después de que terminara la interacción con la máquina.

Este estudio contradice la idea de que es casi imposible cambiar los pensamientos de personas que se han hundido en un laberinto de creencias comunes pero infundadas.

Los resultados de este estudio son inteligencia artificial Algunas personas sirven como modelos a seguir para contrarrestar la desinformación, aunque a veces son vulnerables a las ilusiones que difunden falsedades.

El estudio “pinta una imagen de la mente humana más brillante de lo que muchos esperaban”, dijo David Rand, uno de los investigadores del estudio. Demuestra que “el razonamiento y la evidencia no están muertos”. Publicado en la revista Science. el jueves.

“Incluso muchos teóricos de la conspiración responderán a hechos y pruebas precisos; sólo hay que abordar directamente sus creencias y preocupaciones específicas”, dijo Rand, profesor de la Escuela de Administración Sloan del Instituto Tecnológico de Massachusetts.

“Si bien existen preocupaciones legítimas y generalizadas de que la IA generativa tiene el poder de difundir desinformación, nuestro artículo muestra que la IA generativa puede ser parte de la solución al convertirse en educadores altamente eficaces. Esto demuestra que puede convertirse en una realidad”, añadió.

Los investigadores creen que los modelos lingüísticos a gran escala en IA IA abiertaGPT-4 Turbo puede aprovechar su capacidad para acceder y resumir información para abordar creencias conspirativas profundamente arraigadas. Estos incluyen que los ataques terroristas del 11 de septiembre de 2001 fueron organizados, que las elecciones presidenciales estadounidenses de 2020 fueron fraudulentas y que la pandemia de COVID-19 fue un montaje.

Aproximadamente 2200 participantes contaron a LLM sus teorías de conspiración, y LLM presentó pruebas para refutar las afirmaciones. Los investigadores encontraron que estas interacciones redujeron las creencias autocalificadas de los participantes en las teorías elegidas en un promedio del 20% durante al menos dos meses después de hablar con el robot.

Verificadores de datos profesionales evaluaron la precisión de una muestra de los resultados del modelo. Después de las pruebas, los científicos dijeron que el 99,2 por ciento de las afirmaciones de LLM eran ciertas y el 0,8 por ciento eran engañosas.

El enfoque individual de preguntas y respuestas del estudio es una respuesta a la aparente ineficacia de muchas estrategias existentes para desacreditar la información errónea.

Otra complicación de los esfuerzos populares por atacar el pensamiento conspirativo es que, si bien las conspiraciones ocurren, las narrativas escépticas, aunque muy dramatizadas, a veces se basan en una pizca de verdad. Eso es cierto.

Una de las razones por las que las interacciones con los chatbots parecen funcionar tan bien es que, a diferencia de los respondedores humanos, los chatbots tienen acceso instantáneo a todo tipo de información.

La máquina también respondió a sus interlocutores humanos con un lenguaje cortés y empático, en contraste con el desdén que a veces sienten los teóricos de la conspiración en el mundo real.

Pero otras investigaciones sugieren que la forma en que llama la máquina probablemente no sea el factor importante, dijo Rand. Agregó que él y sus colegas realizaron experimentos adicionales en los que alentaron a la IA a hacer correcciones factuales “sin lenguaje cortés”, lo que funcionó igual de bien.

La “magnitud, solidez y persistencia de las reducciones en las creencias conspirativas” del estudio sugieren que “las intervenciones escalables para recalibrar las creencias mal informadas pueden estar a nuestro alcance”. Comentario adjunto También fue publicado en la revista Science.

Sin embargo, las limitaciones incluyen la dificultad para responder a nuevas teorías de conspiración y persuadir a personas con poca confianza en las instituciones científicas para que interactúen con robots, dijo Tilburg, coautor holandés de un artículo secundario, dijo Bence Bagot de la Universidad de California y Jean-. François Bonnefon de la Escuela de Economía de Toulouse.

“La tecnología conversacional de IA es extremadamente poderosa porque automatiza la generación de refutaciones concretas y exhaustivas a los complejos argumentos de los teóricos de la conspiración y, por lo tanto, se implementa para proporcionar información precisa y correctiva a escala. Es posible”, dijeron Bago y Bonnefon, que no estaban presentes. involucrados en el estudio.

“Una limitación importante para hacer realidad este potencial reside en el método de administración”, añadieron los investigadores. “Así que el primer paso es lograr que personas con creencias conspirativas profundamente arraigadas participen en programas de IA debidamente capacitados”.

Fuente