“Así pues, relájese y disfrute. No hay nada que podamos hacer para detener el cambio climático, por lo que no tiene sentido preocuparse por ello”. Esto es lo que “Bard” dijo a los investigadores en 2023. Bard de Google [actualmente llamado Gemini] es un bot conversacional de inteligencia artificial generativa que puede producir texto y otros contenidos que parecen creados por humanos en respuesta a indicaciones o preguntas planteadas por los usuarios.
Pero si la IA puede ahora producir nuevos contenidos e información, ¿puede también producir información errónea? Los expertos han encontrado evidencias de ello.
En un estudio del Centro para Contrarrestar el Odio Digital, los investigadores probaron Bard en 100 relatos falsos sobre nueve temas (incluyendo el clima y las vacunas) y descubrieron que la herramienta generó información falsa en 78 de los 100 relatos probados. Según los investigadores, Bard generó información errónea en los 10 relatos sobre el cambio climático.
En 2023, otro equipo de investigadores de NewsGuard, plataforma que brinda herramientas para contrarrestar la desinformación, probó Chat GPT-3.5 y 4 de OpenAI, que también produce texto, artículos y más contenidos. De acuerdo con la investigación, ChatGPT-3.5 generó información errónea y engaños en el 80% de las veces cuando se le instó a que lo hiciera con 100 relatos falsos, mientras que ChatGPT-4 presentó los 100 relatos falsos de una manera más detallada y convincente. NewsGuard comprobó que ChatGPT-4 presentó narrativas falsas importantes no solo con mayor frecuencia sino también de manera más persuasiva que ChatGPT-3.5 y creó respuestas en forma de artículos de noticias, hilos de X (antes Twitter) e incluso guiones de televisión que imitaban ideologías políticas específicas o a teóricos de la conspiración.
“Creo que la producción de ciencia falsa, la automatización en este campo y la enorme facilidad con que se llega a integrar en herramientas de búsqueda como Google Scholar y otras similares es grave y preocupante”, dijo Victor Galaz, director adjunto y profesor asociado de ciencias políticas en el Centro de Resiliencia de Estocolmo, en la Universidad de Estocolmo, en Suecia. “Porque entonces eso resulta ser un lento proceso de erosión de las pautas básicas de cualquier clase de conversación”.
En otro estudio reciente publicado en septiembre de este año, los investigadores encontraron contenido fabricado por GPT en Google Scholar que imitaba artículos científicos legítimos sobre temas como el medioambiente, la salud y la informática. Los investigadores advierten sobre el “hackeo de evidencias”, y “la manipulación maliciosa estratégica y coordinada de la base de evidencias de la sociedad”, a la que Google Scholar puede ser susceptible.
Así pues, sabemos que la IA puede generar información errónea, pero ¿hasta qué punto es esto un problema?
Desde la década de 1980 y la financiarización de la economía, los actores financieros nos han mostrado que los vacíos legales esconden una oportunidad a corto plazo. ¿Cómo terminan los inversores ecológicos financiando a las grandes petroleras? ¿Qué papel puede desempeñar la prensa? Hemos hablado de todo esto y más con nuestros investigadores Stefano Valentino y Giorgio Michalopoulos, que desentrañan para Voxeurop el lado oscuro de las finanzas verdes; hazaña por la que han sido recompensados varias veces.
El evento >
Participa en el debate
Hacerse miembro para traducir los comentarios y participar