OTRAS NOTICIAS

Kramer contra Kramer: la IA detecta sus trampas

Columbia Journalism Review (CJR), una de las voces más influyentes en crítica de medios y análisis del futuro del periodismo, lanzó una campaña internacional que emplea inteligencia artificial (IA) para enseñar a detectar imágenes falsas también creadas con esa tecnología.

Una nota del sitio Laboratorio de Periodismo recoge que el proyecto, denominado PSAi, se dirige a los usuarios de redes sociales y busca frenar la propagación de desinformación visual mediante una fórmula que mezcla música, educación y animaciones generadas por algoritmos.

La iniciativa llega en un contexto de justificada preocupación por la dificultad para distinguir imágenes reales de artificiales: según un estudio de NBC News, los engaños visuales relacionados con IA ya representan el 80 por ciento de los casos de desinformación, mientras que se generan más de 34 millones de imágenes sintéticas al día, según datos publicados por Forbes.

En una encuesta realizada en 2024 a 2000 consumidores estadounidenses, el 76 por ciento no logró diferenciar una imagen generada por IA de una fotografía auténtica.

Ante este escenario, CJR y la agencia creativa TBWA\Chiat\Day Nueva York han desarrollado una campaña basada en un videoclip musical con estética viral en el cual se muestran y descomponen algunas de las imágenes más compartidas en redes que fueron creadas por inteligencia artificial.

El vídeo está disponible en la web www.thepsai.com, donde también se ofrecen herramientas educativas para identificar patrones visuales sospechosos, comprender cómo actúan los modelos generativos y conocer el impacto de estas tecnologías sobre la confianza pública.

“El enfoque de esta campaña consiste en utilizar la IA como herramienta para desenmascarar imágenes creadas con IA, al tiempo que se destaca la responsabilidad individual en la viralización de estos contenidos”, declaró Betsy Morais, editora en funciones de Columbia Journalism Review.

“El ecosistema informativo ya no está únicamente en manos de la prensa: está repartido entre agentes de desinformación, aficionados a los medios sintéticos y cualquier usuario que comparte lo que ve. Por eso, entender lo que es real o no se ha convertido en una cuestión democrática”, afirmó Morais.

La iniciativa no busca culpabilizar a la tecnología, sino enseñar su uso crítico. “No es una campaña contra la IA”, señaló Dustin Tomes, director creativo de TBWA\Chiat\Day NY, “sino una forma de usarla para explicar, de manera sencilla y sin esfuerzo excesivo cómo detectar imágenes falsas. Las noticias falsas no se propagan solas”.

La nota de Laboratorio de Periodismo señala que, como parte del lanzamiento, CJR publica una serie de artículos sobre el uso de IA en el periodismo entre los cuales destaca una colaboración con el programa AIMS (AI for Media and Storytelling/ IA para medios y narrativa) de la Universidad del Sur de California.

Esta última recoge testimonios de periodistas, directivos y reporteros gráficos sobre cómo emplean —o rechazan— herramientas basadas en IA. También incluye un reportaje de la reportera Laura Preston sobre el uso de ChatGPT para informarse y un análisis de nuevas investigaciones del Tow Center for Digital Journalism de Columbia.

La campaña PSAi se presenta como ejemplo de cómo la alfabetización mediática puede impulsarse a través de formatos accesibles y con un enfoque realista sobre el papel de los usuarios en la circulación de noticias falsas.

Foto del avatar
Redacción Cubaperiodistas
Sitio de la Unión de Periodistas de Cuba

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *