La integración de herramientas de inteligencia artificial (IA) en el trabajo diario es ya una realidad para la mayoría de periodistas en España, pero persiste un vacío normativo interno y una débil cultura de transparencia hacia la audiencia.
Así lo constata un estudio académico de la Universidad de Sevilla que combina encuesta a 50 profesionales e ocho entrevistas en profundidad y que describe una adopción extendida —aunque desigual— de la IA, con escasas políticas internas, criterios de autoría difusos y una divulgación casi inexistente del uso de estas tecnologías, según revela el estudio hecho por M. Ángeles Fernández-Barrero y Carlos Serrano-Martín (Journalism and Media, 13 de septiembre de 2025).
Principales hallazgos del estudio
Uso extendido con fines operativos. El 72 por ciento de los periodistas encuestados declara utilizar algún tipo de herramienta de IA, principalmente para traducción, generación automática de contenidos y asistencia a la redacción y edición. La frecuencia varía por edad, rol y formación específica, con adopciones más intensivas entre perfiles jóvenes y tecnológicamente formados.
Normas internas, la excepción. Solo un 20,8 por ciento trabaja en medios con guías éticas específicas sobre IA; la mayoría no ha recibido instrucciones de su empresa ni de sus superiores, pese a que un 94 por ciento considera necesarias reglas internas.
Transparencia residual. El 87,8 por ciento afirma que su medio no exige revelar el uso de IA en tareas editoriales; cuando se pide divulgarlo, apenas un 10,8 por ciento utiliza fórmulas breves del tipo “contenido elaborado con ayuda de IA”. La atribución de autoría en piezas asistidas por IA se asigna mayoritariamente al periodista, aunque sin criterios homogéneos.
Qué piden las redacciones. Formación específica, publicación de políticas de uso y marcos claros de responsabilidad editorial y protección de datos figuran entre las demandas más repetidas.
Contexto regulatorio y de autorregulación
El estudio sitúa estos resultados en el marco del AI Act europeo, en vigor desde el 1 de agosto de 2024, que eleva los estándares de trazabilidad y explicabilidad y reclama que los sistemas generativos permitan identificar contenidos producidos por IA, especialmente en asuntos de interés público. Aunque muchas obligaciones serán progresivas, su aplicación apunta a prácticas de transparencia más exigentes en medios.
Claves profesionales que emergen
Transparencia con matices. El trabajo recoge posturas enfrentadas: desde quienes reclaman declarar el uso de IA en todas las fases, hasta quienes la equiparan a una herramienta de producción (como un transcriptor o un procesador de textos) cuyo uso no exige mención expresa. En ambos casos, el control humano y la rendición de cuentas del periodista aparecen como criterios vertebradores.
Autoría y responsabilidad. La ausencia de pautas estables genera incertidumbre sobre firma, propiedad intelectual y cadena de custodia de fuentes cuando intervienen modelos generativos, abriendo la puerta a modelos de autoría compartida o, al menos, a una atribución editorial explícita del proceso.
Formación y alfabetización algorítmica. La demanda de capacitación —técnica, deontológica y jurídica— se repite como condición para integrar IA con estándares de contraste, trazabilidad de datos, mitigación de sesgos y protección de derechos. En paralelo, marcos como la Recomendación de UNESCO sobre la Ética de la IA proporcionan principios generales de transparencia y responsabilidad aplicables al ámbito mediático.
Qué implica para medios y audiencias especializadas
Para las redacciones españolas, el informe perfila una agenda inmediata: (1) definir políticas internas que especifiquen cuándo, cómo y con qué salvaguardas puede intervenir la IA en el flujo editorial; (2) estandarizar avisos de transparencia acordes al AI Act y a futuras normas nacionales, evitando etiquetas vacías y apostando por transparencia procedimental (qué se hizo, con qué datos y bajo qué supervisión); (3) documentar autoría y trazabilidad de fuentes y prompts; (4) auditar sesgos y asegurar la revisión humana en cada paso con criterios verificables. En un mercado de confianza frágil, el estudio sugiere que la adopción de IA será sostenible solo si queda anclada a protocolos verificables y a una comunicación clara con el lector especializado. (Tomada de Laboratorio de Periodismo).
Fuente: Are the Media Transparent in Their Use of AI? Self-Regulation and Ethical Challenges in Newsrooms in Spain, de M. Á. Fernández-Barrero y C. Serrano-Martín (Journalism and Media, 13/09/2025).

