En esta crónica en primera persona un periodista explica cómo un medio pidió a sus trabajadores que supervisaran y corrigieran las torpes noticias que una inteligencia arficial generativa creaba a partir de teletipos. El final le sorprenderá (o no)

“Partidos de fútbol que nunca existieron, frases sin sentido, las cabezas de presidentes de Estados con caras diferentes… ¿soy el único que cree que esto es distópico?”, preguntan en un chat para trabajadores de un grupo de medios de comunicación europeo donde trabajé durante poco más de dos años. “Llevo tiempo pensando lo mismo”, responde otro empleado. El medio en cuestión es una de esas plataformas que bombardean nuestros teléfonos con notificaciones y alertas de última hora donde, hasta mediados de 2025, todo funcionaba de una manera normal: un grupo de periodistas con sus agendas informativas editaban artículos sacados de teletipos. Pero el grupo empresarial dejó de tener interés en el medio, unos jóvenes alemanes se hicieron cargo y decidieron intentar que la Inteligencia Artificial generativa creara artículos por su cuenta a partir de agencias de noticias y resúmenes de periódicos.

A partir de ese momento, los humanos de la redacción tuvimos los días contados, y nuestro trabajo se convirtió en corregir y entrenar a la IA para sustituirnos. Pasábamos la jornada laboral, en turnos de cuatro horas, evaluando la calidad del los textos, las imágenes escogidas y verificando datos de las informaciones que elaboraba el robot. En definitiva, le ayudábamos a parecer menos robot. Si había errores, los apuntábamos en un excel colaborativo especificando su grado de gravedad: bajo, medio, grave o muy grave. El tipo de fallo que debíamos detectar eran faltas de ortografía, imágenes inconexas con el titular o titulares demasiado largos, y se había previsto que acabáramos el trabajo en dos meses, julio y agosto. Tres en caso de que el entrenamiento se complicase. Después, nos sustituirían definitivamente por máquinas.