Asociación Vasca de periodistas - Colegio Vasco de periodistas

Asociación Vasca de periodistas - Colegio Vasco de periodistas

Inteligencia Artificial y ética periodística: aproximación y análisis del impacto de la IA en el desempeño del periodismo

  1. Introducción
    El ser humano siempre ha otorgado una gran importancia a su capacidad intelectual. El homo
    sapiens ha empleado casi toda su existencia a la labor de entender cómo piensa, a cómo un organismo
    formado por simple materia es capaz de recibir estímulos, aprender, entender y responder ante
    situaciones mucho más amplias y complejas (Russell y Norvig, 2002). Hoy en día, está más cerca que
    nunca de alcanzar este propósito gracias a la Inteligencia Artificial (IA). El avance de la ciencia
    ha propiciado numerosos hallazgos en el campo de la neurología. Existe un conocimiento cada vez
    mayor acerca de las reacciones bioquímicas que preceden a las emociones, los deseos y la toma de
    decisiones (Harari, 2018). Estos descubrimientos científicos suceden paralelamente a un desarrollo
    tecnológico que ha alcanzado una rapidez nunca antes vista. La carrera conjunta entre ciencia y
    tecnología compone un escenario ilusionante en posibilidades, pero incierto en cuanto a madurez
    ética.
    Tal y como se ha repetido a lo largo de la historia, la Inteligencia Artificial, como muchos otros
    adelantos técnicos, llega carente de pautas éticas sobre cómo emplearla. El vertiginoso avance de
    esta tecnología viene acompañado de numerosas incógnitas éticas a las que urge buscar solución
    (Cortina, 2019). Teniendo en cuenta la dimensión global de este fenómeno, el debate en torno a sus
    cuestionamientos morales alcanza todos los sectores de la sociedad, incluido el
    del periodismo.
    Ante el convulso panorama periodístico de los últimos años, la Inteligencia Artificial ya está
    siendo aplicada transversalmente en los procesos de producción de este sector (Túñez-López, Fieiras
    Ceide y Vaz-Álvarez, 2021). La aportación tecnológica de la IA es indudable, pero las amplísimas
    posibilidades de esta herramienta pueden representar una amenaza para los principios básicos del
    periodismo. En este marco de acción, el presente trabajo plantea los siguientes objetivos:
    Objetivo 1: Aproximación a la relación entre IA y periodismo.
    Objetivo 2: Analizar el impacto de la IA en la ética periodística.
    Objetivo 3: Aportar reflexiones que susciten el debate en torno a la influencia de la IA
    en la ética periodística.

El trabajo se divide en varios apartados, y se emplean diversos métodos para buscar los resultados
que requiere la finalidad de la investigación. Para empezar, y a modo de contexto, se
ha elaborado un marco teórico sobre los dos conceptos que conforman el núcleo del estudio: la

IA y su relación con el periodismo. Este apartado ha sido completado contrastando una considerable
cantidad de documentos especializados. En este caso, se trata de la lectura y análisis de
múltiples textos relacionados con el apartado teórico. Este proceso de documentación es el
que sustenta el planteamiento del trabajo. Entre los materiales analizados se encuentran libros,
capítulos de libros, artículos especializados, textos periodísticos, trabajos académicos y de
investigación, informes empresariales e incluso un código deontológico. Esta variada tipología de
textos supone un alto grado de acercamiento al tema tratado. Las características de los diversos
tipos de documentos utilizados aportan una dimensión muy profunda al marco teórico. En definitiva,
este trabajo de recopilación de fuentes secundarias sienta las bases del análisis que se realizará
a posteriori.
Para completar la siguiente fase de la investigación se ha hecho uso de fuentes primarias. Se han
realizado varias entrevistas en profundidad -método cualitativo- a especialistas en los campos de
la Inteligencia Artificial y el periodismo. Los perfiles de estas voces expertas se han escogido en
base a su campo de conocimiento, buscando cierta diversidad para contrastar los resultados
obtenidos. Las entrevistas confieren al estudio aportaciones concisas y de mayor profundidad en
relación con los objetivos planteados.
Finalmente, tras recopilar y contrastar la información recogida en ambas fases, la investigación
concluye con varias reflexiones relacionadas con las preguntas planteadas a lo largo del presente
trabajo.

  1. Marco teórico: Inteligencia Artificial y su relación con el periodismo
    En el presente apartado, elaboraré un repaso, a modo de contextualización, de la Inteligencia
    Artificial y su unión con el periodismo. El periodismo se ha mantenido en contacto con la
    tecnología desde 1952, cuando un ordenador predijo por primera vez los resultados electorales en
    Estados Unidos (Cox, 2000; citado en Mondría, 2023). Sin embargo, no fue hasta la década de los 80
    cuando esta fusión entre periodismo y tecnología se fortaleció debido al surgimiento de la
    automatización de noticias o, como se le denominó posteriormente, periodismo computacional
    (Thurman, 2020; citado en Mondría, 2023). Estos avances marcaron la irrupción de la IA en el
    periodismo.

4

Desde entonces, la relación entre Inteligencia Artificial y periodismo ha ido en aumento. Para
entender este vínculo, es necesario comprender primeramente y por separado un concepto tan ambiguo
como la Inteligencia Artificial.
2.1. Inteligencia Artificial (IA)

Este punto recoge las concepciones básicas de la Inteligencia Artificial y establece un marco
histórico de su evolución, el cual se plantea completamente necesario para situar las diversas
etapas de desarrollo de esta herramienta. Definir el concepto de IA y revisar el recorrido en esta
área de investigación desde su surgimiento hasta el presente será un punto de partida adecuado para
la elaboración del resto del trabajo.
2.1.1. ¿Qué es?

La Inteligencia Artificial (IA) es un sistema de compleja definición que adopta una dimensión muy
profunda. No solo intenta comprender la inteligencia humana, sino que trata de crear entidades
inteligentes (Russell y Norvig, 2002). Esta tecnología está posibilitando el avance científico
hacia la comprensión del funcionamiento del cerebro humano. Así, puede afirmarse que la metodología
de trabajo en el campo de la Inteligencia Artificial se asemeja en gran medida a la utilizada en
las investigaciones sobre la mente humana, que empieza a ser comparada con los sistemas
computacionales.
Por otra parte, el avance en el ámbito de la IA abre las puertas a sistemas de computación con
capacidades similares a las de la mente humana, lo que significa una aproximación nunca antes vista
hacia la comprensión de su funcionamiento (Meseguer y López de Mántaras, 2017). Debido a esta
relación, se entiende que la principal finalidad de la IA es que los ordenadores sean capaces de
actuar como la mente del sapiens (Boden, 2017). Esto implicaría que los ordenadores puedan llevar a
cabo procesos propios de la de inteligencia humana (Rouhiainen, 2018).
Aún no existe una definición de la IA universalmente aceptada, pero muchos especialistas se han
aventurado a estrechar el cerco a un campo de investigación al que todavía no se le atisban
límites.
Algunas definiciones tratan de simplificar al máximo el funcionamiento de la IA, exponiéndola como
la capacidad de una máquina para imitar el comportamiento de la inteligencia humana (Aghion, Jones
y Jones, 2019). Otras concepciones concretan más y afirman que la IA implica

5

“la imitación por las máquinas de los sistemas cognitivos y de aprendizaje para la resolución de
problemas” (Baum et al., 2017; citado en Aguado y Grandío-Pérez, 2024).
Existen explicaciones más técnicas y detalladas acerca de la IA. Así, autores como Rouhiainen
(2018) definen la IA como “…la capacidad de las máquinas para usar algoritmos, aprender de los
datos y utilizar lo aprendido en la toma de decisiones tal y como lo haría un ser humano”.
El Centro Común de Investigación (JRC, Joint Research Center) de la Comisión Europea se refiere a
la Inteligencia Artificial como “sistemas de software y hardware diseñados por humanos que, ante un
objetivo complejo, actúan en una dimensión física o digital”. Este organismo europeo señala en el
informe JRC Technical Reports: AI Watch, Defining Artificial Intelligence que la Inteligencia
Artificial puede actuar de dos maneras. La primera es una reacción cuantitativa, donde el sistema
percibe su entorno a través de la adquisición e interpretación de datos. La segunda forma de actuar
tiene un carácter cualitativo, más humano. En base a los datos recogidos, la IA razona sobre los
conocimientos adquiridos y decide cuáles son las soluciones más adecuadas (Samoili et al., 2020).
Las definiciones actuales distan mucho de las primeras concepciones de la IA, mencionada por
primera vez en la década de 1940 por los matemáticos Norbert Wiener y John von Neumann. Ambos
establecieron las bases para lo que posteriormente John McCarthy definiría como Inteligencia
Artificial. McCarthy, reputado informático estadounidense, fue el primero en utilizar el término
‘Inteligencia Artificial’ en 1956 durante la Conferencia de Dartmouth, donde fue definida como
“programas escritos para resolver problemas que suponen dificultad intelectual para los humanos”.
En 2007, el propio McCarthy desarrolló la definición aportada varias décadas antes y describió la
IA como «la ciencia e ingeniería que crea máquinas inteligentes, especialmente programas
informáticos inteligentes», refiriéndose a la inteligencia como “la parte computacional de la
habilidad de conseguir objetivos” (McCarthy et al., 2006; citado en Mondría, 2023).
Suleyman (2023), CEO de Microsoft AI, establece una diferenciación entre Inteligencia Artificial,
Inteligencia Artificial General e Inteligencia Artificial Capaz. Define la IA como “la ciencia que
enseña a las máquinas a aprender habilidades humanas”. En el caso de la Inteligencia Artificial
General, la describe como el estado avanzado de la IA, en el que ha desarrollado la capacidad
suficiente para completar actividades cognitivas humanas mejor que los seres humanos más
inteligentes. Como punto intermedio entre ambas coloca la Inteligencia

6

Artificial Capaz, la cual puede llevar a cabo numerosas tareas, pero sin alcanzar la habilidad de
la Inteligencia Artificial General.
Por su parte, López de Mántaras (2015) predijo las dos formas de Inteligencia Artificial que se han
diferenciado casi diez años después: la IA débil y IA fuerte. Define la IA débil como “la ciencia e
ingeniería que permiten diseñar y programar ordenadores de forma que realicen tareas que requieren
inteligencia”. Respecto a la IA fuerte, explica que se trata de “la ciencia e ingeniería que
permitirá replicar la inteligencia humana mediante máquinas”. Casi una década después de la
publicación del artículo Algunas reflexiones sobre el presente y futuro de la Inteligencia
Artificial de López de Mántaras, esta versión de la IA fuerte se ha convertido en una realidad.
La Inteligencia Artificial tiene una la finalidad principal de conseguir que una máquina alcance
unas capacidades cognitivas similares a las de un ser humano. El campo de la IA plantea uno de los
objetivos más ambiciosos de la historia, comparable a grandes dilemas científicos como el origen de
la vida, el origen del universo o averiguar la estructura de la materia (López de Mántaras, 2015).
A pesar de que el concepto ‘Inteligencia Artificial’ se ha popularizado en gran medida en los
últimos diez años, los científicos e investigadores de esta área llevan trabajando en este objetivo
desde varias décadas atrás.
2.1.2. ¿De dónde viene?

La fuente principal para elaborar el presente apartado es el artículo Historia y evolución de la
inteligencia artificial de Carlos Gutiérrez y Andrés Abeliuk (2021), profesor y asistente
respectivamente del Departamento de Ciencias de la Computación de la Universidad de Chile. Ambos
centran sus investigaciones en campos como la Inteligencia Artificial, la computación y la
importancia de los datos.
A partir de este artículo del que utilizo preferentemente la línea cronológica planteada por
Gutiérrez y Abeliuk, he incorporado otras fuentes y referencias que complementan, creo que
adecuadamente, el recorrido histórico del concepto de la IA.
La predicción de Ada Lovelace puede ser considerada como la primera aparición, aunque indirecta, de
la Inteligencia Artificial en la historia de la humanidad. En 1843, la matemática británica expuso
las primeras teorías acerca del diseño y funcionamiento de la computadora digital moderna. Lovelace
fue la encargada de traducir al inglés un artículo del ingeniero militar italiano Luigi Menabrea
sobre la máquina analítica diseñada (nunca se llegó a construir) por

7

Charles Babbage. Añadió a la traducción un apartado llamado ‘Notes’ en el que aportaba sus propias
explicaciones, entre las que se incluía una suposición del potencial que podía llegar a tener el
invento de Babbage. En esos comentarios publicados en el Bibliothèque Universal de Genève junto al
artículo de Menabrea en el año 1843, Lovelace aseguró que “la máquina podría componer piezas
musicales científicas y elaboradas de cualquier grado de complejidad o extensión” (citado en Pazos,
2010). También intuyó el potencial de la máquina para descubrir “los grandes hechos de la
naturaleza”, lo que posibilitaría “una época gloriosa para la historia de las ciencias” (citado en
Boden, 2017).
La obra de Ada Lovelace la erige como una de las pioneras en el campo de la informática. Predijo la
capacidad de las computadoras para manipular y procesar cualquier tipo de sistema de símbolos
(Ferry, 2015), y describió elementos de programación moderna como los bugs, los microprogramas o
las estructuras de control más de un siglo antes de su irrupción (Boden, 2017). En pocas palabras,
dedujo el comportamiento que iban a tener los ordenadores cien años después.
A pesar de la evidente aportación informática de Ada Lovelace, la manera de diseñar sistemas
inteligentes seguía siendo una incógnita. En 1936, el informático británico Alan Turing diseña su
máquina automática, un prototipo de computación en el que el humano es asistido únicamente con
recursos mecánicos. Cualquier persona que empleara la máquina podía hacer que ésta realizara los
mismos procesos que una computadora humana. El propio Turing la bautizó como ‘universal’ y era,
como afirma Copeland (2013), una máquina computadora con la capacidad de actuar como una
computadora humana. Asimismo, Turing planteó los límites de lo computable en este modelo de máquina
automática, afirmando lo siguiente: “Un número es computable si sus decimales pueden ser escritos
por una máquina” (Turing, 1936; citado en Ilcic y García, 2018). Es decir, define ‘computable’ como
algo que puede ser formulado e interpretado por las máquinas.
Más de una década después, Alan Turing estableció uno de los hitos fundacionales de la Inteligencia
Artificial. En 1950, el investigador británico crea el Test de Turing, un examen para demostrar la
existencia de inteligencia en las máquinas. El test está basado en un juego de imitación en el que
la máquina se hace pasar por una persona real para así provocar la equivocación de uno de los
participantes. La prueba se considerará exitosa si se produce esta confusión y la persona
identifica erróneamente a la máquina. En palabras del propio Turing en una entrevista con la BBC en
el año 1952, “…la idea del test es que la máquina tiene que simular

8

ser un humano a base de responder a las preguntas que se le hacen, y sólo pasará este test si la
simulación es suficientemente convincente” (citado en González, 2013).
Mediante este test, Turing trata de comprobar la existencia de inteligencia en las máquinas
haciendo uso de la imitación y la simulación, pero se desmarca completamente de la búsqueda de la
definición de inteligencia (González, 2013). El Test de Turing, junto a su máquina universal,
posicionan a Alan Turing como el padre de la IA (Arceo, Bautista y Banda, 2022) y uno de los
principales precursores para la posterior idealización de la Inteligencia Artificial en la segunda
mitad del siglo, ya que predijo la importancia del aprendizaje automático décadas antes de su
surgimiento. En lugar de recrear la mente adulta con una máquina, Turing planteó la emulación de la
mente de un niño para provocar un proceso de aprendizaje y conseguir un desarrollo cognitivo desde
una mente infantil hasta una adulta (Meseguer y López de Mántaras, 2017). Este es precisamente el
modelo de Inteligencia Artificial que predomina en la actualidad.
Las bases de la IA estaban formadas, pero el concepto tardó en salir a la luz. Hasta la década de
1950, la disciplina era denominada comúnmente como ‘Inteligencia de Máquina’. Este término
predominaba en los trabajos académicos y de investigación de los autores de la época. Sin embargo,
en 1956 este concepto fue sustituido para siempre. La Conferencia de Dartmouth de ese mismo año
supuso un antes y un después en la historia de la Inteligencia Artificial. En dicho evento,
organizado por John McCarthy, Marvin Minsky, Claude Shannon y Nathaniel Rochester, se emplea por
primera vez el término ‘Inteligencia Artificial’ para definir una nueva área de estudio.
De ese encuentro científico surgió una idea que se mantiene con firmeza en las discusiones actuales
sobre la IA, casi siete décadas más tarde. Los participantes de la Conferencia de Dartmouth
concluyeron, entre otras cosas, que el pensamiento no es una forma de computación exclusiva de los
seres humanos. Los científicos que acudieron a la sesión debatieron en torno a la cuestión de que
la inteligencia humana puede ser reproducida por máquinas (Abeliuk y Gutiérrez, 2021). Incluso la
idea propuesta por los organizadores como eje principal de la conferencia estaba relacionada con
este punto de vista: “El estudio se basará en la conjetura de que cada aspecto del aprendizaje o de
cualquier otro rasgo de la inteligencia pueda ser descrito con la precisión suficiente para que una
máquina pueda simularlo” (citado en Moor, 2006).
Los discursos, debates y presentaciones de la Conferencia de Dartmouth abrieron el camino a
numerosos descubrimientos en el campo de la IA en la segunda mitad del siglo (Moor, 2006). Tanto
fue así que en el mismo 1956, Alan Newell y Herbert Simon, dos de los científicos que
9

acudieron a la conferencia, diseñaron el primer programa computacional de inteligencia artificial,
llamado Logic Theory Machine. La pionera idea de Newell y Simon aportaba un enfoque principalmente
heurístico. Este programa empleaba técnicas de indagación e investigación para tomar decisiones
óptimas o, en casos de alta complejidad, escoger la alternativa más adecuada (Meseguer y López de
Mántaras, 2017). Su funcionamiento se basaba en reducir de manera inteligente las opciones de
búsqueda y dar con una solución (Abeliuk y Gutiérrez, 2021). La implementación de este enfoque
heurístico se consolidó como la principal vía de investigación y avance de la Inteligencia
Artificial en los siguientes años.
Precisamente de esta visión heurística nace la IA simbólica, uno de los modelos más exitosos en
esta primera etapa de la Inteligencia Artificial. Los programas elaborados en las décadas
posteriores al nacimiento del concepto tienen como eje central la resolución de problemas. La IA
simbólica se basa en el razonamiento lógico y la búsqueda heurística para ofrecer soluciones ante
diversas situaciones, sin mantener contacto con un entorno verdadero. Es decir, funciona mediante
representaciones abstractas del mundo real construidas con términos lógico- matemáticos. Estos
modelos inteligentes eran capaces de resolver problemáticas que no mantenían ningún tipo de
relación directa con el entorno real (López de Mántaras, 2015).
Deep Blue, la máquina sintética capaz de jugar al ajedrez creada en la década de los 90, es un
claro ejemplo de la Inteligencia Artificial simbólica. Se trata de un modelo diseñado y programado
para jugar al ajedrez, pero no precisa de manos artificiales ni percepción visual para hacerlo. Su
configuración hace que la máquina sea conocedora de las reglas de juego y por tanto pueda
emplearlas digitalmente, sin tener que relacionarse con el entorno real o físico.
En 1958, el psicólogo estadounidense Frank Rosenblatt trató de desmarcarse de la IA simbólica. Al
contrario de este tipo de inteligencia sintética que replicaba la mente humana con símbolos
computacionales, Rosenblatt propuso modelar la biología del cerebro y sus redes neuronales. Así
nació el perceptrón, una variante de la neurona artificial creada previamente por Warren McCulloch
y Walter Pitts con la capacidad cognitiva suficiente para aprender mediante coeficientes de
ponderación que representaban los estímulos que recibe el cerebro humano. El perceptrón de
Rosenblatt fue el primer precursor de la IA conexionista, aunque en aquel entonces no atrajo la
financiación suficiente ni cumplió con las expectativas esperadas.
Las siguientes dos décadas estuvieron marcadas por la falta de interés, financiación y eficacia en
las investigaciones relacionadas con la IA. Uno de los pocos haces de luz en un campo cada vez más
oscuro y apagado fue la invención de Eliza en 1964, el primer programa informático
10

de procesamiento del lenguaje natural, desarrollado por el científico del MIT Joseph Weizenbaum.
Este modelo permitió por primera vez la conversación funcional entre humano y máquina. El
denominado primer invierno de la IA finaliza en la década de 1980, cuando Geoffrey Hinton, David
Rumelhart y Ronald Williams recuperan el concepto de retropropagación en su artículo
conjunto Learning Representations by Back-Propagating Errors. Devuelven a la palestra la búsqueda
heurística y la IA simbólica con el algoritmo de retropropagación, el cual minimiza el margen de
error y permite que una red neuronal de múltiples capas aprenda en función de los datos que
percibe. Este desarrollo cognitivo logrado a partir de la retropropagación borró de un plumazo las
limitaciones del perceptrón de Rosenblatt e impulsó las posteriores indagaciones acerca del
aprendizaje profundo o deep learning.
Tras un segundo invierno de la IA entre 1987 y 1993 en el que las oportunidades tanto económicas
como investigativas volvieron a decaer, el nuevo siglo trajo consigo nuevas esperanzas en el campo
de la Inteligencia Artificial. El hito más importante de la década de los 90 puede ser considerado
como el momento cumbre de la IA simbólica. Como hemos apuntado más arriba, Deep Blue, una
computadora programada para jugar al ajedrez, venció en 1996 al ajedrecista ruso Garry Kaspárov,
campeón del mundo en aquel entonces. Este acontecimiento tuvo un alcance global. El ser humano fue
derrotado por una máquina por primera vez en la historia.
El siglo XXI comenzó con la invención de la primera aspiradora autónoma, llamada Roomba, que
comenzó a comercializarse en 2002. Siete años después, la informática china Fei-Fei Li creó
ImageNet, un portal de acceso gratuito y libre de derechos a 14 millones de imágenes. El
lanzamiento de ImageNet permitió grandes avances para los investigadores de la IA, ya que emplearon
esta base de datos para desarrollar modelos neuronales de identificación de fotos y objetos.
Este progreso en el área de la Inteligencia Artificial auguraba un escenario propicio para su
empleo en el periodismo, pero la llegada de la primera década del siglo XXI supuso una auténtica
revolución impulsada por el aprendizaje profundo o deep learning y el aprendizaje automático, que
facilitaron el surgimiento de herramientas con utilidad para la práctica periodística.

11

2.2. Inteligencia Artificial y periodismo

Este apartado gira en torno al vínculo existente entre la IA y el periodismo. Como se ha mencionado
en el punto anterior, el surgimiento de las máquinas inteligentes data de la mitad del siglo. XX.
Sin embargo, no es hasta la llegada del presente siglo cuando estos modelos de inteligencia
sintética irrumpen con fuerza en el panorama periodístico. Esta sección del trabajo recoge esa
unión y detalla los tipos de IA con influencia en la actividad periodística, especificando los
principios de la profesión que pueden ser vulnerados.
2.2.1. Relación entre IA y periodismo

A pesar de que los primeros cibermedios El acercamiento entre la Inteligencia Artificial y
periodismo se acelera a partir del año 2010. Según Abeliuk y Gutiérrez, dos fenómenos posibilitan
un rápido desarrollo en el campo de la IA.
El primero de ellos es la creación de hardware especializados que han aumentado de forma
desenfrenada el rendimiento y la capacidad de interiorización de las redes neuronales. También han
conseguido reducir el consumo de energía, algo esencial teniendo en cuenta los altísimos niveles de
energía que gastaban las primeras herramientas de Inteligencia Artificial.
El segundo acontecimiento que marca la vertiginosa evolución de la IA en esta década es la
democratización de los datos. El aumento de la cantidad de todo tipo de contenidos disponible en la
web, la mayoría de acceso libre, ha otorgado una libertad nunca antes vista para que los
investigadores de la Inteligencia Artificial entrenen sus modelos (Abeliuk y Gutiérrez, 2021).
Ambos fenómenos han generado un panorama idóneo para la creación de aplicaciones de todo tipo,
muchas de ellas con múltiples usos en el área periodística.
El primer encuentro entre la IA y el periodismo sucede en 2014. Un terremoto de 4.4 grados en Los
Ángeles no solo sacude el suelo de la ciudad estadounidense, sino que también hace temblar el mundo
del periodismo a escala global. La primera noticia haciéndose eco del suceso fue escrita por
Inteligencia Artificial, tan solo tres minutos después de que el suelo temblara. El diario Los
Angeles Times publicó la noticia, pero el encargado de redactarla no fue un periodista real, sino
un algoritmo creado por el programador estadounidense Ken Schwencke, diseñado para redactar piezas
cortas (citado en Salazar, 2018). Este software llamado Quakebot estaba conectado a la base de
datos del United States Geological Survey y redactaba automáticamente artículos cortos sobre los
movimientos sísmicos detectados, partiendo de una plantilla elaborada previamente (Ufarte y
Manfredi, 2019). El mundo no tardó en mostrar su asombro, con titulares
12

como este de El Confidencial: Un ‘robot periodista’ contó en primicia el reciente terremoto de Los
Ángeles.
Después de esta primera aparición de la IA en un medio de comunicación, la relación entre ambos
ámbitos se fue estrechando. La agencia estadounidense Associated Press emplea desde 2014 el
programa informático Wordsmith para redactar noticias acerca de los informes de ganancias
trimestrales de alrededor de 3.700 empresas (Dörr, 2016; Lichterman, 2017; citado en Ufarte y
Manfredi, 2019). Otros medios como The Washington Post, The New York Times o la revista Forbes
recurren desde 2016 a herramientas de Inteligencia Artificial para generar materiales relacionados
con la actualidad deportiva y financiera.
Al otro lado del Atlántico, el diario británico The Guardian es considerado uno de los medios
pioneros en Europa en cuanto a la utilización de la IA se refiere. En 2010 ya contaba con
herramientas sintéticas para analizar automáticamente noticias deportivas y extraer estadísticas de
partidos, jugadores o equipos (Bunz, 2010; citado en Ufarte y Manfredi, 2019). Tan solo un año
después, The Guardian proporcionó a sus lectores una aplicación que dinamizaba la búsqueda de
noticias en Twitter a través de la automatización (González, 2011; citado en Ufarte y Manfredi,
2019). En 2014, el medio británico lanzó Guarbot, una herramienta complementaria que
aportaba datos financieros complejos para así amenizar el trabajo de sus periodistas (Gani y
Haddou, 2014; citado en Ufarte y Manfredi, 2019). La BBC añadió a sus procesos creativos el
software SALCO para cubrir informaciones y noticias de la actualidad local. The Telegraph, por su
parte, diseñó un programa propio llamado Roboblogger que genera publicaciones indefinidas basándose
en los datos de los eventos deportivos que son narrados en directo en la web (Ufarte y Manfredi,
2019).
El diario Le Monde, uno de los más importantes de Francia, hizo uso de la Inteligencia Artificial
para elaborar y publicar contenido informativo sobre las elecciones nacionales de 2015 (Sánchez y
Sánchez, 2017; citado en Ufarte y Manfredi, 2019). Y por aportar ejemplos aún más cercanos, varias
sedes de la Agencia EFE llevan trabajando muchos años con sistemas automatizados para gestionar
datos (Fanta, 2017; citado en Ufarte y Manfredi, 2019). También en España, el periódico El País
colabora desde hace años con Google para, a través de la IA, analizar los comentarios de sus
lectores online y así promover una interacción de calidad en sus portales digitales.
Estos ejemplos demuestran que la relación entre Inteligencia Artificial y periodismo no es algo
novedoso. Sus caminos se juntaron hace más de una década. Desde esos comienzos, en el
13

mundo del periodismo se ha trabajado conjuntamente con diversas herramientas de Inteligencia
Artificial, aunque no ha sido hasta 2022 cuando su uso se ha popularizado exponencialmente.
En los últimos 40 años, el aprendizaje automático se ha consagrado como la característica con más
potencial de la Inteligencia Artificial. El desarrollo de este apartado de la IA permite a sus
modelos entender y responder ante situaciones para las que no han sido instruidos previamente,
simplemente a partir de ejemplos. Es decir, aprenden de manera automática inspirándose en
contenidos existentes sin que la persona que esté usando la herramienta IA le dicte unas pautas
determinadas (Sanguinetti, 2023).
El ejemplo expuesto por el periodista e investigador español Pablo Sanguinetti en el artículo
Inteligencia artificial en periodismo: oportunidades, riesgos, incógnitas revela de forma muy
clarificadora el poder del aprendizaje automático. Si una persona desea explicar a otra qué es un
gato sin que esta última haya visto uno jamás, tendría que hacer uso de una lista infinita e
inacabable de rasgos y, aun así, a esta segunda persona le resultaría muy complicado crear una
imagen exacta del animal. Este proceso queda simplificado con el aprendizaje automático. Sería
suficiente con mostrar varias imágenes de gatos al algoritmo para que este detecte los patrones en
las fotos e identifique al animal en cualquier tipo de contenido con el que no haya tratado antes.
Identifica, imagina e interioriza un nuevo concepto con mucha más facilidad.
Los tres procesos que definen el aprendizaje automático (absorber datos, identificar patrones y
elaborar predicciones a partir de esos patrones) han supuesto una revolución en el campo de la
Inteligencia Artificial. Los modelos sintéticos creados en los últimos años han evolucionado en
complejidad. Programas de IA más simples como los asistentes de voz, con presencia en nuestras
vidas desde hace ya muchos años, han dado pie a herramientas más desarrolladas y poderosas como la
IA Generativa. En un periodo muy corto de tiempo se ha pasado de máquinas con un uso restrictivo,
que únicamente responden a las acciones que les son ordenadas y no acumulan conocimientos, a
modelos de IA capaces de almacenar información, aprender de sí mismas y escoger respuestas
originales basándose en sus propias experiencias (Túñez-López, Fieiras Ceide y Vaz-Álvarez, 2021).
Este contexto tecnológico ha desembocado en un escenario donde la Inteligencia Artificial tiene
cabida en la gran mayoría de los sectores de la sociedad y, por supuesto, también en el periodismo.
La cantidad de herramientas de IA disponibles aumenta a un ritmo vertiginoso y esto hace que sus
posibles usos en el ámbito periodístico se expandan sin límite.

14

2.2.2. Tipos de IA con impacto en el periodismo

Las tecnologías se adentraron en las redacciones informativas a mediados de la década de los 90 y
es ahí cuando nació uno de los ámbitos con mayor éxito del periodismo: el periodismo digital. La
aparición de los primeros cibermedios en la web marcó el punto de salida de este hito periodístico.
Desde entonces numerosos expertos en la materia han tratado de definir un término que, a día de
hoy, permanece en constante evolución (Salaverría, 2019).
Los incansables intentos por acotar la dimensión del significado de ‘periodismo digital’ no hacen
más que evidenciar la ambigüedad del concepto. Vallez y Codina (2018) hacen referencia al uso de
‘periodismo computacional’ y lo definen como “los sistemas que automatizan parte de los procesos de
creación y de personalización de contenidos periodísticos”. Caswell y Dörr (2017) utilizan el
término ‘periodismo automatizado’ para referirse a la creciente tendencia de automatizar las tareas
rutinarias de los periodistas. Por otro lado, Carlson (2015) emplea el concepto inglés
robojournalism para describir la capacidad de los robots para escribir piezas periodísticas cortas.
También existen denominaciones como ‘periodismo escrito por máquinas’ (Van-Dalen, 2012; citado en
Peña, Meso, Larrondo y Díaz, 2023) o ‘periodismo algorítmico’ (Anderson, 2012; citado en Peña et
al., 2023) que tratan de ofrecer una visión definida del contacto entre las máquinas y el
periodismo. Sin embargo, todas estas concepciones del periodismo digital se quedan cortas
observando el impacto que ha tenido la Inteligencia Artificial en el panorama periodístico.
El pensamiento generalizado se inclina hacia una visión de la relación entre IA y periodismo muy
concreta y cerrada. La mayoría social cree que el uso de Inteligencia Artificial en el ámbito
periodístico se resume a la elaboración de textos automatizados. Nada más lejos de la realidad. De
hecho, la IA ha irrumpido de forma transversal, ganando presencia en todos los procesos de la
producción periodística (Túñez, Toural y Frazão, 2020; citado en Túñez-López, Fieiras Ceide y
Vaz-Álvarez, 2021). Aunque en la actualidad la automatización esté presente en muchos aspectos de
la actividad periodística, destaca su importancia en tres procesos vitales para el periodista: “La
automatización en la recogida de información, la producción automatizada del contenido (redacción
de la noticia) y distribución de información, y la relación con la audiencia” (Sánchez-García,
Diez-Gracia, Calvo-Barbero, y Álvarez, 2023). En un medio de comunicación, las herramientas
de IA son empleadas con dos finalidades. Por un lado, pueden ser utilizadas por los propios
periodistas con el fin individual de dinamizar sus procesos

15

rutinarios. Por otro lado, puede ser el propio medio el que haga uso de IA como parte de una
estrategia global para mejorar el nivel de producción (Zuazo, 2023).
En el informe ¿Cómo la Inteligencia Artificial impactará al periodismo? (2017), la agencia de
noticias Associated Press resalta la importancia de la automatización en los medios de comunicación
(citado en Tejedor Calvo, 2023):
La IA puede permitir a los periodistas analizar datos; identificar patrones, tendencias, e ideas de
múltiples fuentes; ver cosas que el ojo humano no puede ver; convertir datos y palabras dichas de
forma oral en texto; convertir textos en audios y vídeos; comprender los sentimientos y analizar
escenas a partir de objetos (Associated Press, 2017).
Associated Press aseguraba en 2017 que el papel de la IA en el periodismo iba más allá de la
transcripción o creación de textos y se extendía a procesos periodísticos complejos como la
documentación de datos o el análisis del entorno informativo para conseguir una interacción más
provechosa con el público. Sin embargo, en los últimos años el campo de la Inteligencia Artificial
ha ampliado sus límites hasta horizontes inimaginables en 2017, convirtiendo afirmaciones como la
citada de Associated Press en suposiciones muy cerradas y poco optimistas sobre el potencial de la
IA.
La influencia de la Inteligencia Artificial en el periodismo se entiende desde dos vertientes
distintas. La primera de ellas engloba a los modelos cuyo algoritmo ha sido programado previamente
para sustituir tareas mecánicas y sistematizadas. La otra, mucho más compleja, incluye a aquellas
herramientas sintéticas que, mediante el aprendizaje automático, aumentan su conocimiento básico
para tomar decisiones autónomas, un aspecto cercano a la creatividad propia del ser humano
(Manfredi y Ufarte, 2020). El boom de la Inteligencia Artificial Generativa (IAG) en 2023 puede
revolucionar por completo esta segunda dimensión expuesta por Manfredi y Ufarte (2020).
Future Today Institute indica en el Tech Trends Report de 2024 que el ecosistema informativo se
encuentra en un punto de inflexión, ya que la implementación de la IAG en los medios de
comunicación está moldeando las expectativas de los consumidores hacia las noticias. El informe
revela que las nuevas tecnologías emergentes como la IAG van a determinar el futuro de la creación
de contenidos, la distribución y la monetización en el panorama comunicacional.
Francesco Marconi, periodista computacional y cofundador del medio de comunicación en tiempo real
AppliedXL, divide la innovación en Inteligencia Artificial de la última década en

16

tres etapas: automatización, aumento y generación (citado en Adami, 2023). Marconi establece una
relación directa entre esta última etapa y el surgimiento y posterior expansión de la Inteligencia
Artificial Generativa, que define como una herramienta diseñada “con grandes modelos lingüísticos
capaces de generar textos narrativos a medida”. Esto supone una nueva dimensión para el periodismo
que va más allá de la mera elaboración automática de piezas cortas o el análisis de datos. La IAG
permite la generación de textos mucho más elaborados, especializados y hasta artículos de opinión
(Marconi, 2023; citado en Adami, 2023).
Partiendo del contexto actual, en el cual podemos encontrar la huella de la Inteligencia Artificial
en prácticamente todos los procesos periodísticos, conviene concretar los tipos de IA con mayor
influencia en el ámbito periodístico. Entre los diferentes modelos de IA disponibles actualmente,
existe un grupo que mantiene una relación directa con la práctica periodística. Todas estas
variantes de la Inteligencia Artificial pueden facilitar la labor del periodista y ahorrarle
tiempo, pero se deben tener en cuenta las consideraciones éticas que conlleva su empleo.
Aprendizaje automático o machine learning

El aprendizaje automático o machine learning es una de las herramientas que representan la
convergencia entre la alta tecnología y el periodismo (López y Vizoso, 2021). Bobadilla (2020)
define el machine learning como “la ciencia que hace que los ordenadores aprendan a partir de los
datos”. Se trata de un software capaz de leer, interiorizar y analizar ingentes cantidades de datos
para luego ordenarlos de manera lógica y aprender de ellos (Huerta, 2023; citado en Jiménez, 2023).
Este tipo de IA se desmarca del concepto convencional de la programación, donde cada solución es
programada específicamente para cada necesidad planteada. En el campo del aprendizaje automático,
los algoritmos son diseñados para que extraigan muestras a partir de datos y acumulen conocimiento
(Bobadilla, 2020). Es decir, las máquinas aprenden de la experiencia obtenida durante su
funcionamiento para ofrecer soluciones óptimas a las tareas solicitadas (Serokell, 2020; citado en
López y Vizoso, 2021).
La automatización a la hora de actuar es lo que diferencia al machine learning de los sistemas de
IA anteriores. Realiza tareas sin recibir órdenes explícitas ni ayuda por parte de los
programadores (De Lima y Salaverría, 2021). Los programas de aprendizaje automático funcionan
prácticamente con total independencia.

17

Citando a Benjamín Huerta, presidente del Instituto Jalisciense de Tecnologías de la Información,
«una persona no sería capaz de hacerlo. Implicaría que leyéramos miles de días y encontráramos la
forma de ordenar los datos, acomodarlos y sacarles sentido» (citado en Jiménez, 2023). Por eso, las
variantes tecnológicas derivadas del machine learning cuentan con una presencia cada vez mayor en
las redacciones periodísticas y en sus procesos de producción informativa (López y Vizoso, 2021).
Esta inteligencia sintética puede ser de gran uso en la fase de documentación de un periodista, así
como en los procesos de producción de textos periodísticos. Las corporaciones de comunicación más
importantes del mundo han integrado programas de aprendizaje automático en diferentes fases de su
actividad periodística.
La utilización de sistemas de machine learning abunda en el periodismo de datos. Los medios que
realizan esta práctica periodística incorporan el aprendizaje automático para trabajar con grandes
bases de datos. De esta manera, el tiempo dedicado a procesos como el análisis de información
masiva se ve considerablemente reducido. Las herramientas de machine learning facilitan las labores
de conexiones y contextualización de datos, por lo que son de gran utilidad a la hora de elaborar
piezas complejas como los reportajes de larga extensión.
A pesar de predominar en las fases de producción de piezas periodísticas, el aprendizaje automático
se ha extendido a otras facetas del periodismo. El New York Times, por ejemplo, utiliza un sistema
llamado Moderator para controlar los comentarios que reciben sus contenidos. Partiendo de una base
de datos que incluye comentarios etiquetados por humanos como ‘positivos’ o ‘negativos’, el
programa identifica los patrones comunes para poder catalogarlos como ‘tóxicos’ o ‘no-tóxicos’ en
un futuro, de manera autónoma (Etim, 2017; citado en López y Vizoso, 2021).
Aprendizaje profundo o deep learning

Tal y como se ha mencionado anteriormente, el machine learning consiste en modelos con capacidad de
aprendizaje a partir de datos. Estos sistemas identifican patrones dentro de un cúmulo de datos y
extraen conocimientos básicos, pero no tienen la capacidad de interiorizar conceptos abstractos y
complejos. Por el contrario, el aprendizaje profundo o deep learning (subconjunto del machine
learning) posibilita la interpretación de conceptos más complejos partiendo de otros más simples.
Establece automáticamente una jerarquía desde conceptos más

18

simples, entrelazándolos entre ellos, hasta llegar a conclusiones de mayor complejidad (Casas,
Lozano y Bosch, 2020).
El deep learning puede ser considerado un software autodidacta ya que no precisa de instrucción
humana y tiene la capacidad de aprender por sí solo a medida que va acumulando experiencias (Meso,
Larrondo y Peña, 2023). Va más lejos que el machine learning, resuelve situaciones más complejas.
Los sistemas de deep learning disponen de redes neuronales profundas para tratar con grandes
cantidades de datos y obtener información detallada (González-González, 2023). El aprendizaje
profundo imita las aptitudes de asimilación del cerebro humano, inspirándose en su estructura y en
el funcionamiento de sus redes neuronales (Chan-Olmsted, 2019; Hassaballah y Awad, 2020; citado en
De Lima y Salaverría, 2021).
Teniendo en cuenta la reciente y desenfrenada digitalización de los medios de comunicación, puede
ser una herramienta interesante para la labor periodística en la web o en las redes sociales
(posicionamiento de noticias, interacción con lectores a través de asistentes virtuales…). El
aprendizaje automático también puede ser empleado para programar sistemas de
reconocimiento de escritura para la corrección automática de la ortografía y la gramática, o
incluso para diseñar transcriptores de audio muy útiles para las entrevistas (González-González,
2023).
Visión artificial o computer vision

Otra de las variantes de IA que puede ser utilizada en la práctica periodística es la visión
artificial. El computer vision se define como la capacidad de un sistema computacional para
visualizar contenido multimedia, entenderlo y generar conclusiones propias. Szeliski (2011) explica
que este tipo de tecnología analiza el procesamiento de una imagen digital valiéndose de algoritmos
matemáticos para deducir qué contenido se le está mostrando. La visión artificial es una
herramienta multidisciplinar que puede ser considerada como un subconjunto del machine learning
debido a que está formada por técnicas especializadas y algoritmos de aprendizaje (De Lima y
Salaverría, 2021).
Este tipo de IA puede servir al periodista a la hora de analizar imágenes y vídeos para así obtener
una primera impresión del acontecimiento que representan. Además, puede acelerar los procesos de
edición y facilitar la labor de búsqueda de fuentes en trabajos de investigación (De Lima y
Salaverría, 2021).

19

Sistemas expertos o expert systems

Un expert system es una Inteligencia Artificial que tiene como base el conocimiento. Contiene bases
de datos nutridas con información especializada aportada por expertos. De esta manera, se consigue
aumentar la productividad ya que se combina la rapidez de una máquina con el amplio conocimiento de
un especialista. Esta unión dinamiza los procesos de resolución de problemas aprovechando las
potencialidades de la IA (Kiray y Sianturi, 2020). Los sistemas expertos representan una
alternativa extremadamente útil para los trabajos de investigación en campos específicos.
En el contexto periodístico, responde a la necesidad constante de actualización de noticias. Un
sistema capaz de reaccionar ante diversos acontecimientos y crear contenido especializado
automáticamente puede llegar a ser de enorme utilidad en un mundo, como es el del periodismo,
regido por la instantaneidad de la información.
Sin embargo, existe el peligro de perder calidad en los contenidos a cambio de conseguir una mayor
producción. Como se ha dicho, expert systems están programados con información que proviene de
expertos. A pesar de que este contenido tenga un alto grado de fiabilidad se debe tener en cuenta
la posibilidad, por ínfima que sea, de que esté sesgado o contenga errores.
Procesamiento de Lenguaje Natural o Natural Language Processing

El Natural Language Processing (NLP) es un campo que une Inteligencia Artificial, lingüística
computacional y ciencia de la computación. Constituye una interacción entre los lenguajes humanos
naturales y los ordenadores (Fanni, Febi, Aghakhanyan, y Neri, 2023). Esta Inteligencia Artificial
permite a las máquinas escuchar y entender a las personas, posibilitando la interacción mediante un
modelo de lenguaje (Jiménez, 2023). El Procesamiento de Lenguaje Natural puede llegar a detectar el
tono de un escrito analizando la relación entre las palabras. Este proceso nace de una combinación
entre el seguimiento de fuentes y el análisis de sentimientos (Laboratorio de Periodismo, 2023).
En definitiva, el NLP incluye cualquier método computacional que analiza el lenguaje humano tanto
escrito como oral para convertirlo en información estructurada. Mediante combinaciones
lingüísticas, estadísticas y métodos de Inteligencia Artificial, el Procesamiento de Lenguaje
Natural puede emplearse para determinar el significado de un texto o incluso para producir una
respuesta humana (Fanni, Febi, Aghakhanyan, y Neri, 2023).

20

Teniendo en cuenta estos usos, se diferencian dos tipos de NLP. El primero de ellos es el Natural
Language Understanding, dirigido al análisis de texto y discurso para interpretar lenguaje natural,
obtener su significado e identificar su contexto haciendo uso de un estudio sintáctico y semántico.
La segunda vertiente del NLP es el Natural Language Generation, diseñado para producir respuestas
humanas en base al análisis de los datos que han sido previamente introducidos en el programa
(Fanni, Febi, Aghakhanyan, y Neri, 2023).
Samuli Sillanpää, líder técnico en el Yle News Lab, asegura que esta técnica puede ofrecer al
periodista una visión más concreta y detallada de la información que está tratando (citado en
Laboratorio de Periodismo, 2023).
Inteligencia Artificial Generativa (IAG)

Es el tipo de inteligencia sintética más reciente, pero probablemente con mayor impacto en todos
los ámbitos, incluido el del periodismo. La IAG ha supuesto una auténtica revolución en el
escenario tecnológico desde su surgimiento a finales de 2022 y su popularización a lo largo del

  1. Los grandes modelos de lenguaje (Large Language Models – LLM), sumados al acceso a la inmensa
    cantidad de datos y contenidos disponibles en la red, han producido una herramienta con
    sorprendentes posibilidades (Aguado y Grandío-Pérez, 2024).
    La IAG es una variante de la Inteligencia Artificial basada en la “creación de sistemas capaces de
    generar contenido original y creativo, como imágenes, música, texto y otros tipos de lenguaje,
    incluidos los de programación”. Mientras que la IA convencional resuelve problemáticas concretas
    que le son planteadas previamente, la IAG, por su parte, genera contenidos nuevos y originales a
    través del aprendizaje automático, el procesamiento y la generación de datos (Cao et al., 2023;
    citado en Aguado y Grandío-Pérez, 2024).
    En resumidas cuentas, la IAG identifica patrones y características de los contenidos disponibles
    para aprender de ellos y crear nuevos contenidos dependiendo del contexto en el que actúa (Aguado y
    Grandío-Pérez, 2024).
    Por su potencial y características, la IAG es una de las formas de Inteligencia Artificial más
    adaptables al periodismo. Planas Bou (2023) enumera en su artículo Seis herramientas de
    inteligencia artificial para periodistas publicado en El Periódico las diversas aplicaciones de IAG
    que pueden ser empleadas en la labor periodística e informativa, y que de forma resumida serían las
    siguientes:

21

  1. Los generadores de texto, que pueden ser utilizados para resumir textos, simplificar
    explicaciones de conceptos complejos o adaptar piezas a diferentes tipos de lectores. ChatGPT,
    creada por la empresa estadounidense OpenAI, se ha erigido como el generador de texto por
    excelencia. La fácil accesibilidad al programa ha provocado una rápida democratización, disparando
    así su popularidad en los últimos dos años.
    En este periodo de tiempo han surgido nuevas herramientas imitando el funcionamiento de ChatGPT.
    Entre estos modelos, destacan Llama 2, Jasper AI, Outranking, ClosersCopy o CopyAI.
  2. Los transcriptores de audio también pueden ser de gran utilidad a la hora de transcribir
    entrevistas o declaraciones. Existen programas de IA capaces de pasar audios a formato textual
    incluso en tiempo real. Esta práctica podría ahorrarle un tiempo valiosísimo al periodista a la
    hora de desgrabar entrevistas.
    Las aplicaciones de transcripción de audio más destacadas son Sonix, conversor y transcriptor de
    audio automático disponible en 30 idiomas; Trint, herramienta de conversión y transmisión
    automática dirigida al subtitulado; Rev, software de transcripción de voz a texto basado en la
    nube; y, por último, GoTranscript, diseñada para transcribir vídeos y entrevistas principalmente.
  3. En un periodismo cada vez más multimedia, los generadores de imágenes resultan una buena
    alternativa para aportar un enfoque gráfico a la información transmitida. Sin embargo, el
    procedimiento de este tipo de IA ha generado numerosos debates éticos. Estos sistemas combinan una
    gran cantidad de imágenes ya existentes para crear otras totalmente originales. En ese proceso de
    combinación de contenidos almacenados en la red puede darse una vulneración de los derechos de
    autor e incluso del derecho a la privacidad.
    En 2022, la revista Cosmopolitan publicó la primera portada creada con Inteligencia Artificial,
    valiéndose del programa DALL-E 2 de OpenAI para diseñar artificialmente una imagen acorde con la
    estética de la gaceta. Otras herramientas como Stable Diffusion o Midjourney se posicionan como las
    aplicaciones referencia en la generación de imágenes.
  4. Los traductores automáticos actuales tienen la capacidad de generar traducciones de gran
    exactitud en un tiempo ínfimo. Resultan muy útiles a la hora de traducir textos de grandes
    extensiones escritos en lenguas extranjeras.

22

Google Translate es, sin duda, el sistema de traducción con mayor popularidad hoy en día debido a
su fácil accesibilidad y disponibilidad universal. Sin embargo, no es una herramienta con un índice
de acierto alto y, por ello, otros traductores como DeepL o TextCortext se han consolidado como los
softwares de mayor fiabilidad entre los profesionales.

  1. La IAG también contiene generadores de audio que permiten la locución de textos por parte de
    voces artificiales. Pueden ser empleados para ofrecer una versión audible de una información
    escrita. BeyondWords o Murf son programas desarrollados para generar voces artificiales a partir de
    textos. Vall-E es una tecnología desarrollada por Microsoft para que las voces sintéticas creadas
    por la IA puedan adoptar tonos que representen distintas emociones, lo que supone un gran avance en
    el campo de la generación de audio.
    El uso incorrecto de esta tecnología podría incurrir en la manipulación de audios o en la
    desinformación. Un programa como Vall-E, capaz de incluir variedad de tonos y emociones en los
    audios creados, puede ser una herramienta de manipulación muy peligrosa si es empleada de manera
    equivocada.
  2. Los visualizadores de datos generados por Inteligencia Artificial se han vuelto muy relevantes
    en un contexto en el cual el periodismo de datos está cada vez más extendido. Complementar este
    tipo de información, muchas veces abrumadora y compleja, con recursos gráficos que la hagan más
    entendible para los lectores es una alternativa muy atractiva para este formato periodístico. No
    obstante, las representaciones gráficas generadas artificialmente deben ser revisadas para
    comprobar que la información está plasmada de manera correcta.
    Programas como Flourish, Canva o Tome han aumentado su presencia en las redacciones periodísticas
    en los últimos años.
    A pesar de las ventajas de la IAG, no se deben obviar los riesgos que puede acarrear un uso
    inadecuado de esta tecnología. La información inexacta, la vulneración de los derechos de autor y
    el plagio son algunas de las consecuencias que puede desencadenar la IAG. También se puede incurrir
    en delitos de propiedad de datos, propagación y sistematización de prejuicios sociales y
    desinformación o la colaboración, aun involuntaria, con ciberdelincuentes (Martínez, 2024).
    No obstante, las posibilidades que ofrece la IAG son indudables. Puede resultar de gran ayuda como
    complemento en tareas rutinarias de los periodistas. Sin embargo, otorgar una libertad completa a
    una herramienta de estas características podría desencadenar consecuencias muy
    23

dañinas para el periodismo. Para evitarlas, se considera más necesaria que nunca una regulación
ética o, para ser más exactos, una ‘roboética’. Partiendo de las medidas propuestas por el
Parlamento Europeo en 2017, mediante las cuales se estableció “un marco de guía ético para el
diseño, producción y uso de los robots”, se debe ahondar en esta nueva disciplina para concretar
unas normas éticas dirigidas a las personas que manejan la tecnología, y no a la tecnología en sí
(Salazar, 2018).
Para cerrar este apartado en referencia a la Inteligencia Artificial Generativa, considero
conveniente destacar el reciente lanzamiento de GPT-4o, la última versión del modelo de IAG
diseñado por OpenAI. GPT-4o es el sistema más avanzado de OpenAI. Produce contenidos con mayor
seguridad y proporciona respuestas más útiles. Valiéndose de un conocimiento general y unas
habilidades de problem solving mucho más amplios, este revolucionario modelo puede resolver
problemas de gran dificultad con mayor precisión. La anterior versión, el GPT-4, tenía la capacidad
de generar, editar e interactuar con usuarios en tareas escritas creativas y técnicas como la
composición de canciones, la elaboración de guiones o la interiorización del estilo literario
empleado por el usuario (OpenAI, 2024).
La actualización GPT-4o, anunciada por la propia empresa como nuevo buque insignia, funciona a
través del audio, la visión y el texto en tiempo real. Es un avance hacia una interacción mucho más
natural entre las máquinas y el ser humano. Este modelo acepta inputs de cualquier combinación
entre texto, audio, imagen y vídeo para generar respuestas textuales, auditivas y gráficas. Supone
una mejora sustancial respecto a los sistemas de comprensión visual y auditiva existentes. La
respuesta a los inputs de audio por parte de GPT-4o iguala el tiempo de contestación de un ser
humano en una conversación, con una media de 320 milisegundos (OpenAI, 2024).
GPT-4o acaba con la pérdida de información de los procesos de modelos encadenados de GPT-

  1. Es un proceso llevado a cabo de principio a fin con un único modelo. Es decir, todos los inputs
    y los outputs de texto, visuales y auditivos están procesados por la misma red neuronal. GPT-4o es
    el primer modelo de OpenAI que combina estas modalidades.
    2.2.3. Principios periodísticos potencialmente afectados por la IA

El inmenso potencial de las herramientas de Inteligencia Artificial ofrece, sin duda, muchas
posibilidades al ejercicio del periodismo. La IA, empleada de manera correcta, proporciona

24

ventajas indudables a la práctica periodística, pero si no se implementa adecuadamente, puede
desencadenar graves consecuencias éticas (Ufarte, Calvo y Murcia, 2021).
El reciente estallido de la IA y su incremento de nivel de desarrollo está dificultando las tareas
de regulación. El periodismo algorítmico carece de medidas verdaderamente reguladoras debido a que
estos principios están dirigidos al periodismo en general y no ofrecen soluciones a los retos que
representa el empleo de Inteligencia Artificial en el periodismo (Diakopolus, 2015; citado en
Ufarte, Calvo y Murcia, 2021).
Es aquí, en el uso de la IA, donde surge la necesidad de una praxis adecuada y responsable,
teniendo presentes en todo momento los principios básicos del periodismo. La autorregulación por
parte de los propios periodistas es la forma más eficaz de hacer frente a las amenazas contiene la
IA. Estas pautas de actuación para los profesionales se recogen en códigos deontológicos, libros de
estilo o consejos de prensa (Díaz del Campo y Chaparro-Domínguez, 2020; citado en Ufarte, Calvo y
Murcia, 2021).
En efecto, el uso desmedido de la Inteligencia Artificial puede llegar a vulnerar varios apartados
del código deontológico propuesto por la Federación de Asociaciones de la Prensa de España (FAPE,
2017). De modo específico, estos son los principios que se verían afectados por el uso inadecuado
de la Inteligencia Artificial:

  1. Respeto a la verdad.
    Es el principio ético periodístico por excelencia. El respeto a la verdad está en la base de la
    labor de cualquier periodista, que debe comprometerse a proporcionar información objetiva y veraz,
    remitiéndose siempre a los hechos acontecidos.
    Si trasladamos toda la responsabilidad periodística a la Inteligencia Artificial, sin consultarla
    posteriormente, nunca sabremos a ciencia cierta si la información proporcionada será verídica. La
    acción de contraste es más necesaria que nunca ya que los datos que maneja la IA para generar
    información pueden ser incorrectos o estar sesgados.
  2. Defender el principio de la libertad de investigar y de difundir la información.
    En caso de utilizar la IA como herramienta para recabar información, esa libertad estaría
    claramente limitada a los parámetros de la tecnología escogida.
  3. Respetar el derecho de las personas a su propia intimidad e imagen.
    El periodista debe ser cuidadoso y actuar con cautela para no herir la sensibilidad ni dañar la
    intimidad de los protagonistas de sus contenidos. El derecho a la intimidad e
    25

imagen es universal e inherente a todas las personas del mundo. Por lo tanto, debe ser respetado en
la actividad periodística.
Algunas IAs generativas pueden vulnerar la privacidad de las personas.

  1. Sólo la defensa del interés público justificará las intromisiones o indagaciones en la vida
    privada de una persona sin su previo consentimiento.
    La IA trabaja con infinidad de datos disponibles en la web y algunos de ellos pueden traspasar la
    barrera de la privacidad. Por lo tanto, los algoritmos pueden incluir información personal en casos
    en los que ésta no sea necesaria o su uso no esté justificado y, además, sin contar con la
    autorización de la persona damnificada.
  2. Deben evitarse expresiones, imágenes o testimonios vejatorios para la condición personal de los
    individuos o para su integridad física y moral.
    La Inteligencia Artificial no cuenta con ninguna cualidad emocional inherente que le permita
    determinar si el contenido generado afecta a las personas mencionadas en su información.
  3. Debe mantener una especial sensibilidad en los casos de informaciones u opiniones de contenido
    eventualmente discriminatorio o susceptibles de incitar a la violencia o a prácticas humanas
    degradantes.
    Las máquinas no tienen sensibilidad humana, por lo que no son capaces de considerar un uso sensible
    del lenguaje en función de la situación con la que estén tratando. Además, siempre mantendrán el
    sesgo de los individuos encargados de crearlas, lo que implica una más que posible presencia de
    subjetividad y manipulación en los contenidos generados. En caso de que la temática de dichos
    contenidos sea delicada, el riesgo de crear discursos dañinos aumenta considerablemente.
  4. El deber de hacer frente a cualquier tipo de monopolio u oligopolio informativo. El uso
    desmesurado de la IA limitaría claramente la libertad informativa y concentraría ese poder en manos
    de los creadores de esos sistemas.
  5. El derecho y el deber a una información actualizada y completa.
    Por mucho que la cantidad de datos de la que dispone la Inteligencia Artificial sea gigantesca,
    puede haber información que no esté al alcance de los sistemas de inteligencia sintética. Por lo
    tanto, existe la posibilidad de que la información generada por la IA no sea rigurosa.

26

  1. Respetar los derechos de autor y propiedad intelectual que se derivan de toda clase de actividad
    creativa.
    La IA generativa puede vulnerar los derechos de autor de los contenidos utilizados para generar sus
    piezas. El periodista tiene el deber de cerciorarse de que los contenidos generados por la IA no
    traspasen los límites del plagio o de los derechos de autor.
  2. El periodista informará sólo sobre hechos de los cuales conozca su origen, sin falsificar
    documentos ni omitir información y se comprometerá a no publicar información falsa, engañosa o
    deformada.
    En caso de otorgar completa libertad a la IA en las fases de producción de materiales
    periodísticos, se corre el peligro de que los sistemas omitan información necesaria debido a que no
    la consideren relevante para la pieza generada. También podrán proporcionar información engañosa ya
    que los datos que combinan para crear nuevos contenidos pueden estar sesgados.
  3. Advertida la difusión de material falso, engañoso o deformado, el periodista estará obligado a
    corregir el error sufrido con toda rapidez y con el mismo despliegue tipográfico y/o audiovisual
    empleado para su difusión. Asimismo, difundirá a través de su medio una disculpa cuando así
    proceda.
    Cuando ese material esté generado por la Inteligencia Artificial, ¿sobre quién recaerá la
    responsabilidad de los daños ocasionados? ¿Sobre el periodista o sobre la máquina?
  4. El periodista establecerá siempre una clara distinción entre los hechos que narra y las
    opiniones, interpretaciones o conjeturas.
    Teniendo en cuenta que la Inteligencia Artificial se basa en contenidos creados por personas
    reales, existe el riesgo de encontrarse con información sesgada en piezas que deberían ser
    completamente objetivas.
    El vínculo entre Inteligencia Artificial y periodismo no es novedoso. Como se ha indicado a lo
    largo de este apartado, esta tecnología está presente desde hace más de una década en las cadenas
    de funcionamiento de los medios de comunicación. Sin embargo, la popularización provocada por la
    democratización de herramientas como ChatGPT y el desarrollo tecnológico en el campo de la IA
    plantean un escenario completamente distinto al de hace unos años.
    El potencial de los programas de inteligencia sintética ha aumentado significativamente. La
    exponencial evolución de estos sistemas abre la puerta a infinidad de posibilidades que pueden
    alterar el modelo de negocio periodístico actual. Estas oportunidades son opacadas por numerosos
    conflictos éticos que despierta el uso de la IA. La siguiente fase del trabajo busca
    27

abordar la incorporación de la IA a un periodismo ético a través de varias entrevistas en
profundidad a voces expertas.

  1. Metodología de la investigación
    Una vez desarrollado el marco teórico como base contextual del trabajo, conviene realizar una
    profundización orientada a las cuestiones que se quieren responder. Para ello, me ha parecido
    oportuno utilizar metodología cualitativa para la recopilación y la valoración de la información.
    Así, la técnica escogida para llevar a cabo el apartado analítico es la entrevista en profundidad.
    Como técnica investigativa, la entrevista en profundidad tiene características de gran interés para
    el presente trabajo. Al tratarse de un método cualitativo, no se han recogido datos numéricos, sino
    reflexiones, opiniones y puntos de vista elaborados. A diferencia de las entrevistas estructuradas,
    que se administran de forma estandarizada a un grupo grande de sujetos con preguntas idénticas para
    recibir respuestas comparables, las entrevistas cualitativas son dinámicas y permiten una mayor
    flexibilidad. Es una técnica no directiva, no estructurada, no estandarizada y abierta. Taylor y
    Bogdan (1987) explican de esta manera el método mencionado:
    Por entrevistas cualitativas en profundidad entendemos reiterados encuentros cara a cara entre el
    investigador y los informantes, encuentros éstos dirigidos hacia la comprensión de las perspectivas
    que tienen los informantes respecto de sus vidas, experiencias o situaciones, tal como las expresan
    con sus propias palabras.
    Se trata de una conversación fluida entre personas iguales, lejos de la formalidad de un
    intercambio de preguntas cerradas y sus respectivas respuestas. Más allá de la obtención de
    respuestas, las entrevistas en profundidad también consisten en aprender qué preguntas hacer y cómo
    hacerlas (Taylor y Bogdan, 1987).
    Teniendo en cuenta el tipo de técnica escogido, se han seleccionado personas con altos niveles de
    conocimiento y experiencia en los campos de interés del presente trabajo. Todas ellas comparten el
    vínculo con la Inteligencia Artificial y con el periodismo, aunque de diversas formas.
    Por un lado, encontramos dos perfiles técnicos, especializados en Inteligencia Artificial y
    tecnologías aplicadas al mundo de la comunicación. Estos entrevistados aportan una

28

perspectiva experta en IA y en las herramientas que se pueden emplear en el ámbito periodístico.
Han proporcionado información técnica de gran utilidad para la base del análisis.
El primero de ellos es Jon Telletxea, actual subdirector y responsable del área de data de EITB
Media. Es ingeniero de telecomunicaciones y ha desarrollado la mayor parte de su carrera
profesional en el mundo de la consultoría y la banca. Comenzó esta nueva etapa en EITB hace diez
meses con la intención de aportar un enfoque transmedia a los contenidos elaborados en este medio
de comunicación e implantar la cultura del dato. Es un perfil que resulta de gran interés debido a
que ofrece una perspectiva técnica y, sobre todo, actualizada. Su llegada al mundo de la
comunicación coincide con el boom de la Inteligencia Artificial, por lo que se puede afirmar que ha
vivido esta irrupción de primera mano.
La segunda entrevista de carácter técnico es la realizada a Borja Sanz, profesor de la Facultad de
Ingeniería de la Universidad de Deusto. Ejerce como investigador del grupo DeustoTech desde 2007 y
sus indagaciones se centran principalmente en la ciberseguridad y en la Inteligencia Artificial. Su
participación en más de 100 proyectos y la publicación de más de 50 artículos constituyen una
extensa aportación académica e investigativa al campo de la Inteligencia Artificial. Esta dilatada
experiencia lo convierte en un perfil idóneo para esta entrevista. Sus conocimientos técnicos sobre
el funcionamiento de la IA han aportado una gran cantidad de datos relevantes para el análisis,
además de proporcionar una visión científica y tecnológica de la influencia que puede tener la
inteligencia sintética en el ámbito periodístico.
Por otro lado, se han buscado dos perfiles que mantienen una estrecha vinculación con el
periodismo. Estos dos entrevistados han aportado conocimientos muy valiosos desde un punto de vista
periodístico ya que cuentan con una amplia experiencia en este ámbito. Su destacada trayectoria
como profesionales del periodismo se ha visto reflejada en el enfoque de las respuestas.
La primera entrevistada es Carmela Ríos, periodista del diario El País, donde escribe sobre redes
sociales. Compagina su trabajo como redactora con la docencia universitaria y de posgrado. Ha
trabajado en informativos televisivos durante gran parte de su carrera hasta que Twitter alteró su
concepción del periodismo en 2009. Desde entonces, ha dedicado su actividad profesional a explorar
la interacción entre el periodismo, las redes sociales y la comunicación. Ahora, enfrenta un nuevo
reto periodístico con la llegada de la Inteligencia Artificial. En 2012 recibió el premio Ortega y
Gasset de Periodismo Digital por la cobertura del 15M realizada desde una cuenta de Twitter. Es
decir, es una periodista familiarizada con las tecnologías,
29

conocedora de sus potencialidades y a la vanguardia de los cambios que representa la irrupción de
la IA.
El segundo perfil está relacionado con un periodismo más tradicional. Amaia Goikoetxea es decana y
presidenta del Colegio Vasco de Periodistas. Inició su carrera en la Cadena Ser y dedicó sus
primeros años como profesional al periodismo radiofónico. A pesar de tener una férrea vocación
periodística, decidió dar el paso a la comunicación institucional y política. Este ámbito ha
ocupado la mayor parte de su carrera, durante la cual ha ostentado cargos en los departamentos de
comunicación de numerosos organismos del Gobierno Vasco como Emakunde o Eustat.
Los perfiles escogidos para las entrevistas responden a una clara intención de contrastar puntos de
vista distintos. Puesto que el presente trabajo tiene como ejes principales la Inteligencia
Artificial y el periodismo, se ha intentado reflejar ambas vertientes en la elección de los
perfiles de los entrevistados, de manera que las respuestas obtenidas enriquezcan la información
recabada y el análisis posterior. Borja Sanz es el perfil más técnico de todos, el más
especializado en términos de IA. Jon Telletxea parte de una base igualmente técnica, pero su actual
situación profesional lo sitúa en contacto directo con el ámbito de la comunicación. Respecto a las
entrevistas de carácter periodístico, Carmela Ríos representa probablemente el perfil más
interesante de todos debido a su relación tanto con la IA como con el periodismo. Amaia Goikoetxea,
en cambio, se orienta hacia un periodismo más tradicional.
Tal y como se puede apreciar, los entrevistados componen una escala desde una vinculación más
estrecha con la IA a una más cercana al periodismo tradicional. Además, se mantiene una proporción
en cuanto al género de los perfiles escogidos, algo que, sin duda alguna, aporta diversidad a los
resultados. Esta especie de confrontación entre perfiles distintos tiene como finalidad explorar
los puntos de vista tecnológicos y periodísticos en torno a la Inteligencia Artificial y su impacto
en la práctica del periodismo.
Para ello, he seleccionado un repertorio de preguntas que abordan con la mayor precisión posible
las cuestiones planteadas en este trabajo. Dichas preguntas están formuladas para poner en contexto
a los entrevistados y dirigirlos hacia los puntos de mayor interés. De esta manera, han podido
sentirse cómodos y han sabido en todo momento qué podían aportar mediante sus respuestas.

30

En relación con esto, considero oportuno subrayar que el cuestionario varía dependiendo del perfil
de los profesionales escogidos. Dentro del formulario se mantiene un bloque de preguntas para todos
los entrevistados, referentes a la irrupción de la IA y la situación general, que tienen como
finalidad contextualizar la entrevista y obtener las primeras sensaciones respecto a este fenómeno.
Las cuestiones que se repiten en todas las entrevistas son las siguientes:
Pregunta 1 – Explicación acerca de tu perfil, tu relación con el periodismo, la IA y tu percepción
en torno al tema del trabajo.
Esta pregunta busca posicionar al entrevistado en el contexto del trabajo e identificar su
vinculación con el tema del mismo. También permite al profesional exponer su trayectoria a modo de
presentación.
Pregunta 2 – ¿Cómo percibes este nuevo escenario que se ha abierto con la irrupción de la
Inteligencia Artificial? ¿Qué sentimientos te genera?
Esta segunda cuestión comienza a centrar el guion de la entrevista, pero todavía mantiene un tono
general. Permite al entrevistado reflejar sus primeras impresiones acerca del reciente estallido
del fenómeno de la IA. Teniendo en cuenta los dos tipos de perfiles seleccionados (tecnológicos y
periodísticos), resulta interesante contrastar las respuestas que se pueden obtener respecto a una
pregunta tan general. Analizar la perspectiva tanto tecnológica como periodística en torno a un
mismo fenómeno y compararlas entre ellas aporta una riqueza indudable al análisis que se
desarrollará en el siguiente apartado.
El segundo bloque de preguntas está enfocado a las características individuales de cada voz
experta. Esta adecuación del formulario dependiendo del perfil del entrevistado permite la
recopilación de información mucho más especializada y detallada. Por lo tanto, las preguntas
correspondientes a este bloque varían según el entrevistado. A Borja Sanz, el perfil más técnico de
todos, se le han asignado preguntas de carácter más tecnológico con la intención de conseguir una
perspectiva enfocada desde la especialización en la Inteligencia Artificial. En los casos de
Carmela Ríos, Amaia Goikoetxea y Jon Telletxea se ha optado por una serie de preguntas dirigidas al
periodismo para que puedan aportar su punto de vista desde dentro de la profesión. En la entrevista
a Telletxea se ha aprovechado su perfil técnico para formular preguntas con una mayor incisión en
el apartado tecnológico, es decir, relacionadas con la Inteligencia Artificial.

31

Pregunta 3 – ¿Consideras el periodismo un área de interés para el trabajo con
Inteligencia Artificial? / Desde dentro del mundo del periodismo, ¿cuál es tu visión acerca del
creciente desarrollo de la Inteligencia Artificial?
Como se puede observar, la primera pregunta tiene un carácter más tecnológico ya que plantea el
periodismo como una posible área de uso para la IA. En cambio, la segunda está enfocada a las
sensaciones que tienen los entrevistados respecto a la IA desde dentro del ámbito periodístico.
Pregunta 4 – ¿Cuáles consideras que son los aspectos positivos y negativos del uso de la IA en el
periodismo? / ¿Crees que las posibilidades que ofrece la IA ponen en riesgo principios
periodísticos como la rigurosidad, la responsabilidad, la pluralidad de fuentes, el respeto a la
privacidad o la libertad informativa?
En este caso, la diferenciación de enfoque vuelve a estar clara. La primera cuestión se centra en
los usos de la Inteligencia Artificial en el periodismo mientras que la segunda se orienta
directamente en su impacto sobre los principios periodísticos. Esta segunda pregunta se adecúa al
perfil de las periodistas de profesión entrevistadas debido a que tienen el código deontológico muy
presente en su actividad y, por tanto, pueden ofrecer una visión especializada.
Pregunta 5 – ¿Qué herramientas de IA son las más adecuadas para un uso periodístico?
¿Cuáles pueden ser las más perjudiciales para la práctica del buen periodismo? / ¿Crees en una
convivencia entre IA y periodismo? ¿Cuáles serían las claves para conseguir que esta unión sea
positiva para el periodismo?
Esta pregunta, en el caso del perfil técnico del entrevistado, se acerca más que las anteriores a
los estándares de la ética periodística al mencionar “la práctica del buen periodismo”. Aun así,
mantiene el tono tecnológico debido a que la raíz de la cuestión planteada está en las herramientas
de Inteligencia Artificial, un campo en el cual el entrevistado es experto. La cuestión para los
perfiles periodísticos comienza a considerar la posibilidad de una convergencia entre IA y
periodismo.
Pregunta 6 – ¿Cómo puede afectar un uso inadecuado de la IA a los principios básicos del
periodismo? / Teniendo en cuenta el contexto periodístico actual en el cual proliferan todo tipo de
informaciones de dudosa credibilidad y fake news, ¿consideras necesaria una regulación de carácter
ético al uso de la IA en el periodismo?

32

La última pregunta de este cuestionario busca unas conclusiones por parte entrevistados. Por un
lado, el perfil tecnológico es interpelado directamente por cómo afecta la IA a los principios
básicos del periodismo. Por otro lado, la pregunta correspondiente a las entrevistas periodísticas
saca a la palestra la idea de una regulación ética para frenar el impulso de la IA. Esta pregunta
ofrece una dimensión ética e invita a las entrevistadas a llevar a cabo una reflexión que engloba
adecuadamente los temas debatidos a lo largo de la conversación.
Las entrevistas son la fuente de información primaria para el análisis. El contenido obtenido a
través de esta técnica se puede considerar como especializado y experto. Por lo tanto, representa
una aportación muy valiosa para el presente trabajo. Los puntos de vista y las observaciones
ofrecidas por parte de los entrevistados resultarán de gran importancia a la hora de desarrollar
mis propias reflexiones.

  1. Análisis de resultados de la investigación
    En este apartado se recogerán las respuestas más relevantes de los entrevistados para realizar un
    análisis dirigido a aclarar las cuestiones planteadas en el presente trabajo. Esta exploración de
    resultados centra la investigación en los principales temas discutidos en las entrevistas, y
    compara las respuestas obtenidas. Mediante estas entrevistas¹ se ha obtenido un conocimiento
    especializado respecto a la IA y su impacto en el periodismo que, complementado por la información
    recopilada en el marco teórico, refuerza una base analítica de considerable bagaje. A continuación,
    paso al análisis y comentario de las entrevistas.
    4.1. Irrupción de la IA desde diferentes perspectivas

Los entrevistados coinciden en que la IA está teniendo un impacto radical en todos los ámbitos
desde su reciente popularización.
Carmela Ríos asegura que estamos ante “una ola tecnológica de un impacto mayor que el de la
aparición de las redes sociales”.² Habla de un cambio de pantalla que nos va a llevar a una forma
de vivir diferente y que tendremos que adaptar a una tecnología que se encuentra en constante
cambio. También afirma tener sentimientos encontrados. Por un lado, es consciente de la ola de
influencia que supone la IA y sabe que tiene que abrazarla. Esta irrupción trae

¹ Para visualizar entrevistas completas, ver Anexo I.
² Carmela Ríos (redactora de El País), entrevistada por el autor, 16 de mayo de 2024.
33

consigo oportunidades, pero como periodista experimentada, tiene la capacidad de “identificar
aquellas zonas donde la Inteligencia Artificial no puede sustituirnos”.2 Siguiendo la metáfora de
la ola, expresa su deseo de no salir volando, no perderla sino permitir que le deje en otro sitio.
Esto es, aprovechar sus oportunidades habiendo identificado las áreas del periodismo donde la IA
necesite y asista al periodista, pero no lo sustituya. Jon Telletxea refuerza esta idea con la
siguiente afirmación: “La IA como tal no es un fin, sino que es un medio”.³ Describe la IA como una
herramienta complementaria que se utilizará para potenciar, obtener más valor y agilizar los
procesos de trabajo.
Telletxea, por su parte, compara este surgimiento de la Inteligencia Artificial con las curvas
tradicionales de revoluciones tecnológicas como la que supuso la llegada de Internet. Emplea el
mismo recurso metafórico que Ríos y sitúa la IA en el punto álgido de una ola a la cual todo el
mundo quiere subirse, pero destaca que todavía estamos en proceso de aterrizar sus aplicaciones.
Desde una perspectiva más técnica, Borja Sanz establece una conexión directa entre la publicación
de ChatGPT y la popularización de la IA, y atribuye este mérito al diseño de una interfaz
utilizable para todo el mundo. Tilda el vertiginoso ritmo que ha emprendido el desarrollo de la IA
de “carrera loca hacia adelante sobre estos sistemas”.⁴
Más allá de las evidentes ventajas tecnológicas de la Inteligencia Artificial, menciona que su
irrupción también cuenta con algunas incógnitas. La cantidad de información que necesitan estos
sistemas es inmensa, hasta el punto de que los datos disponibles en todo el mundo están empezando a
ser insuficientes para entrenar estos modelos. Según afirma Sanz, otro de los problemas es el de la
falta de verificación del contenido que ofrecen. En palabras del propio Sanz, el hecho de que estén
disponibles para cualquier persona en poder de un dispositivo es fantástico para la tecnología,
pero avisa de los posibles peligros que puede acarrear: “Hay gente que no tiene recursos y como no
puede pagarse un psicólogo, utiliza estos sistemas exactamente como psicólogos”.4 Sanz define la IA
como un tema complejo en general, con muchas vertientes y facetas. Según él, el aspecto tecnológico
de la IA es fascinante y maravilloso, pero asume que es la parte que menos impacto tiene en la
sociedad.

³ Jon Telletxea (subdirector de EITB Media), entrevistado por el autor, 21 de mayo de 2024.
⁴ Borja Sanz (profesor e investigador de la Facultad de Ingeniería de la Universidad de Deusto),
entrevistado por el autor, 14 de mayo de 2024.

34

4.2. El papel de la IA en el periodismo

La integración transversal de herramientas de inteligencia sintética en los procesos periodísticos
está generando debate en cuanto a la función que debería tener la IA en la profesión. Los
entrevistados lo tienen claro. En sus respuestas se atisba una inclinación hacia priorizar siempre
la figura del periodista ante la implementación de los sistemas de IA en el ámbito periodístico.
Telletxea asume que, como en el resto de ámbitos, la irrupción exponencial que está teniendo la IA
también va a tener impacto en el periodismo. Piensa que la Inteligencia Artificial no sustituirá al
periodista, pero se reafirma en la idea de que puede ser de gran uso en una aplicación secundaria:
“La IA viene a eficientar el proceso desde la generación de la producción hasta el propio producto
final que puede generar ese periodista”.3 El entrevistado explica que estamos ante el reto de
explorar las posibilidades que nos puede brindar la IA y quedarnos con las que más nos puedan
aportar. Asegura se aprovecharán estas aplicaciones de la IA para generar un producto periodístico
más valioso.
Ríos concuerda con la visión de Telletxea y hace una defensa a ultranza de la figura del periodista
en las coberturas de terreno, donde es necesario que el reportero llegue, vea y transmita sus
propias impresiones entrevistando a los protagonistas: “No veo a un robot ni a ChatGPT haciendo
esto, por mucha capacidad que tenga para el reconocimiento de voz”.2 La periodista de El País
expresa que la exponencial irrupción de la IA en el periodismo invita a hacer una reflexión sobre
cuál es el papel del periodista y dónde va a ser siempre necesario. Esta proclamación del
periodismo clásico es, para la entrevistada, “nuestra forma de luchar y de definir lo que nos hace
irremplazables”.2
Amaia Goikoetxea comparte la idea principal expuesta por Telletxea y Ríos. Los tres entrevistados
perciben la IA con interés, pero manteniéndola en todo momento como un elemento de ayuda para el
periodista. Goikoetxea recalca además que el periodismo hay que practicarlo cara a cara y
moviéndose, coincidiendo con la defensa del periodismo de terreno manifestada por Ríos.
Borja Sanz enfatiza en que existe “una relación directa y salvaje entre periodismo e Inteligencia
Artificial”4 y recuerda la función que ha tenido la IA desde su llegada al ámbito periodístico:
De hecho, hace años que se utilizan herramientas de Inteligencia Artificial para el ámbito del
periodismo. Desde, por ejemplo, crónicas muy sencillas o muy evidentes de partidos de fútbol que se
generan automáticamente hasta casos como el del medio

35

tecnológico inglés Gizmodo, cuyo equipo decidió despedir a toda la redacción de la versión en
español porque se dedicaban simplemente a traducir las noticias del inglés al castellano con
Inteligencia Artificial.4
4.3. Uso inadecuado de la IA en el periodismo

En el apartado 2.2.2. Tipos de IA con impacto en el periodismo referente al marco teórico, se
mencionan las potencialidades de las herramientas de IA para la práctica periodística. No obstante,
el uso inadecuado de estos modelos puede ser peligroso para el periodismo. Sanz aporta algunas
claves.
El profesor universitario desmiente rotundamente el pensamiento general de que la Inteligencia
Artificial puede hacerlo todo:
Ahora todo el mundo piensa que, como todo te lo va a hacer la inteligencia artificial, ya no va a
haber que hacer nada, y la realidad es que todavía nos falta mucho para llegar a ese punto. Por
ejemplo, la Inteligencia Artificial es incapaz de planificar.4
Sanz explica que herramientas como ChatGPT no son adecuadas para trabajos periodísticos exhaustivos
y de investigación que requieren cierta profundidad debido a su falta de capacidad planificadora.
Expresa su desconfianza acerca de que los sistemas de deep learning tengan hoy en día la tecnología
suficiente para realizar estas labores de manera eficiente. El entrevistado expone la idea de que
estos modelos, por muchos datos que se les introduzcan, no son capaces de generalizar todas las
posibles situaciones del mundo. Esto supone uno de los principales lados negativos del uso de la IA
en el periodismo.
Haciendo referencia al impacto del lanzamiento de ChatGPT, Sanz considera que “lo que OpenAI hizo
muy bien y a la vez muy mal, es diseñar una interfaz tan fácil de utilizar y abrirla a todo el
mundo”.4 El nivel de madurez de la herramienta aún no era el adecuado y eso ha acarreado
consecuencias dañinas en muchos sectores de la sociedad, también en el periodismo. Esta visión es
secundada por Ríos, que también piensa que la facilidad para acceder a estas herramientas
representa un peligro, ya que no son disruptivas solo para los periodistas sino para todo el
conjunto de la sociedad, a todos los efectos. El hecho de que cualquier persona pueda disponer de
un instrumento tan poderoso supone un gran riesgo.2
Se habilitó universalmente una tecnología muy potente cuyo trasfondo todavía no estaba desarrollado
por completo. Según apunta Sanz, las aplicaciones más adecuadas de la IA en el periodismo se
reducen a tareas rutinarias como crónicas deportivas o información financiera,
36

es decir, piezas para informar sobre hechos evidentes con textos de fácil elaboración. Sin embargo,
asegura que es muy complicado que la IA funcione en labores periodísticas de investigación
profundas que requieran de contenidos más concisos y en los que se traten diversas fuentes o puntos
de vista.
Sanz afirma que una de las mayores amenazas que contiene la IA para la práctica periodística son
los sesgos algorítmicos. Hacen falta grandes cantidades de datos para alimentar estos sistemas y
esta información puede estar sesgada, es decir, puede contener un tono determinado. Menciona el
concepto ‘loro estocástico’, acunado por Timnit Gebru, exjefa de ética de Google, que definió los
sistemas de IA como un loro que repite todo lo que tiene almacenado de manera aleatoria para que
parezca un poco más creíble. Con esta referencia, Sanz explica que, aunque el contenido generado
por la IA parezca más creíble, no significa que no esté sesgado ni que sea verídico. El uso de
información generada por estos modelos sin su respectiva labor de contraste representaría una
práctica en contra de la ética periodística.
Sanz señala a la IA Generativa como otra de las herramientas que puede ser problemática en el
ámbito periodístico. La generación de imágenes y vídeos artificiales puede vulnerar los derechos de
autor, ya que existen herramientas que copian el estilo de cualquier pintor, escritor o dibujante
que se les exija. Según apunta el profesor de la Universidad de Deusto, la IA Generativa también
impacta directamente en la situación de las fake news: “Es muy fácil generar contenido e inundar
todas las redes sociales de contenido muy dirigido y muy específico que responde a los intereses
particulares de cada momento”.4
4.4. Retos éticos que plantea el uso inadecuado de la IA en el periodismo

Tal y como se ha mencionado en repetidas ocasiones a lo largo del presente trabajo, la integración
de la IA en el periodismo no está exenta de dilemas éticos.
Telletxea y Ríos son conscientes de que una tecnología tan poderosa puede provocar el
incumplimiento de los principios deontológicos y de ética del periodismo. Telletxea apunta hacia la
privacidad y la seguridad como principales escollos para conseguir una integración ética de la IA
en el periodismo. Aunque admitan la posibilidad de consecuencias dañinas para la profesión, ambos
apuestan por situaciones esperanzadoras para el periodista.
Por un lado, Telletxea se muestra partidario de una especie de efecto contrario que sitúe al
público lector en el centro del conflicto y lo plantee como juez a la hora de determinar los
límites para un uso excesivo de la Inteligencia Artificial:

37

Yo creo que va a ser contraproducente. Ahora parece que se puede hacer de todo con IA, pero quizás
ese mismo que parece avanzadísimo porque ha utilizado la IA termina perdiendo a su consumidor
porque no va a conseguir aportar nada diferencial respecto al de al lado, que también ha terminado
entendiendo y utilizando la IA, pero si no le aporta ese valor que a día de hoy puede aportar un
periodista, el consumidor va a ser finalmente el que pueda rechazar el producto.3
Por otro lado, Ríos percibe el escenario de sobreabundancia informativa que puede generar la IA
como una oportunidad del periodista para revertir la situación:
El ecosistema actual ya es un ecosistema desordenado y caótico, lo tenemos mal por ese lado, pero
lo bueno es que, si hay un momento de recuperar, de reivindicar y de aplicar las esencias del
periodismo más clásico, es este y tenemos que ser nosotros, a condición de que sepamos en qué
partido y en qué liga estamos jugando, es decir, que conozcamos muy bien todas las posibilidades de
la Inteligencia Artificial y que nosotros después marquemos los propios límites”.2
Ante este panorama intoxicado por los riesgos que conlleva el uso inadecuado de la IA en temas de
desinformación y transparencia, más allá de considerarlo un peligro, Ríos destaca la oportunidad de
exigir responsabilidades a las empresas periodísticas para que sepan integrar la IA en sus procesos
sin destruir el periodismo tradicional.
Sin embargo, no debemos olvidar que siempre han existido praxis inadecuadas en todos los ámbitos
ante fenómenos novedosos y poco explorados. La IA no está siendo la excepción. Goikoetxea afirma
que “la capacidad del mal es exponencial”⁵ y opta por una profesión más organizada para denunciar
las prácticas inadecuadas. Hace un llamamiento expreso a la unión en el periodismo:
Los organismos que representamos a la profesión y a los profesionales, busquemos las fórmulas, las
soluciones para que realmente el periodismo sea riguroso, contrastado, responsable, servicio
público, que ejerza esa labor pedagógica de formación de la opinión pública, pero en el sentido de
que sea una opinión pública, formada, informada y madura.5
Al fin y al cabo, debemos tener en cuenta que la responsabilidad de actuar de manera ética recae en
la figura del periodista. En este sentido, Goikoetxea plantea la actual situación económica

⁵ Amaia Goikoetxea (presidenta del Colegio Vasco de Periodistas), entrevistada por el autor, 22 de
mayo de 2024
38

en el periodismo como uno de los principales desencadenantes de malas prácticas, también llevadas a
cabo con la IA. La falta de condiciones dignas de trabajo de los periodistas provoca que pierdan su
independencia y obren de manera inadecuada, saltándose los principios básicos de la profesión para
responder a otros intereses.
4.5. IA y periodismo, ¿es posible una convivencia ética?

Como se ha explicado en el marco teórico del presente trabajo, la Inteligencia Artificial lleva
integrada en el periodismo varios años. Sin embargo, no ha sido hasta 2022 cuando esta herramienta
ha alcanzado el poder suficiente para poner en riesgo los principios deontológicos de la profesión.
Ambos ámbitos llevan conviviendo durante más de una década, pero ahora que las posibilidades de la
IA han aumentado considerablemente, ¿es posible mantener una convivencia ética?
Telletxea se muestra optimista e indica que el principal reto reside en identificar el punto de
unión entre IA y periodismo. Este será el factor diferencial. En este proceso de acercamiento entre
ambos ámbitos, otorga una gran importancia a la capacidad de probar y a tener una mentalidad
abierta, pero manteniendo presentes los principios básicos de la profesión:
Hay que buscar ese término medio, ni cerrarse en banda, porque cerrándonos en banda estaríamos
perdiendo una herramienta muy potente que nos puede ser de gran ayuda, ni el abrir por abrir porque
si dejamos todo abierto a que lo haga la IA, pierdes todo el valor. Lo mismo que te va a ofrecer a
ti, se lo va a ofrecer a cualquier otro y perderías todo ese rigor periodístico, ese aporte de
valor que estás dando y que es en base a lo que la gente está creyendo en ti.3
Ríos comparte la predisposición de Telletxea a abrir la mentalidad ante la IA para asegurar una
convivencia positiva para el periodismo. Muestra su postura de abrazar el cambio y adaptarse a
fenómenos novedosos, algo que pretende poner en práctica también con la Inteligencia Artificial.
Estamos ante una herramienta en constante evolución. Por ello, la periodista plantea la idea de que
vamos a tener que vivir en una especie de experimento permanente sobre cómo integrar las
herramientas de Inteligencia Artificial que irán surgiendo. Ríos enfatiza en que un análisis ético
será crucial para llegar a una relación positiva entre IA y periodismo:
No hay adopción tecnológica de la IA si previamente no ha habido una reflexión ética. La reflexión
ética tiene que estar en el corazón del proceso de adopción de la IA, porque la IA es tan
disruptiva que nos puede permitir hacer todo. No vamos a tener límite,

39

podremos hacer lo que nos dé la gana. Otra cosa es que sepamos que queremos hacerlo o
deontológicamente lo hagamos.2
Goikoetxea mantiene la actitud receptiva ante la IA que predomina en todos los entrevistados. A su
parecer, “hay que recibirla con los brazos abiertos”,¡Error! Marcador no definido. pero a conseja
mantener una actitud prudente:
Yo creo que la IA nos va a venir muy bien, que nos va a facilitar muchos avances tecnológicos, nos
va a facilitar el trabajo a muchos niveles, pero tiene que haber cautela. Yo creo que lo haremos
bien, siempre con el objetivo de que el bienestar del ser humano esté en el centro de toda
actividad”.5
De la perspectiva ofrecida por Goikoetxea podemos obtener otra de las claves para una convivencia
beneficiosa entre la Inteligencia Artificial y el periodismo: la defensa de los derechos humanos.
Un periodista debe contar lo que ocurre, la realidad, manteniendo siempre el compromiso de buscar
el bien para la ciudadanía, algo que requiere de unos valores y una consciencia ética a la altura.
4.6. Necesidad de una regulación ética para el uso de la IA en el periodismo

Para hacer frente a los dilemas éticos que suscita la Inteligencia Artificial en el ámbito
periodístico, se precisa de medidas para regular las posibles prácticas abusivas que se pueden
llevar a cabo con esta herramienta. En el punto 2.2.3. Principios periodísticos potencialmente
afectados por la IA, se elabora un listado de los principios periodísticos que pueden ser
vulnerados por un uso excesivo de la IA. Por ello, urge regular éticamente la utilización de esta
tecnología en el ámbito del periodismo.
Esta regulación debe provenir desde dentro de la profesión. Telletxea propone que se deberían de
marcar unos procedimientos y formas de uso a nivel interno. Para garantizar un rigor periodístico,
una cercanía con el público lector, la figura del periodista debe predominar por encima de
cualquier herramienta. Esto, según Telletxea, requiere marcar una serie de pautas tecnológicas
claras, siguiendo unas normas y unos principios básicos que afiancen la posición del periodista al
frente de su profesión:
Hay que priorizar al periodista sobre la tecnología, pero eso no significa darle la espalda. Un
periodista que sepa aprovecharse de las oportunidades que le van a dar estas nuevas tecnologías le
va a permitir eficientar, optimizar su trabajo y sobre todo un mayor aporte de valor.3

40

Goikoetxea también apuesta por la regulación interna y resalta la importancia de la colegiación
obligatoria para establecer un marco regulatorio que represente a todos los profesionales del
periodismo. Recuerda que “una parte importante del desprestigio y del poco cariño que suscitamos en
la población nos lo tenemos ganado los periodistas”.5 Por lo tanto, parece coherente que la
regulación ética del periodismo se enfoque desde dentro de la profesión, es decir, formando a los
propios periodistas.
Por otra parte, Ríos propone una reflexión extendida a varias disciplinas para regular el uso de la
IA. Considera necesario un diálogo a nivel social entre poderes públicos, medios de comunicación,
periodistas, ingenieros de datos e incluso filósofos para llevar a cabo un análisis
multidisciplinar en lo referente a una regulación ética.
Este análisis de las respuestas obtenidas en las entrevistas en profundidad aporta al trabajo
información más concreta sobre sus objetivos principales, estableciendo el contexto idóneo para el
planteamiento de las reflexiones finales.

  1. Conclusiones y reflexiones para la discusión
    A continuación, paso a presentar las conclusiones en relación con la finalidad principal de este
    trabajo. El proceso de investigación llevado a cabo a lo largo del presente estudio cumple con los
    tres objetivos iniciales.
    Objetivo 1: Aproximación a la relación entre IA y periodismo.

El presente trabajo supone una aproximación al impacto de la Inteligencia Artificial en el
periodismo. Se ha recabado la información necesaria para la contextualización acerca de una
tecnología relativamente desconocida como la IA, para plantear posteriormente cuál es su incidencia
en la práctica periodística.
Objetivo 2: Analizar el impacto de la IA en la ética periodística.

Haciendo uso de múltiples fuentes de documentación, tanto primarias (en formato entrevista) como
secundarias (consulta de textos especializados), se ha elaborado un marco teórico y analítico que
recoge interesantes observaciones referentes al foco de la investigación.

41

Teniendo en cuenta el contenido expuesto a lo largo de este trabajo, se ha extraído un conjunto de
reflexiones que engloba el objetivo central del presente estudio: analizar el impacto de la IA en
el desempeño ético periodístico.
Objetivo 3: Aportar reflexiones que susciten el debate en torno a la influencia de la IA en la
ética periodística.
Estas conclusiones tienen por objeto englobar las cuestiones surgidas durante la elaboración del
presente trabajo y generar debate en torno a ellas, así como ofrecer posibles soluciones a los
dilemas éticos planteados. Para ello, he utilizado a modo de herramienta complementaria el Decálogo
para el uso ético de la IA en los medios de comunicación ⁶, facilitado en primicia por Amaia
Goikoetxea. Dicho documento ha sido elaborado en colaboración conjunta por un grupo de trabajo
impulsado por la Diócesis de Bilbao y la Asociación Vasca de Periodistas – Colegio Vasco de
Periodistas, y formado por profesionales de la comunicación, expertos en Inteligencia Artificial y
representantes de algunas Diócesis, Universidades y medios de comunicación.
Verificado el cumplimiento de los objetivos iniciales de mi investigación, planteo, a modo de
conclusión, las siguientes reflexiones en torno a la Inteligencia Artificial y su impacto en el
desempeño del periodismo:
5.1. Reforzar la figura del periodista

En concordancia con las ideas planteadas por los participantes en las entrevistas y con la
información obtenida de los documentos especializados, la reflexión principal responde a la
necesidad de priorizar al periodista por encima de la Inteligencia Artificial. El profesional del
periodismo no puede verse superado por las capacidades de esta tecnología, por muchas facilidades
que ofrezca. Carmela Ríos2 propone una actitud muy adecuada para el periodista ante la necesidad de
integrar la IA en su actividad sin dejar que lo sobrepase. Un profesional del periodismo debe
identificar las áreas donde es imprescindible y adaptar las aplicaciones de la IA a sus propias
potencialidades. El periodista debe ser el agente protagonista en su relación con la Inteligencia
Artificial. Tiene que saber controlar esta tecnología, y no dejar que esta controle al periodista.
Además, la reflexión ética necesaria para regular el uso de la IA pasa directamente por la labor
del periodista. El profesional debe tener claras las pautas y las normas deontológicas para

⁶ Para consultar el Decálogo para el uso ético de la IA en los medios de comunicación, ver Anexo
III
42

garantizar en todo momento una adecuada utilización de estas herramientas. En relación con una de
las observaciones de Ríos, el periodista tiene que conocer muy bien todas las posibilidades de la
Inteligencia Artificial para poder marcar sus propios límites.2 Al fin y al cabo, es el periodista
quien va a emplear esta tecnología en su desempeño profesional. Por lo tanto, el dilema se centra
en si éste sabe identificar los usos correctos o incurre en prácticas que vulneran los principios
de ética deontológica.
La IA puede suponer una amenaza para el cumplimiento de principios éticos del periodismo como el de
la búsqueda de la verdad o el de garantizar la intimidad y la privacidad de las personas, como se
indica en el apartado 2.2.3. Principios periodísticos potencialmente afectados por la IA. En estos
casos, la figura del periodista es imprescindible para contrastar las informaciones generadas por
los modelos sintéticos, para mantener la transparencia en su actividad y cumplir con la
responsabilidad civil que le corresponde. El periodista siempre debe buscar la verdad y el bien
para la ciudadanía. Tal y como afirma Amaia Goikoetxea, el periodista debe ejercer la labor de
defensor de los derechos humanos para garantizar un desempeño profesional ético.5
En este contexto, Linden (2017) lanza una inquietante pregunta: “¿Se considera a los periodistas un
grupo social relevante que debe participar en el desarrollo de sistemas informativos automatizados
o se les considera un freno para el avance?”. El avance tecnológico no puede sepultar la figura del
profesional. El periodista debe reivindicar su irremplazable función para asegurar una convivencia
ética entre IA y periodismo. Como señala Llort (2022), “…es importante que prevalezcan los
criterios básicos de deontología profesional que son de aplicación o deberían serlo desde antiguo
en los medios, la radio y la televisión”.
Por lo tanto, ante el impacto de la Inteligencia Artificial en el desempeño periodístico, debe
prevalecer la figura del periodista como garantía de una práctica ética de la profesión.
5.2. Reflexión ética a nivel social

La exponencial irrupción de la Inteligencia Artificial representa ya uno de los mayores hitos
tecnológicos de la historia reciente. Su influencia se ha expandido a infinidad de ámbitos y tiene
impacto en todo el conjunto de la sociedad. La democratización de esta herramienta ensancha el arco
de una reflexión necesaria para una regulación ética. En el caso del periodismo, los actores en los
procesos de comunicación, procesos que hoy en día se encuentran en constante

43

expansión por soportes como las redes sociales, constituyen una amplia gama de participantes que
debe estar incluida en una reflexión social conjunta.
Coincidiendo una vez más con la visión expuesta por Ríos en la entrevista realizada2, el diálogo
para conseguir un uso ético de la IA en el periodismo debe contar con todos los sujetos
comunicativos. Esto incluye varias disciplinas, desde los periodistas de profesión hasta las
personas que difunden información a través de las redes sociales y, por supuesto, también debe
participar la ciudadanía receptora de estos contenidos. Una reflexión conjunta entre todos los
integrantes de los procesos comunicativos actuales aseguraría una conciencia ética general
estrictamente necesaria para una convivencia positiva entre periodismo e Inteligencia Artificial.
Centrándonos en el papel de las empresas periodísticas, parece evidente que deben redirigir sus
líneas editoriales para buscar un aporte de valor para la ciudadanía. Mariano Ferrer (2011)
identificó a la perfección los derroteros que tomó el periodismo hace más de una década y que, a
día de hoy, se mantienen vigentes: “El periodismo no va por ese camino ahora. Es más una especie de
complejo tecno-corporativo-comunicacional, insertado en el poder político y más un instrumento de
dominio que de liberación” (citado en Rodríguez, 2023). Los periodistas, a través de sus
publicaciones, deben invitar al público lector a que identifiquen las informaciones falsas y a
trabajar un espíritu crítico que les permita reaccionar ante situaciones de manipulación. En este
sentido, considero conveniente reincidir en una de las ideas expuestas por Amaia Goikoetxea en su
entrevista. Goikoetxea califica el periodismo como un servicio público, riguroso y contrastado, que
ejerza la labor de formar una opinión pública informada y madura.5 El periodismo tiene que
recuperar esa impronta ética y pedagógica ante la potencial amenaza que supone la prácticamente
ilimitada lista de posibilidades que ofrece la IA.
5.3. Formación de los periodistas en Inteligencia Artificial

Una tecnología de evolución exponencial requiere de una constante adaptación. Estamos ante una
herramienta cambiante, con un ritmo de desarrollo muy acelerado que a veces resulta muy complicado
de seguir. El periodista debe estar a la vanguardia de todas las aplicaciones y utilidades de la
Inteligencia Artificial para evitar que su función se vea relegada. Conocer las potencialidades de
la IA para saber cómo utilizarla correctamente es uno de los factores determinantes para su
implementación ética en el ámbito periodístico. El profesional debe ser consciente de todo lo que
puede ofrecer esta herramienta, pero también de sus posibles riesgos. Interiorizar todas sus
vertientes otorga al periodista una posición de control sobre esta tecnología, algo imprescindible
para asegurar una práctica ética.

44

Considero oportuno ejemplificar este apartado con una observación aportada por Borja Sanz en su
entrevista.4 Sanz menciona que la Inteligencia Artificial, hoy en día, no tiene capacidad de
planificación y que, por tanto, no es adecuada para trabajos de investigación en profundidad. El
periodista debe ser conocedor de esta limitación para no hacer uso de esta herramienta en piezas
que requieran de una profundización mayor. Además, las consecuencias de una inadecuada utilización
de la IA se ven acentuadas por la precaria calidad de los datos provenientes de fuentes poco
fiables. Un input basura genera un output basura (Nowotny, 2022).
Esta formación de los periodistas debe estar impulsada por la colaboración con expertos en IA para
conseguir una adaptación ágil y de carácter ético a los retos que nacen de esta disruptiva
tecnología. Para ello, podría ser conveniente crear equipos interdisciplinares para
complementar diversos puntos de vista con el objetivo común de aprovechar las oportunidades
tecnológicas de manera ética.
5.4. Adaptar el código deontológico

Tal y como se ha podido observar en el apartado 2.2.3. Principios periodísticos potencialmente
afectados por la IA, el código deontológico actual de la FAPE no se corresponde con los retos que
plantea la Inteligencia Artificial. La adaptación a los cambios que conlleva la IA pasa por un
código deontológico que recoja no solo principios y normas que conciernen al periodismo, sino
también pautas relativas a la Inteligencia Artificial. Este fenómeno puede suponer una profunda
alteración del modelo periodístico en vigor, por lo que debería tener presencia en los documentos
que rigen la profesión. El código actual está enfocado desde un concepto de responsabilidad social
basado en la propia conciencia ética de los periodistas y los medios de comunicación (Mazzoleni,
2017), pero se precisa de una profunda consideración acerca de las cuestiones éticas, morales y
operativas referentes al periodismo con IA (Linden, 2017; citado en Ufarte, Calvo y Murcia, 2021).
Para facilitar esta labor, y en concordancia con una de las ideas aportadas por Amaia Goikoetxea5,
es esencial que se establezcan relaciones más estrechas entre los organismos que representan a los
profesionales. Las asociaciones de periodistas deberían unirse, concretar objetivos comunes y
debatir sobre la IA de manera coordinada. Es un conflicto que afecta a todos los profesionales,
pero también al conjunto de la sociedad. Estas organizaciones deben ser conscientes de la
responsabilidad que conlleva ser periodista y, por lo tanto, deberían reajustar las pautas
establecidas para elaborar un código deontológico que guíe a los profesionales en una situación tan
delicada como la que presenta la Inteligencia Artificial en el
45

periodismo. Urge una adaptación de los principios enfocada desde una perspectiva ética frente a la
IA ante las inquietudes que comienza a suscitar esta revolucionaria tecnología en el seno de la
profesión.
5.5. Regulación ética de la IA en el periodismo

La modificación del código deontológico debe ir acompañada de un marco jurídico-legal que ampare al
periodismo ante los usos abusivos de la Inteligencia Artificial. El presente trabajo expone algunos
casos en los que las herramientas de IA pueden resultar dañinas para el correcto desempeño
periodístico. Una regulación jurídico-legal de carácter ético resulta estrictamente necesaria para
mantener vigentes los principios básicos del periodismo.
En este contexto, considero oportuno mencionar la primera propuesta legislativa sobre Inteligencia
Artificial en el mundo, impulsada por la Unión Europea y acordada el pasado mes de diciembre. Esta
ley garantizará que los sistemas de IA introducidos en el territorio europeo sean seguros y
respeten los derechos humanos. Mediante los parámetros de esta norma, se pretenden identificar los
casos en los que la IA puede causar daños a la sociedad, así como asegurar que estos modelos
sintéticos no vulneren los derechos fundamentales de la ciudadanía (Comisión Europea, 2024).
Siguiendo la línea de esta nueva legislación, convendría acordar un marco jurídico-legal
específicamente para el periodismo. Es decir, una ley que se ciña a los retos éticos que plantea el
uso de la IA en el ámbito periodístico. Contar con esta cobertura legal para frenar el posible
impacto negativo de la IA garantizaría el cumplimiento de los principios éticos y deontológicos de
la profesión.
Para terminar, se puede afirmar que se ha cumplido con los objetivos iniciales presentados al
principio de la investigación. En primer lugar, la aproximación a la relación entre Inteligencia
Artificial y periodismo se ha realizado a través del marco teórico. En segundo lugar, el análisis
del impacto de la IA en la ética periodística se ha completado tanto con el apartado teórico como
con el investigativo del trabajo. Por último, desarrollo algunas reflexiones que recogen los
dilemas éticos planteados, cuestiones mediante las cuales pretendo suscitar debate y aportar
soluciones.

46

Bibliografía
Abeliuk, A. y Gutiérrez, C. (2021). Historia y evolución de la inteligencia artificial. Revista
Bits de Ciencia. Edición nº 21, 14-21.
https://revistasdex.uchile.cl/index.php/bits/article/view/2767/2700

Adami, M. (23 de marzo de 2023). Is ChatGPT a threat or an opportunity for journalism? Five AI
experts weigh in. Oxford: Reuters Institute for the Study of Journalism.
https://reutersinstitute.politics.ox.ac.uk/news/chatgpt-threat-or-opportunity-journalism-five-ai-
experts-weigh

Aghion, P., Jones, B.F. y Jones, C.I. (2019). Artificial Intelligence and Economic Growth. National
Bureau of Economic Research. Working Paper nº 23928.
https://doi.org/10.3386/w23928

Aguado, J. M. y Grandío-Pérez, M. M. (2024). Hacia una ecología mediática de la IA gene-rativa: la
obra creativa en la era de la automatización. Palabra Clave, 27(1).
https://doi.org/10.5294/pacla.2024.27.1.8

Arceo, F. D. B., Bautista, M. L. M. y Banda, E. A. L. (2022). Diseño tecnopedagógico de casos de
enseñanza en formato electrónico sobre la metáfora mente-ordenador para estudiantes
universitarios de psicología. Innovación Digital Educativa, 336-347.
https://books.google.es/books?hl=es&lr=&id=Ve1ZEAAAQBAJ&oi=fnd&pg=PA336&ots=G
3Y9XA10a9&sig=l8NyL4efXDj2oNi3o_4SNcA0EwI&redir_esc=y#v=onepage&q&f=false

Bobadilla, J. (2020). Machine Learning y Deep Learning: Usando Python, Scikit y Keras: (1 ed.).
RA-MA Editorial.
https://elibro-net.proxy-oceano.deusto.es/es/lc/univdeusto/titulos/222698

Boden, M. A. (2017). Inteligencia artificial. Turner.
https://books.google.es/books?hl=es&lr=&id=LCnYDwAAQBAJ&oi=fnd&pg=PT3&dq=inte
ligencia+artificial&ots=dsQrx0gNm8&sig=TO0FTVvI5j-
QNn6cZgjz4JhNXRA#v=onepage&q=inteligencia%20artificial&f=false

Carlson, M. (2015). The Robotic Reporter: Automated journalism and the redefinition of labor,
compositional forms, and journalistic authority. Digital Journalism, 3(3), 416–431.
https://doi.org/10.1080/21670811.2014.976412

47

Casas Roma, J., Lozano Bagén, T. y Bosch Rué, A. (2020). Deep Learning: Principios y Fundamentos
(ed. 1). Barcelona: Editorial UOC.
https://oceano.biblioteca.deusto.es/permalink/f/193pu0n/TN_cdi_proquest_ebookcentral_EB C7025971

Caswell, D. y Dörr, K. (2017). Automated Journalism 2.0: Event-Driven Narratives. From simple
descriptions to real. Journalism Practice.
https://doi.org/10.1080/17512786.2017.1320773

Comisión Europea. (2024). Las claves de la nueva ley de Inteligencia Artificial. Comisión Europea,
Representación en España.
https://spain.representation.ec.europa.eu/noticias-eventos/noticias-0/las-claves-de-la-nueva-
ley-de-inteligencia-artificial-2024-01-25_es

Copeland, B. J. (2013). Alan Turing: El pionero de la era de la información. (Trad. C. Núñez
Pereira). Turner. https://books.google.es/books?hl=es&lr=&id=CSpZAgAAQBAJ&oi=fnd&pg=PA13&dq=turi
ng+pionero&ots=9SolBzI0_4&sig=PwvZNr_I0H7hJ1GJljPMHFQM- UU#v=onepage&q=turing%20pionero&f=false

Cortina, A. (2019). Ética de la inteligencia artificial. En Anales de la Real Academia de Ciencias
Morales y Políticas (pp. 379-394). Ministerio de Justicia.
https://www.boe.es/biblioteca_juridica/anuarios_derecho/articulo.php?id=ANU-M-2019- 10037900394

De Lima Santos, M. F. y Salaverría, R. (2021). From Data Journalism to Artificial Intelligence:
Challenges Faced by La Nación in Implementing Computer Vision in News Reporting. Palabra Clave, 24
(3).
https://doi.org/10.5294/pacla.2021.24.3.7

Fanni, S.C., Febi, M., Aghakhanyan, G. y Neri, E. (2023). Natural Language Processing. En Klontzas,
M.E., Fanni, S.C. y Neri, E. (eds) Introduction to Artificial Intelligence (pp. 87-99). Imaging
Informatics for Healthcare Professionals. Springer, Cham.
https://doi.org/10.1007/978-3-031-25928-9_5

Federación de Asociaciones de Periodistas de España (2017). Código Deontológico. Federación de
Asociaciones de Periodistas de España.
https://fape.es/home/codigo-deontologico/
48

Ferry, G. (2015). Ada Lovelace: In search of a calculus of the nervous system. The Lancet, nº386,
1731.
https://doi.org/10.1016/S0140-6736(15)00686-8

FTI (2024). Tech Trends Report. Future Today Institute, 572-609.
https://futuretodayinstitute.com/wp-content/uploads/2024/03/TR2024_Full- Report_FINAL_LINKED.pdf

González-González, C.S. (2023). El impacto de la inteligencia artificial en la educación:
transformación de la forma de enseñar y de aprender. Servicio de Publicaciones. Universidad de La
Laguna.
https://doi.org/10.25145/j.qurricul.2023.36.03

González, R. (2007). El Test de Turing: dos mitos, un dogma. Revista De Filosofia, 63, 37-53.
https://www.proquest.com/scholarly-journals/el-test-de-turing-dos-mitos-un-
dogma1/docview/220825477/se-2

Harari, Y. N. (2018). 21 lecciones para el siglo XXI (Trad. Joandomènec Ros). Debolsillo.

Jiménez, S. (27 de junio de 2023). Conoce los 7 tipos de Inteligencia Artificial. Mural.
https://www.mural.com.mx/conoce-los-7-tipos-de-inteligencia-artificial/ar2629816

Kiray, D. y Sianturi, F. A. (2020). Diagnose Expert System Computer Malfunction Certainty Factor
Method. Journal of Computer Networks, Architecture and High-Performance Computing, 2(1), 63-71.
https://doi.org/10.47709/cnapc.v2i1.358

Laboratorio de Periodismo (22 de junio de 2023). Cuatro usos inteligentes de la inteligencia
artificial en el periodismo. Laboratorio de Periodismo.
https://laboratoriodeperiodismo.org/cuatro-usos-inteligentes-de-la-inteligencia-artificial-en-el-
periodismo/

Linares, M. (18 de septiembre de 2023). ¿Es posible mejorar el impacto climático de los centros de
datos y el desarrollo de la IA? Data Center Market.
https://www.datacentermarket.es/opinion/es-posible-mejorar-el-impacto-climatico-de-los-
centros-de-datos-y-el-desarrollo-de-la-ia/

Linden, C.G. (2017). Decades of Automation in the Newsroom. En Digital Journalism, 5:2, 123-140.
https://doi.org/10.1080/21670811.2016.1160791

49

Llort, A. G. (2021). La ética en el universo digital. En Comunicando lo esencial en la esfera
pública: La ética y la Deontología como garantía de la función social de los Media y sus
profesionales (pp. 170-180). Fragua.
López de Mántaras, R. (2015). Algunas reflexiones sobre el presente y futuro de la inteligencia
artificial. Revista Novática num. 234, 97-101.
http://hdl.handle.net/10261/136978

López-García, X. y Vizoso, Á. (2021). Periodismo de alta tecnología: signo de los tiempos digitales
del tercer milenio. Profesional de la información, v. 30, n. 3.
https://doi.org/10.3145/epi.2021.may.01

Manfredi Sánchez, J. L. y Ufarte Ruiz, M. J. (2020). Inteligencia artificial y periodismo: una
herramienta contra la desinformación. Revista CIDOB d’Afers Internacionals, n.º 124, 49-72.
https://doi.org/10.24241/RCAI.2020.124.1.49

Martínez, J. (23 de febrero de 2024). La IA generativa 1. El Comercio.
https://www.elcomercio.com/opinion/ia-generativa-kurt-freund-ruf-columnista.html

Meseguer González, P. y López de Mántaras Badia, R. (2017). Inteligencia artificial. ed. Madrid:
Editorial CSIC Consejo Superior de Investigaciones Científica.
https://books.google.es/books?hl=es&lr=&id=TtSLEAAAQBAJ&oi=fnd&pg=PT3&dq=inteli
gencia+artificial+meseguer&ots=0J0hnj-
GRy&sig=NxnA3nEktPqCgd2e4VIRRn8E3Ms#v=onepage&q=inteligencia%20artificial%20 meseguer&f=false

Meso Ayerdi, K., Larrondo Ureta, A. y Peña Fernández, S. (2023). Algoritmos, inteligencia
artificial y periodismo automatizado en el sistema híbrido de medios. Textual & Visual Media, vol.
27, núm. 1.
https://doi.org/10.56418/txt.17.1.2023.0

Mondría Terol, T. (2023). Innovación MedIÁtica: aplicaciones de la inteligencia artificial en el
periodismo en España. Textual & Visual Media, 17(1), 41-60.
https://doi.org/10.56418/txt.17.1.2023.3

Moor, J (2006). The Dartmouth College Artificial Intelligence Conference: The Next Fifty Years. AI
Magazine 27, núm. 4.
https://doi.org/10.1609/aimag.v27i4.1911

50

Nowotny, H. (2022). La fe en la inteligencia artificial. Galaxia Gutenberg.

OpenAI (13 de mayo de 2024). Hello GPT-4o. OpenAI.
https://openai.com/index/hello-gpt-4o/

Pazos, J. (2010). Augusta Ada Byron, Condesa Lovelace, y su (in)merecida fama. Manual formativo de
ACTA, n.55, 93-111.
https://dialnet.unirioja.es/servlet/articulo?codigo=5701047

Peña-Fernández, S., Meso-Ayerdi, K., Larrondo-Ureta, A. y Díaz-Noci, J. (2023). Sin periodistas, no
hay periodismo. La dimensión social de la inteligencia artificial generativa en los medios de
comunicación. Profesional de la Información, v. 32, n. 2.
.https://doi.org/10.3145/epi.2023.mar.27

Planas Bou, C. (1 de febrero de 2023). Seis herramientas de inteligencia artificial para
periodistas. El Periódico.
https://www.elperiodico.com/es/sociedad/20230201/seis-herramientas-inteligencia-artificial-
periodista-82215806

Rodríguez, M.P. (2023). Introducción al método periodístico de Mariano Ferrer. En E. Garmendia,
Mariano Ferrer. El periodismo reflexivo. Kazetaritza eta konpromisoa (pp. 23-33). Erein.

Rouhiainen, L. (2018). Inteligencia artificial. Alienta Editorial.
https://planetadelibrosec0.cdnstatics.com/libros_contenido_extra/40/39308_Inteligencia_artifi
cial.pdf

Russell, S. J. y Norvig, P. (2002). Inteligencia Artificial. Un Enfoque Moderno. (Trad. J.M.
Corchado, F. Martín et al.). Segunda edición. Pearson Educación, S.A., Madrid, 2004.
https://luismejias21.wordpress.com/wp-content/uploads/2017/09/inteligencia-artificial-un-
enfoque-moderno-stuart-j-russell.pdf

Salaverría, R. (2019). Periodismo digital: 25 años de investigación. Artículo de revisión. El
profesional de la información, v. 28, n. 1, e280101. https://doi.org/10.3145/epi.2019.ene.01

Salazar, I. (2018). Los robots y la Inteligencia Artificial. Nuevos retos del periodismo. Doxa
Comunicación, 27, 295-315.
https://doi.org/10.31921/doxacom.n27a15

51

Samoili, S., López Cobo, M., Gómez, E., De Prato, G., Martínez-Plumed, F. y Delipetrev, B. (2020).
AI Watch. Defining Artificial Intelligence. Towards an operational definition and taxonomy of
artificial intelligence. Publications Office of the European Union, Luxembourg.
https://dx.doi.org/10.2760/382730

Sánchez-García, P., Diez-Gracia, A., Calvo-Barbero, C., y Álvarez, N. M. (2023). Periodismo
automatizado: La IA ya escribe noticias, las verifica y ofrece información personalizada. The
Conversation España.
Recuperado de: https://theconversation.com/periodismo-automatizado-la-ia-ya-escribe-
noticias-las-verifica-y-ofrece-informacion-personalizada-
202803?utm_source=linkedin&utm_medium=bylinelinkedinbutton

Sanguinetti, P. (2023). Inteligencia artificial en periodismo: oportunidades, riesgos, incógnitas.
Cuadernos de periodistas: revista de la Asociación de la Prensa de Madrid, (46), 9-17.
https://www.cuadernosdeperiodistas.com/wp-content/uploads/sites/2/2023/07/9-17-pablo-
sanguinetti.pdf

Suleyman, M. y Bhaskar, M. (2023). La ola que viene. Tecnología, poder y el gran dilema del siglo
XXI. Editorial Debate.

Szeliski, R. (2011). Computer Vision. Springer London.
https://books.google.es/books?hl=es&lr=&id=QptXEAAAQBAJ&oi=fnd&pg=PR9&dq=szeli
ski+computer+vision&ots=BNvgxYSDyg&sig=bh1RNY7zDpNTECO6glt-
MInV6wU#v=onepage&q=szeliski%20computer%20vision&f=false

Taylor, S. J. y Bogdan, R. (1987). La entrevista en profundidad. En Secretaría de Educación y
Cultura (2008), Métodos cuantitativos aplicados 2, 194-216. Servicios Educativos del Estado de
Chihuahua (México).
https://www.academia.edu/8536744/LECTURA_DE_EVERTSON

Tejedor Calvo, S. (2023). La inteligencia artificial en el periodismo: mapping de conceptos, casos
y recomendaciones. 1ª ed., vol. 192. Barcelona, España, Editorial UOC.
https://elibro-net.proxy-oceano.deusto.es/es/lc/univdeusto/titulos/231421

Túñez-López, J. M., Fieiras Ceide, C., y Vaz-Álvarez, M. (2021). Impacto de la Inteligencia
Artificial en el Periodismo: transformaciones en la empresa, los productos, los contenidos y el
perfil profesional. Communication & Society, 34(1), 177-193.
https://www.doi.org/10.15581/003.34.1.177-193

52

Ufarte Ruiz, M.J., Calvo Rubio, L.M., y Murcia Verdú, F.J. (2021). Los desafíos éticos del
periodismo en la era de la inteligencia artificial. Estudios sobre el Mensaje Periodístico, 27(2),
673-684.
https://dx.doi.org/10.5209/esmp.69708
Ufarte Ruiz, M. J. y Manfredi Sánchez, J. L. (2019). Algoritmos y bots aplicados al periodismo. El
caso de Narrativa Inteligencia Artificial: estructura, producción y calidad informativa. Doxa
Comunicación, 29, pp. 213-233.
https://doi.org/10.31921/doxacom.n29a11

Vállez, M. y Codina, L. (2018). Periodismo computacional: evolución, casos y herramientas. El
profesional de la Información, v. 27, n. 4, pp. 759-768. https://doi.org/10.3145/epi.2018.jul.05

Zuazo, N. (2023). Periodismo e inteligencia artificial en América Latina. Unesco: Cuadernos de
Discusión de Comunicación e Información, n. 25. https://unesdoc.unesco.org/ark:/48223/pf0000388124

53

Anexos
Anexo I – Entrevistas en formato vídeo y transcripciones

Jon Telletxea – https://drive.google.com/drive/folders/1hDk5cxBgugmgoyei_NW2Nn4CDtu4k70?usp=sharin
g

Borja Sanz – https://drive.google.com/drive/folders/1z4eeKbjdAmLlGywqAZBbp16IM5JTn5KN?usp=sha ring

Carmela Ríos – https://drive.google.com/drive/folders/1mfjgt_kSFUTtTWNbKD7iAF9YsdwOSiEK?usp=sha
ring

Amaia Goikoetxea – https://drive.google.com/drive/folders/1EhvNvRS5fQFkFRKqUFX7gC58Cr2sKAac?usp=sha
ring

54

Anexo II – Guion de las entrevistas

Entrevista de carácter tecnológico

  1. Sobre ti…
  • Explicación acerca de tu perfil, tu relación con el periodismo, la IA y tu percepción en torno
    al tema del trabajo.
  1. Irrupción de la IA
  • ¿Cómo percibes este nuevo escenario que se ha abierto con la irrupción de la Inteligencia
    Artificial? ¿Qué sentimientos te genera?
  1. Relación entre IA y periodismo
  • ¿Consideras el periodismo un área de interés para el trabajo con Inteligencia Artificial?
  1. Influencia del uso de IA en el periodismo
  • Teniendo en cuenta la revolución que ha supuesto la IA en el ámbito tecnológico de los últimos
    años, ¿cuáles consideras que son los aspectos positivos y negativos de su uso en el periodismo?
  • ¿Qué herramientas de IA son las más adecuadas para un uso periodístico? ¿Cuáles pueden ser las
    más perjudiciales para la práctica del buen periodismo?
  • ¿Cómo puede afectar un uso inadecuado de la IA a los principios básicos del periodismo?
  1. Observaciones complementarias

Entrevista de carácter periodístico

  1. Sobre ti…
  • Explicación acerca de tu perfil, tu relación con el periodismo, la IA y tu percepción en torno
    al tema del trabajo.
  1. Irrupción de la IA
  • ¿Cómo percibes este nuevo escenario que se ha abierto con la irrupción de la Inteligencia
    Artificial? ¿Qué sentimientos te genera?
  1. Relación entre IA y periodismo
  • Desde dentro del mundo del periodismo, ¿cuál es tu visión acerca del creciente desarrollo de la
    Inteligencia Artificial?
  • ¿Crees que las posibilidades que ofrece la IA ponen en riesgo principios periodísticos como la
    rigurosidad, la responsabilidad, la pluralidad de fuentes, el respeto a la privacidad o la libertad
    informativa?

55

  • ¿Crees en una convivencia entre IA y periodismo? ¿Cuáles serían las claves para conseguir que
    esta unión sea positiva para el periodismo?
  1. IA y ética periodística
  • Teniendo en cuenta el contexto periodístico actual en el cual proliferan todo tipo de
    informaciones de dudosa credibilidad y fake news, ¿consideras necesaria una regulación de carácter
    ético al uso de la IA en el periodismo?

56

Anexo III – Decálogo para el uso ético de la IA en los medios de comunicación

Decálogo para el uso ético de la IA en los medios de comunicación

PREÁMBULO

El presente decálogo se ha elaborado tras la reflexión de un grupo de trabajo impulsado por la
Diócesis de Bilbao y la Asociación Vasca de Periodistas – Colegio Vasco de Periodistas, y formado
por profesionales de la comunicación, expertos en Inteligencia Artificial, representantes
de algunas Diócesis, Universidades y medios de comunicación. Profundiza en aspectos clave como los
niveles de transparencia en el uso de IA, la necesidad de explorar soluciones técnicas para mejorar
la atribución y trazabilidad, y el compromiso con una revisión periódica de estos principios a la
luz de la rápida evolución de la IA y sus aplicaciones en el periodismo. El objetivo es ofrecer un
marco ético exigente pero realista y adaptable, que pueda servir de guía para un uso responsable y
beneficioso de estas tecnologías en los medios de comunicación.

Principios generales

La utilización de la IA en los medios de comunicación debe aspirar a alinear el uso de la IA en los
medios con valores humanos, derechos fundamentales y códigos deontológicos periodísticos, dentro de
las posibilidades tecnológicas y promoviendo la autorregulación responsable del sector.

Cualquier contenido que, total o parcialmente, se elabore por medio de IA, debe cumplir con la
regulación y normativa que se promulgue en las instituciones europeas, así como con las normas
deontológicas y éticas que rigen para los contenidos producidos sin recurso a la IA, por los
profesionales de la información. Tales normas deben estar alineadas con la Declaración Universal de
los Derechos Humanos, Código Internacional de Ética Periodística promulgado por la UNESCO, Código
Deontológico Europeo de la Profesión Periodística, Código Deontológico de la Red de Colegios
Profesionales de Periodistas y el Código Deontológico de la FAPE (Federación de Asociaciones de
Periodistas de España).

57

Confiabilidad como objetivo

La confianza es clave en la adopción y la utilización por parte de los medios de la IA.

La ética y la confianza tienen una vinculación directa. La confianza está detrás de toda
tecnología. Gran parte del desarrollo global en el campo de la IA se basa en la autorregulación por
parte de quienes la emplean. Ésta, a su vez, se basa en la confianza de los destinatarios de la
información en quienes la emiten haciendo uso de la IA, que se ha infringido en muchas ocasiones en
el pasado reciente, y a sus efectos en los derechos humanos. Es necesario asegurar la confianza en
el uso de la IA por parte de los medios de comunicación y garantizar que su utilización pueda
incrementar los beneficios para la sociedad. Así como asegurar el derecho a la información de la
ciudadanía. A tal fin, se enuncian los puntos siguientes. (3 al 11)

Decálogo para el uso ético de la IA en los medios de comunicación

Transparencia

Ser transparente con la audiencia sobre el grado de utilización de la IA en la creación de
contenidos, estableciendo niveles claramente definidos.

A modo de ejemplo:

Nivel 1: Uso de IA para esquematización inicial, generación de ideas o búsqueda de fuentes.
Nivel 2: Empleo de IA para síntesis de información, generación parcial de contenido o maquetación
asistida.
Nivel 3: Uso extensivo de IA en la creación de contenido, con supervisión y edición humana. Nivel
4: Generación automática de contenido por IA con mínima intervención humana.
En todos los casos, es necesario asumir siempre la responsabilidad editorial final del resultado.

Atribución y trazabilidad

Mantener el máximo control y supervisión humana en decisiones editoriales clave.

58

Dado que la naturaleza de caja negra (o traslúcida) de la IA generativa dificulta la atribución de
autoría y trazabilidad de los procesos, explorar soluciones técnicas que permitan la máxima
transparencia posible en cada fase del flujo de trabajo, sin comprometer la eficacia del uso de
estas herramientas. La IA debe asistir, no reemplazar, al criterio periodístico.

Seguridad

Dotarse de robustas medidas de ciberseguridad en accesos y usos de sistemas de IA.

El uso de la IA comporta la utilización de redes (internet, intranet), que son susceptibles de
intrusión. La mayoría de los sistemas de IA no están diseñados para proteger la privacidad de los
datos, por lo que pueden ser vulnerables a ataques cibernéticos y robo de datos. Las
falsificaciones profundas (deep fake) son actualmente el uso más conocido de la IA como vector de
ataque.

Privacidad

Esforzarse por proteger al máximo la privacidad de la audiencia e informantes, solicitando
consentimientos explícitos cuando sea necesario.

Por defecto, los datos relativos a la identificación total o parcial de la audiencia, sus
preferencias, patrones de comportamiento, etc., serán automáticamente inaccesibles por las empresas
de comunicación y terceras partes, requiriéndose la solicitud expresa de permiso y la concesión
igualmente expresa y verificable del mismo, para acceder a cualquiera de dichos datos. La entrega o
venta de tales datos a terceras partes interesadas deberá ser objeto de otra solicitud expresa de
permiso.

La privacidad no es sólo que nuestros datos sean privados a terceros, sino también que se pueda
tener el control sobre ellos.

Decálogo para el uso ético de la IA en los medios de comunicación

Calidad y verificación
59

Utilizar la IA como apoyo para mejorar la calidad informativa y desarrollar herramientas de
verificación, siendo conscientes de sus limitaciones.

Los poderes públicos, la sociedad en su conjunto, la audiencia, los profesionales y todo el resto
de partes interesadas deberían extremar precauciones para evitar potenciar la
desinformación.

Formación y adaptación

Promover la formación continua de periodistas sobre la IA, sus capacidades y riesgos. Fomentar la
colaboración con expertos para adaptarse de forma ágil y ética a la evolución tecnológica.

Es recomendable promover la interdisciplinariedad en los equipos y buscar así la complementariedad
de las formas de pensar e impulsar iniciativas en positivo en torno a la utilización de las
tecnologías.

Monitorización de impacto

Monitorizar y evaluar continuamente los efectos del uso de la IA generativa.

Tomar en consideración a la audiencia fomentando el debate público y los procesos democráticos,
monitorizando y evaluando para detectar y mitigar posibles daños.

Investigación, debate y colaboración

Apoyar la investigación y el debate independiente sobre el impacto del uso de la IA en medios.

Comprometerse promoviendo el debate público informado y realista sobre los beneficios y riesgos de
la IA. Fomentar la colaboración sectorial promoviendo acuerdos, estándares compartidos y mejores
prácticas sobre el uso responsable de la IA en el sector, aprendiendo de la experiencia colectiva.

60

Rendición de cuentas

Establecer canales para que la audiencia pueda cuestionar y criticar los usos de IA en medios.

Es pertinente que los medios adquieran el compromiso de rendir cuentas y rectificar cuando sea
necesario.

Revisión periódica

Este decálogo debe entenderse como un documento vivo, que habrá de ser revisado y actualizado
periódicamente a medida que evolucionen las capacidades de la IA generativa, su aplicación en el
periodismo y la reflexión ética sobre sus implicaciones. Se promoverá un proceso continuo de
evaluación, aprendizaje y mejora de estos principios y recomendaciones, con participación de
profesionales, expertos y sociedad.

FUENTES:

UNESCO: Código Internacional de Ética Periodística
Código Deontológico Europeo de la Profesión Periodística FAPE: Código Deontológico
“Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to
Principles for AI” Centro de investigación Berkman Klein Center for Internet & Society de Harvard
Declaración de Montreal para el Desarrollo Responsable de la Inteligencia Artificial Rome Call for
AI ethics
Four ethical priorities for neurotechnologies and AI
“Algoritmos en las redacciones: retos y recomendaciones para dotar a la IA de los valores éticos
del periodismo”
2023 AI Index Report
Inteligencia Artificial y Derechos Humanos

61

62
Propuesta de REGLAMENTO DEL PARLAMENTO EUROPEO Y DEL CONSEJO POR EL QUE SE
ESTABLECEN NORMAS ARMONIZADAS EN MATERIA DE INTELIGENCIA ARTIFICIAL (LEY DE INTELIGENCIA
ARTIFICIAL) Y SE MODIFICAN DETERMINADOS ACTOS LEGISLATIVOS DE LA UNIÓN
Bilbao, 5-06-2024