El periodismo ya elabora normas para el uso de la Inteligencia Artificial en las redacciones

Associated Press ha publicado una serie de directrices sobre la inteligencia artificial, en las que establece que esta herramienta no puede utilizarse para crear contenidos e imágenes publicables para el servicio de noticias, pero anima a los periodistas a familiarizarse con esta tecnología.

AP es una de las pocas organizaciones de noticias que han empezado a fijar normas sobre cómo integrar al trabajo herramientas tecnológicas de rápido desarrollo como ChatGPT. El jueves, el servicio adjuntará a su influyente Manual de Estilo un capítulo en el que se aconseja a los periodistas cómo cubrir una noticia, junto con un glosario de terminología.

«Nuestro objetivo es dar a la gente una buena manera de entender cómo podemos experimentar un poco pero también estar seguros», dijo Amanda Barrett, vicepresidenta de estándares de noticias e inclusión de AP.

El Instituto Poynter, think tank sobre periodismo, señaló que se trata de un «momento de transformación» e instó a las organizaciones periodísticas a crear normas para el uso de la IA y a compartir las políticas con los lectores y los espectadores.




Unas pocas organizaciones de noticias han empezado a fijar normas sobre cómo integrar al trabajo herramientas tecnológicas de rápido desarrollo como ChatGP. Foto: Reuters

La IA generativa es capaz de crear textos, imágenes, audio y video a voluntad, pero aún no puede distinguir entre realidad y ficción.

Cuando se debe usar y cuando no​

En consecuencia, AP sostiene que el material producido por la inteligencia artificial debe ser analizado cuidadosamente, al igual que el material de cualquier otra fuente de noticias. Del mismo modo, AP dijo que una foto, video o segmento de audio generado por la IA no debe ser utilizado, a menos que el material modificado sea en sí mismo el tema de una nota.

Eso está en concordancia con la revista de tecnología Wired, que dijo que no publica artículos generados por IA, «excepto cuando el hecho de que sea generado por IA sea el tema del artículo».

«Sus notas deben estar escritas por ustedes en su totalidad«, escribió Nicholas Carlson, editor jefe de Insider, en un mensaje a los empleados que se compartió con los lectores. «Son responsables de la precisión, imparcialidad, originalidad y calidad de cada palabra de sus artículos».

El material producido por la inteligencia artificial debe ser analizado cuidadosamente. Foto: Pexels.


El material producido por la inteligencia artificial debe ser analizado cuidadosamente. Foto: Pexels.

Los sonados casos de «alucinaciones» generadas por IA, o hechos inventados, hacen que sea importante que los consumidores sepan que existen normas para «garantizar que el contenido que leen, miran y escuchan está verificado, es creíble y lo más imparcial posible«, expresó Poynter en un editorial.

Para qué podría usarse

Las organizaciones de noticias han enumerado formas en que la IA generativa puede ser útil antes de la publicación. Puede ayudar a los redactores de AP, por ejemplo, a elaborar resúmenes de noticias en curso que se envían a los suscriptores. Podría ayudar a los redactores a crear titulares o generar ideas para artículos, según Wired.

Carlson dijo que se podría pedir a la IA que sugiera posibles correcciones para hacer que una nota sea concisa y más legible o que proponga posibles preguntas para una entrevista.

AP lleva una década experimentando con formas más sencillas de inteligencia artificial, que utiliza para crear noticias breves a partir de resultados deportivos o informes de ganancias empresariales. Es una experiencia importante, dijo Barrett, pero «de todos modos queremos entrar en esta nueva fase con cautela, asegurándonos de proteger nuestro periodismo y proteger nuestra credibilidad».

Las organizaciones de noticias han enumerado formas en que la IA generativa puede ser útil antes de la publicación. Foto Shutterstock.


Las organizaciones de noticias han enumerado formas en que la IA generativa puede ser útil antes de la publicación. Foto Shutterstock.

OpenAI, fabricante de ChatGPT, y The Associated Press anunciaron el mes pasado un acuerdo por el que la empresa de inteligencia artificial obtendría la licencia del archivo de artículos periodísticos de AP que utiliza con fines de capacitación.

A las organizaciones de noticias les preocupa que las empresas de IA utilicen su material sin permiso y sin pagar. La News Media Alliance, que representa a cientos de editoras, publicó una declaración de principios destinada a proteger los derechos de propiedad intelectual de sus miembros.

Algunos periodistas han expresado preocupación por la posibilidad de que la inteligencia artificial acabe reemplazando trabajos que realizan los seres humanos y es un asunto de gran interés, por ejemplo, en las conversaciones contractuales entre AP y su sindicato, el News Media Guild. El gremio no ha tenido ocasión de analizar a fondo lo que se busca, dijo Vin Cherwoo, presidente del sindicato.

«Algunas disposiciones nos parecen alentadoras y otras nos plantean dudas», explicó Cherwoo.

OpenAI, fabricante de ChatGPT. Foto: AP


OpenAI, fabricante de ChatGPT. Foto: AP

Una vez implementadas las garantías, AP quiere que sus periodistas se familiaricen con la tecnología, ya que tendrán que informar sobre ella en los próximos años, dijo Barrett.

El Manual de Estilo de AP -una hoja de ruta de prácticas periodísticas y normas para el uso de terminología en las notas- explicará en el capítulo que se publicará este jueves muchos de los factores que los periodistas deben tener en cuenta al escribir sobre esta tecnología.

«El tema de la inteligencia artificial va mucho más allá de los negocios y la tecnología», afirma AP. «También tiene que ver con la política, el entretenimiento, la educación, los deportes, los derechos humanos, la economía, la igualdad y la desigualdad, el derecho internacional y muchas otras cuestiones. Las historias de éxito de la IA muestran cómo estas herramientas afectan muchas áreas de nuestra vida».

El capítulo incluye un glosario de terminología, como aprendizaje automático, datos de entrenamiento, reconocimiento facial y sesgo algorítmico.

Poco de ello debe considerarse la última palabra sobre el tema. Un comité que estudia las orientaciones sobre el tema se reúne mensualmente, según Barrett.

«Preveo que tendremos que actualizar las orientaciones cada tres meses porque el panorama está cambiando», añadió.

Traducción: Elisa Carnelli

ap​

Mirá también