«No creo que la inteligencia artificial te reemplazará, lo hará quien la sepa usar»
«No creo que la inteligencia artificial te reemplazará, lo hará quien la sepa usar»
La periodista y politóloga argentina Ana Paula Valacco predice que, con el auge de la inteligencia artificial, los consumidores de información demandarán un periodismo más comprometido con la transparencia y el análisis crítico.
Para reducir el tiempo de viaje, el camino es fácil: identificar la ruta más corta a través de una aplicación en el celular. Para entender un documento escrito en otra lengua, el método es parecido: copiar el texto en un traductor inteligente y esperar unos segundos para leerlo en otro idioma.
Ambas situaciones ilustran cómo la inteligencia artificial (IA) configura la manera en que las personas consumen información y toman decisiones cotidianas en la segunda década del siglo XXI. Conforme la tecnología se integra en la vida cotidiana, su desarrollo plantea dudas sobre cómo los periodistas y sus audiencias pueden aprovechar estas herramientas sin perder el criterio humano.
[No te pierdas cada martes en tu correo el boletín «Radar Político» donde te explicamos cómo va el país. Suscríbete aquí]
Para profundizar en esta y otras preguntas, Plaza Pública conversó con Ana Paula Valacco, gestora de comunidad en JournalismAI, una iniciativa del centro de pensamiento Polis (adscrito a la London School of Economics) que impulsa el uso responsable de la IA en el periodismo.
Con una trayectoria de 10 años en la industria de la comunicación, que abarca proyectos para verificar datos y garantizar la sostenibilidad de medios digitales, Valacco comparte su visión sobre un mundo donde las máquinas no solo distribuyen noticias, sino que también pueden crearlas.
―¿Qué tan grande es el espacio que la IA ocupa en nuestro día a día? ¿Cómo se ha posicionado esta tecnología en nuestra forma de consumir información en internet?
―Sí es relevante el rol de la IA, a través del consumo de redes sociales o lo que ingresamos en buscadores de información. ¿Has visto que ahora Google resume en una respuesta lo que varias páginas dicen sobre un tema? Eso es con IA.
Lo importante es ver que la inteligencia artificial está tomando decisiones por nosotros, desde qué camino es el más óptimo para llegar a un lugar, hasta qué tipo de ofertas vamos a recibir en nuestra casilla o qué clase de publicidad vamos a ver en nuestras redes sociales. Tanto voluntaria como involuntariamente, estamos muy inmersos. El tema es que, cuando buscamos información, no siempre sabemos que nos cruzamos con contenidos creados con inteligencia artificial.
―Justo ese punto quisiera tocar, ¿qué medidas debería tomar la prensa para ser transparente sobre su uso de la IA?
―Esto tiene que ver muchísimo con la ética periodística a nivel general. Y es un ejercicio que no todos los medios hacen acerca de, por ejemplo, cómo encuentran la información, cómo tratan a las fuentes, entre otras cosas.
Para hacerlo bien, se tiene que entender a la audiencia, que al final de cuentas es producir periodismo enfocado en las necesidades de la audiencia. Lo digo porque hay usuarios que se muestran reticentes a contenidos que incluyen etiquetas de que están producidos con IA, por mucho que especifiquen los aspectos en los que se utilizó. La actitud depende de la confianza de las personas hacia los desarrollos tecnológicos.
[frasepzp1]
Yo estoy del lado de transparentar el uso de la inteligencia artificial porque puede ser un componente muy útil en el ejercicio del periodismo, como simplificar las tareas rutinarias, como las transcripciones. Lo que pasa es que la IA también tiene un poder muy grande para acelerar los problemas que pueden ser la destrucción del periodismo.
―¿De qué forma puede acelerar los problemas del periodismo?
―La falta de confianza de la audiencia en el periodismo no se da porque por la inteligencia artificial per se, sino por situaciones poco éticas en cuanto al ejercicio de la profesión. Eso hay que aclararlo primero.
Algunos estudios demuestran que por lo menos el 80% de los periodistas están usando inteligencia artificial en sus procesos. En realidad, a mí, a nivel individual, no me parece mal porque soluciona muchos dolores de cabeza. Pero, cuando les preguntás a los periodistas si sus medios tienen estrategias para usar la IA, hablamos de alrededor del 20%.
Tenemos un desnivel de donde me parece que sale este potencial de dañar. Por ejemplo, si hacemos una nota en ChatGPT, ese contenido puede tener faltas, reproducir sesgos o divulgar información falsa. Pero muchos prefieren hacerlo porque ven un contenido fácil que les soluciona la vida.
Si en los medios hay liderazgos que digan que podemos usar la IA para transcribir, mejorar imágenes o limpiar audios, va a ser mucho más favorecedor para el periodista. Pero si tenemos que usar la IA a escondidas porque me facilita mi vida y hago más notas, se tiene una gran posibilidad de generar daño.
Antes de la transparencia externa, se debe procurar la interna, dentro de las redacciones.
―Si no hay transparencia interna, los periodistas se sentirían más tentados a usar la IA a escondidas, y eso tiene el riesgo de producir contenidos sesgados. Esto, al final, es lo que a la audiencia no le gusta y la razón de la desconfianza. ¿Es eso lo que observas?
―Sí. Si uso inteligencia artificial, pude haber tenido algún problema o falta en la información. Pero si no se lo digo a mi editor, él o ella no mirará mi trabajo con ojos críticos para examinar fechas, la atribución de frases o los nombres de las organizaciones. En estos casos, se anula la posibilidad de hacer un ejercicio crítico específico sobre las limitaciones que tiene la inteligencia artificial. Todo por omitir que un trabajo se hizo con una herramienta.
―¿Y entonces cómo debe ser la transparencia externa para que la audiencia confíe en los medios?
―Hay que forjar conversaciones con la audiencia: entender cómo valora la IA. Luego, podemos explicar que, gracias a que usamos IA en el procesamiento de la información, reducimos un margen de error humano o encontramos ciertas tendencias que de otra manera serían imposibles de identificar.
El tema es determinar cómo le agregamos valor a nuestro periodismo con el uso de las herramientas tecnológicas. Cualquier IA puede servir muchísimo, por ejemplo, para ayudar a estructurar una nota, tirar ideas de posibles titulares u ofrecer copies para un artículo. Pero no va a tener los matices periodísticos que son necesarios en la crítica. Hablo de las reflexiones sobre el trabajo en sí mismo. ¿Por qué un tema es importante? ¿Y la omisión de un tema? ¿Por qué el uso, por ejemplo, de cierto concepto por parte de un entrevistado es particularmente llamativo?
―¿Qué tipo de audiencias son las que son más resistentes a los contenidos hechos por IA? ¿Son personas de países latinoamericanos?
―Hay solamente un estudio en Latinoamérica, del que tengo noción específica sobre el consumo. Lo hicieron en Chile. Tres investigadores encontraron que seis de cada diez personas declararon no estar dispuestas a consumir noticias generadas por IA. Dos dijeron que sí las consumirían. El resto están en duda.
En otro estudio, que este sí era más global, los investigadores encontraron que, mientras los periodistas puedan seguir siendo buenos investigadores, aportando su análisis al trabajo, las audiencias valoran contenidos en donde hubo intervenciones de la IA.
Entonces ahí es donde hay un gran desafío para el periodismo para que priorice dónde está de vuelta el valor del periodismo y procure que las audiencias entiendan que, más allá de que se utilicen estas herramientas, el criterio editorial prevalece.
―Esto suena en línea a un estudio reciente que hizo el Instituto Reuters para el Estudio del Periodismo. Encontró que las personas se sienten más cómodas cuando los periodistas usan IA para producir contenidos de formas que no son visibles, como transcribir entrevistas u ordenar bases de datos. Y se sienten menos cómodas cuando el contenido es creado directamente por la IA. ¿Qué dice eso sobre la relación entre la sociedad y estas tecnologías?
―Justo. Si el contenido 100% generado por inteligencia artificial no va a funcionar bien, ¿de qué manera los periodistas van a encontrar el balance entre usar la tecnología y aplicar su propio criterio humano?
La respuesta aún se discute en círculos de académicos y expertos, pero yo puedo decir que hay que potenciar, diversificar y ampliar los espacios en los cuales nuestras audiencias se puedan sentir identificadas. Al final del día, las personas buscan el periodismo para encontrar respuestas sobre los temas que afectan sus vidas. La IA debe ser aliada del periodismo para entregar estos productos.
Hay medios que lo están haciendo bien. Recuerdo el caso de un medio en Filipinas en el que hicieron todo un podcast a partir de audio generado por inteligencia artificial. Eso le permitió a la gente acceder en otros formatos a un contenido que antes era narrativo o gráfico, mucho más limitado. Esta era una redacción que no contaba con una gran infraestructura para grabar audio o invertir en la producción de videos. Entonces, se ve cómo encontraron un canal para comunicarse con audiencias a las que no estaban llegando. Esta misma lógica funciona para incluir a personas con discapacidad visual o déficit de atención para leer.
Recuerdo cuando el periodismo pasó del papel a lo digital, del sitio web a las redes sociales y ahora la lógica es de las redes sociales a la inteligencia artificial. Este es el momento para volver a preguntarse para qué sirve el periodismo. Y el momento de volver a defender el valor del periodismo ante las audiencias.
―Aprovechando que mencionas el medio filipino, ¿cuál es el mejor ejemplo que recuerdas de investigaciones periodísticas que hayan utilizado IA como herramienta clave?
―Una de mis favoritas, porque además es latina, fue la de una del medio Armando Info en 2018. Los periodistas lograron identificar con IA la presencia de minas ilegales dentro de la selva amazónica. Lo hicieron a partir de ciertos patrones en las imágenes satelitales, como líneas de aeropuertos ilegales, por ejemplo. Esta investigación se sigue usando a nivel global como referencia para saber cómo utilizar la georreferenciación en el periodismo.
―Y a esa investigación los periodistas le aportaron los datos y la explicación a través de las fuentes humanas.
Así es, lo humano sigue teniendo valor. Y es así en todo. Por ejemplo, ¿a quién no le ha pasado que empieza a hablar con un chatbot para resolver un problema de una compra que salió mal en una tienda? Hay que darnos cuenta de que muchas veces nos estresamos y necesitamos hablar con un humano.
Al final del día, ese contacto es necesario. ¿Ese tipo de vinculación puede ser llevado adelante por máquinas? El periodismo debe buscar esas respuestas. Si yo necesito enterarme de lo que pasa en mi ciudad, ¿por qué como usuaria no voy a preferir, por ejemplo, un reporte que me haga un agente de inteligencia artificial con base en todos los portales de mi ciudad? ¿Por qué preferiría un newsletter de periodistas antes que un reporte de IA que prioriza mis intereses?
―Hablemos de ese valor humano del periodismo para resolver problemas. Uno de los más frecuentes es la desinformación. ¿El periodismo está sobrepasado por los bulos que la IA amplifica?
―No, y creo que todavía es difícil que se reemplace la verificación manual de hechos. Porque son procesos que necesitan contexto y sentido que la IA todavía está limitada para dar. Hay muchos ejemplos igual de usos de inteligencia artificial para acompañar estos procesos, sobre todo en la identificación del contenido desinformante. Muchos medios monitorean tendencias e identifican actores con IA para ayudar al proceso de verificación.
―Quiero traer a la mesa a la IA que organiza la forma de presentar contenidos ante las personas. ¿Estas tecnologías nos ayudan o nos perjudican a la hora de balancear la información personalizada con la diversidad de fuentes?
―Aquí hay algo interesante. Vos y yo estamos de acuerdo en que, para vivir en sociedad, está bueno trabajar desde el disenso y construir consensos a partir de él. Pero, para muchos, es más eficiente mantener las burbujas informativas. Me atrevo a decir que son muy pocas las personas que realmente van a querer consumir el contenido que contradice lo que piensan. Eso es un problema porque antes, cuando los espacios digitales no estaban mediados por plataformas que buscan maximizar nuestro tiempo de consumo, la posibilidad de acercarnos a contenido que no fuera afín era más alta.
[frasepzp2]
De todos modos, la IA sí nos puede ayudar a acercarnos a otros contenidos. Por ejemplo, al poder entender información en otros idiomas. Las tecnologías que traducen nos dan una grandísima ventaja. Pero se requiere un ejercicio más activo por parte de los usuarios para buscar eso. Siempre se pueden escribir prompts para entender argumentos que contradigan lo que valoro. Debemos dejar de buscar solo cosas que se adecúan a nuestras preferencias y que nos hacen sentir seguros.
―¿Cómo cree que evolucionará la relación entre la IA y el periodismo en los próximos cinco o diez años? Para seguir siendo relevante ante la audiencia.
―Es difícil, pero me gusta este concepto de que no te va a reemplazar la inteligencia artificial. Te va a reemplazar quien sepa usarla. Entonces yo sí creo que un periodismo sin conocer la inteligencia artificial, sin incorporarla de manera responsable, se va a hacer cada vez más difícil.
Me gustaría ver un periodismo más enfocado en difundir contenido de valor y concentrado en lo que las audiencias quieren. Así podrá posicionar su valor y tendrá la capacidad de tener esas conversaciones con las audiencias para posicionarlas como prioritarias.
Me gusta pensar que podemos ir por ese lado. Ver a medios que, con los recursos de la inteligencia artificial, están potenciando su contenido previo, llegando a nuevos espacios, pudiendo desarrollar nuevos formatos y haciendo las investigaciones que antes soñaban lanzar.
No quiero pecar de optimista porque soy muy consciente de las limitaciones de estas tecnologías, pero, si hacemos periodismo responsable, creo que todavía somos valiosos y necesarios en esta sociedad. Una sociedad que valora el conocimiento, que valora la información.
Más de este autor