A pocos días del cierre de una campaña electoral es un desafío ponerse a analizar otra cosa que no sea la evolución de los datos que van mostrando las diferentes firmas encuestadoras y las actividades que los diferentes candidatos a acceder a las posiciones que están en disputa llevan adelante por todo el país, e incluso en el extranjero. Ya con esto suele haber mucho con lo que entretenerse. Pero ha ocurrido algo en estos días que ha marcado un hito y que no podemos dejar de mencionar y centrar la atención aunque sea un instante para analizar el episodio, su impacto en la campaña presente, pero sobre todo las puertas que se abren a futuro a partir de la introducción en el ejercicio periodístico de una herramienta tan poderosa como la inteligencia artificial generativa.
Seguramente el lector atento al desarrollo de esta campaña ya habrá determinado a qué episodio aludimos. Se trata de una sección del programa televisivo Santo y Seña, en Canal 4 de Montevideo, en el que se planteó una imitación de un debate entre un candidato que se encontraba presente en vivo en el estudio, el postulante por el Partido Colorado, Andrés Ojeda, y por otro lado un avatar que representaba al candidato único del Frente Amplio, Yamandú Orsi. Cabe puntualizar que esta representación se realizó sin la autorización de Orsi, de hecho en los días previos desde la coordinación de su campaña se había salido a alertar sobre esta situación y rechazarla.
La señal televisiva los mostraba uno a cada lado del conductor del programa, Ignacio Álvarez, y mientras Ojeda realizaba sus intervenciones en vivo, la participaciones de la representación de Orsi estaban —supuestamente— generadas por una inteligencia artificial que se nutría de declaraciones anteriores del candidato. En ningún momento se presentó como otra cosa que no fuera eso, una presencia ficcionada de la persona a la que representó, más allá de algún comentario del presentador durante la dinámica.
Evidentemente estamos frente a algo nuevo, que nos obliga a hacer un replanteo y una reflexión para evaluar dónde estamos parados ante la irrupción de esta nueva tecnología, muy poderosa, que puede resultar sumamente beneficiosa, como lo hemos visto en aplicaciones relacionadas con el desarrollo de nuevos tratamientos de salud, por ejemplo, o con la búsqueda de soluciones para diferentes problemas que implican el manejo de volúmenes de datos que una persona o un grupo de personas no podría manejar, al menos en los tiempos en que lo hace una inteligencia artificial. Es un nuevo escenario, en el que apenas estamos viendo los primeros movimientos.
Al respecto resulta interesante un análisis que realizó la periodista Ana Laura Pérez, que viene trabajando hace mucho tiempo acerca del vínculo entre periodismo y tecnología, en verificación de datos y en la ética en el uso de las herramientas digitales. Mostró una postura claramente crítica hacia lo que se presentó en el programa. “Porque vos puedas hacer algo con una herramienta no significa que lo hagas, se compara mucho con cómo fue el proceso con la energía nuclear, que vos puedas fabricar bombas no significa que efectivamente las fabriques y que efectivamente las tires, que fue un proceso que como sociedad hicimos, darnos cuenta de que lo podíamos hacer, pero que mejor no hacerlo”, dijo en una entrevista en TV Ciudad. Aplicado específicamente a este caso señaló que “tú obligas a una persona a hacer una cosa, que tú podés discrepar con las razones por las cuales no las hace, pero que efectivamente y públicamente dijo que no lo quiere hacer. Vos efectivamente la obligás, entonces yo lo que me pregunto es cuál es el límite. Debatir no es un límite que nos molesta; y hacer otras cosas, como por ejemplo mostrarla bailando cuando no baila, sin ropa cuando no se la quiere sacar”, prosiguió. Pérez agregó que hay que entender “que cuando uno hace periodismo, cuando uno se pone dentro del marco del periodismo, tiene otros límites. Ni mejores ni peores, son distintos. (…) El periodismo tiene otras reglas, decir ‘es obvio que era una broma’, no sé si es tan obvio, porque estaba en el marco de una entrevista. Poner a una persona a decir algo que no dijo, al menos que no lo dijo en esas circunstancias y en ese contexto, es un límite que no deberíamos cruzar”.
Estamos frente a un mundo nuevo, eso es claro, y todavía tendremos mucho más por ver, porque una de las “virtudes” de la inteligencia artificial es su capacidad de evolución, mejora rápidamente y seguramente en pocos meses será mejor, más rápida y más confiable. Pero no tiene límites éticos por sí sola, no está aquello de las tres leyes de la robótica que planteaba Isaac Asimov en su obra.
Ahora bien. Un ejercicio válido del periodismo “tradicional” ha sido siempre citar y cotejar anteriores declaraciones de cualquier persona, y en especial de candidatos a la presidencia de la República: revisar el archivo, tomar frases, declaraciones, incluso colocar una foto, y si se quiere plantear un diagrama gráfico con frases de otro candidato, contraponerlas y ubicar allí otra foto de archivo de otro candidato. Allí, en ese ejercicio, hay un trabajo del equipo periodístico que puede ser sometido a cuestionamiento, porque hay una elección de las frases a colocar e incluso de las fotos, en las que uno puede salir mejor representado que otro. No hay nada de inteligencia artificial. Esas cosas siempre las hizo el periodismo, y sin necesidad de ir a pedir permiso a nadie para hacerlo.
En este caso, quizás, lo más cuestionable es que uno de los dos estaba en vivo y otro en esta representación digital. No estaban en igualdad de condiciones, digamos. Pero, en la medida que las intervenciones de esa representación sean fieles, sean atribuibles al candidato, se puede cuestionar el buen gusto de hacerlo, seguro, pero por lo demás, no es otra cosa que un poco más de show televisivo. El parámetro para medirlo siempre será, en definitiva, el de la ética con que se haga.
→ Leer más