El juguete que se volvió arma

A fines de la década de los ‘90 el término “Internet” era toda una novedad para el mundo, era un lugar al que ir, o al que “entrar”, una opción más de esparcimiento de la que se debatía si en algún momento llegaría a competir con la televisión, ama y señora del panorama informativo y el entretenimiento familiar por excelencia, por aquel entonces. En menos de 30 años pasamos a estar conectados a tiempo completo y el “raro” es quien no tiene una pequeña parcela en el mundo virtual.

Este torbellino digital pasó tan rápido por nuestras vidas que la humanidad todavía no ha logrado dimensionar el impacto, todavía no terminamos de entender qué cosas cambiaron y cómo, y ya estamos obligados a remediar cosas que se rompieron, quizás para siempre. Una de ellas, la forma de relacionarnos, que en realidad ha sido un proceso en constante evolución al influjo del avance tecnológico, cada vez más mediado, solo que ahora estamos pasando un umbral (de hecho ya lo hemos hecho) hacia un lugar en el que los mensajes no los estamos construyendo nosotros. Nos estamos reemplazando a nosotros mismos por mecanismos de generación de mensajes a medida del receptor, pensados para lograr el mayor impacto. Y esto, créanlo, es un peligro.

La Organización de las Naciones Unidas presentó en Costa Rica un guía global para impulsar políticas educativas que aborden y enfrenten los discursos de odio y discriminación en los sistemas educativos. El objetivo es “compartir experiencias y perspectivas de cada país para crear conciencia y motivar esfuerzos dentro de los sistemas educativos para el abordaje de esta problemática” y explicaron que se eligió este país como sede “por su fuerte tradición democrática y por ser un país pionero en la investigación y acción contra los discursos de odio y la discriminación en el mundo”.

No hace mucho tiempo, en 2021, el secretario general de las Naciones Unidas, António Guterres, había puesto de manifiesto la preocupación del organismo internacional acerca de este problema, al comentar que “Las redes sociales son un megáfono mundial para el odio” y lanzó entonces un llamado que decía “Haz una pausa antes de compartir”, dado que se asumía como un error de conducta producto de la inmediatez: “La desinformación se extiende más de prisa si estamos enfadados”.

La evaluación decía que “el creciente uso de las redes sociales como arma con la que extender discursos divisorios y de odio se ha visto favorecido por los algoritmos de las empresas de Internet. Esto ha intensificado el estigma al que se enfrentan las comunidades más vulnerables y expuesto la fragilidad de nuestras democracias a nivel mundial”. Y se aseguraba además que esto había ocasionado “el escrutinio de los operadores de Internet y desencadenado preguntas acerca de su función y responsabilidades al infringir daño en el mundo real“. A partir de ello, algunos Estados empezaban a pedir responsabilidades a las empresas “al respecto de moderar o eliminar contenido que pueda considerarse en contra de las normas establecidas, suscitando inquietudes sobre las limitaciones de libertad de discurso y censura”.

Pero ahora estamos yendo un paso más lejos y puede que esta guía de la ONU esté llegando demasiado tarde, porque tal vez ya no alcance con educar a las personas. Estamos ingresando en una fase en la que la capacidad de generar mensajes (“contenido”) se multiplicará, y si ya es harto difícil establecer controles para prevenir, corregir o responder, esa posibilidad tenderá a cero en poco tiempo.

Esto no puede tener otro efecto que la profundización de la polarización, la desaparición del debate reemplazado por la mera agresión al diferente. Y lo que es más triste, habrá cada vez menos margen para comprobar si un mensaje, una información, una acusación, o lo que sea, es verídico.
Si hasta las mismas personas que hoy están liderando esta transformación se confiesan preocupados. Sam Altman es el CEO de la empresa OpenAI, creador del ChatGPT, una herramienta de inteligencia artificial que desde fines del año pasado viene dando que hablar por los avances demostrados, aunque también por las críticas hacia su funcionamiento, que se ha mostrado plagado de errores y por tanto dudosamente confiable, al menos en la versión anterior. Es que ahora están anunciando una nueva, mejorada y potenciada.

Pero Altman confiesa que se está planteando un dilema. Su preocupación es que la inteligencia artificial pueda ser utilizada para generar contenido con el objetivo de desinformar a las personas. “Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala. Ahora que están mejorando en la escritura de código de computadora, podrían usarse para ataques cibernéticos ofensivos”, declaró en una entrevista con ABC News de los Estados Unidos. Por más que intentó tranquilizar afirmando que la herramienta “está en gran medida bajo el control humano”, en el sentido de que “espera a que alguien le dé una entrada”.

Claro, todo al fin dependerá de quién tenga el control de esa entrada y cuál sea su propósito. Y si bien después planteó que la humanidad necesita “tiempo para adaptarse a la Inteligencia Artificial”, en los hechos lo que estamos viendo es que todavía no hemos llegado a apagar los dolores de crecimiento de Facebook, Twitter y Tik Tok, como para ponernos a pensar en adaptarnos a este nuevo chiche. Y lo paradójico del tema es que la única solución posible —dadas las características del desafío— es usar más y más inteligencia artificial para tratar de poner orden.