¿Ahora qué?

La princesa de Gales reapareció en un video hablando sobre su estado de salud, luego de algunos meses de ausencia pública y tras haberse sometido a comienzos de año a un tratamiento quirúrgico sobre el que no se habían dado a conocer más detalles. Se sospecha que el video fue realizado mediante inteligencia artificial, maniobra que tendría al propósito de esconder el aspecto actual de Kate Middleton. Esta teoría está abonada en la anterior aparición de la princesa, posando junto a sus hijos en una fotografía que había sido alterada digitalmente.
Más allá de que se compruebe o no la fidelidad o la autenticidad del video —crean que hay muchísimas personas trabajando en demostrarlo— el punto al que vamos está ya claramente planteado, y es la duda o la sospecha que se abre frente al uso de imágenes, fotos o videos, como material de prueba. Y el asunto es que esto no hecho más que empezar y los sistemas informáticos, las herramientas que se utilizan para la manipulación, o directamente la generación de este tipo de materiales, van a mejorar constantemente, y en paralelo se tendrá que producir un debate que será más filosófico que técnico acerca del uso de estas soluciones, por ejemplo por parte de los estados, o mejor dicho, de los gobiernos de los estados.
Sin ir más lejos, el tema estuvo la semana pasada sobre la mesa en la Asamblea General de la ONU, que adoptó “por aclamación” una “resolución histórica sobre la promoción de sistemas de inteligencia artificial (IA) seguros y fiables, que beneficien también al desarrollo sostenible para todos”. El proyecto fue liderado por Estados Unidos y “copatrocinado” o respaldado por más de 120 estados miembro, y hace énfasis en “el respeto, la protección y la promoción de los derechos humanos en el diseño, el desarrollo, el despliegue y el uso de la IA”.
Es la primera vez que la Asamblea adopta una resolución para regular este campo emergente, destaca la publicación en la página de ONU que alude al tema. La resolución pide a los Estados “que se abstengan de utilizar sistemas de inteligencia artificial que no puedan funcionar de conformidad con las normas internacionales de derechos humanos o los pongan en riesgo”, pero a la vez reconoce su potencial “para acelerar y permitir el progreso hacia la consecución de los 17 Objetivos de Desarrollo Sostenible”.
De esta forma, la Asamblea de la ONU pidió “a todos los Estados miembros y partes interesadas” que “se abstengan de utilizar sistemas de inteligencia artificial que no puedan funcionar de conformidad con las normas internacionales de derechos humanos o que planteen riesgos indebidos para el disfrute de los derechos humanos” y pone de manifiesto que “los mismos derechos que tienen las personas fuera de línea deben protegerse también en línea, incluso durante todo el ciclo de vida de los sistemas de inteligencia artificial”, afirmó.
La resolución también insta a todos los estados, al sector privado, a la sociedad civil, a las organizaciones de investigación y a los medios de comunicación “a desarrollar y apoyar enfoques y marcos normativos y de gobernanza relacionados con el uso seguro y fiable de la IA”.
Otro detalle sobre la resolución es que se produjo además un reconocimiento sobre los “diferentes niveles de desarrollo tecnológico entre los países y dentro de ellos”, y se asumió que las naciones en desarrollo “se enfrentan a retos únicos para seguir el rápido ritmo de la innovación”. Más que retos únicos, es directamente imposible que un país que padece endeudamiento, que tiene situaciones humanitarias a las que no puede dar respuesta, con conflictividad interna, pueda enfocarse en tratar de seguir el ritmo de la innovación. Por ello fue que se instó “a cooperar y apoyar a los países en desarrollo para que puedan beneficiarse de un acceso inclusivo y equitativo, cerrar la brecha digital y aumentar la alfabetización digital”. Algo que no suele ocurrir, basta con recordar cómo se comportaron los estados frente al Covax, el sistema con el que la Organización Mundial de la Salud pretendió que el mundo tuviese una distribución equitativa de las vacunas contra la COVID-19, un sistema que fue violentamente saboteado por las empresas que negociaron sus productos directamente con los estados, como se demostró en nuestro país con el polémico rechazo a la oferta de una de las farmacéuticas.
Más allá del daño que pueda producir una fotografía o un video generados por inteligencia artificial, o el uso aplicado en redes sociales mediante la multiplicación de usuarios falsos (granjas de bots) reproduciendo y “viralizando” mensajes alineados con determinadas posiciones, veremos florecer el uso como mecanismo de defensa del argumento de que una fotografía o un video han sido generado artificialmente y que no refleja o no se ajusta a la realidad. Hoy todavía hay sistemas que son capaces de detectar este tipo de cosas, incluso el mismo ojo humano es capaz de captar en la mayoría de los casos imperfecciones que delatan un intento de fraude, pero recordemos que esto mejora a la velocidad de la luz y que no habrá de pasar mucho tiempo más para que no se pueda distinguir la imagen de un actor captada por una cámara, de la del mismo actor, en el mismo escenario, generado por una computadora, y lo mismo con las voces.
No es, tal vez, el fin del mundo, pero esta tecnología va a traer un cambio muy grande, al que nos acabaremos adaptando o al menos acostumbrando, como ocurrió con las redes sociales, cuyos problemas no terminamos de resolver.