En 2013 la policía del Estado de Wisconsin, en Estados Unidos, detuvo a Eric Loomis mientras conducía un vehículo involucrado en un tiroteo. Al hombre se lo acusó de posesión de arma de fuego, intento de huida de un agente de tránsito, peligro para la seguridad pública y conducción de un vehículo motorizado ajeno sin el consentimiento del propietario. El acusado se declaró culpable de los dos últimos, pretendiendo evitar que le enviasen a una prisión. Durante la instancia convocada para decidir sobre su libertad condicional el fiscal del caso aportó un informe elaborado por un programa informático, desarrollado por una empresa, según el cual, a partir de una serie de respuestas de Loomis, mostraba “un riesgo elevado de reincidencia y de cometer actos violentos”. El informe concluía que el acusado representada un “alto riesgo para la comunidad” y en vista de ello el juez del caso le impuso una pena de 6 años de prisión y otros 5 en régimen de libertad vigilada. Usted, lector, podría pensar que se traspapeló aquí alguna de las ocurrentes historias que se suelen publicar los domingos en la última página del suplemento Quinto Día, pero no es así. Esto ocurrió. La defensa de Loomis recurrió la sentencia, alegando que se había vulnerado su derecho a un proceso con todas las garantías dado que no podía discutir los métodos utilizados por el programa informático, ya que su algoritmo era secreto y solo lo conocía la empresa que lo había desarrollado. De nada le valió. Los jueces argumentaron que el programa informático se había basado únicamente en los factores habituales para medir la peligrosidad criminal futura como, por ejemplo, huir de la policía y su historial delictivo previo. El caso “Winsconsin v. Loomis” marcó un precedente en la aplicación de justicia mediante el empleo de tecnología y ha dado lugar a abundantes estudios.
Han pasado diez años desde entonces y la inteligencia artificial ha dado muchos pasos hasta aquí. De hecho los pasos más largos y más rápidos los viene dando desde noviembre pasado, cuando se lanzó la tecnología que está provocando una revolución en Internet y que amenaza con cambiarlo todo. Hablamos de ChatGPT. “Es, básicamente, un robot virtual (chatbot) que responde una variedad de preguntas, realiza tareas por escrito, conversa con fluidez e incluso da consejos sobre problemas personales (aunque se advierte que no tiene este objetivo). Sus posibilidades de generar contenido son inmensas”, refiere un artículo de la BBC. El potencial de esta herramienta es enorme, dado que alcanza resultados que es muy difícil distinguir de algo elaborado por un humano. Por un humano experto. Básicamente una inteligencia artificial tiene la capacidad de procesar muy rápidamente volúmenes enormes de información, a ello esta le ha sumado la capacidad de elaborar algo nuevo (tal vez no completamente) a partir de ese conocimiento. Recientemente la empresa Microsoft ha anunciado la integración de esta herramienta tanto en su buscador Bing como en su navegador Edge, con lo que espera dar batalla en una pelea que parecía tener perdida frente a Google, pero esto es casi que anecdótico.
¿Pero qué puede ocurrir cuando el uso de esta inteligencia artificial –y las que sobrevendrán inspiradas en ella, como siempre ocurre– cobre mayor difusión por toda la internet? Primero lo de siempre, la destrucción de empleos, como cada vez que una máquina asume tareas que realizaban humanos. Hay diferentes estimaciones, pero es entrar en el terreno de las especulaciones. Ya hay en el mundo call centers que funcionan con robots, pero esto se va a profundizar, pero también empezará a ocurrir en el área de la generación de contenidos. Por citar un ejemplo, pronto escribir un libro no requerirá de un escritor, sino que alcanzará con que alguien le pida a una computadora que lo genere, dictándole las pautas de lo que pretende. Y así con las películas, las series, canciones y hasta en la plástica. ¿Se imaginan las murgas del futuro cantando los “salpicones” generados por inteligencia artificial?
Pero claro, estamos hablando de entregarle la generación de contenidos masivos a procesos matemáticos que no son transparentes al 100%. Los algoritmos de inteligencia artificial se “educan”, se “nutren”, con la interacción con los humanos. El ChatGPT, desarrollado por la empresa OpenAI, logró cifras récord de incorporación de usuarios para cualquier empresa tecnológica, mucho más que plataformas como Facebook, Twitter e incluso TikTok, que había sido hasta ahora la que mejor desempeño había tenido. Ha ocurrido anteriormente, con otros experimentos de inteligencia artificial, que han desarrollado sesgos en función de la población con la que interactúa, reflejando su forma de ver el mundo.
Pero además no podemos descartar el uso malintencionado de estas herramientas, que son capaces de generar, por ejemplo, todo un nuevo relato sobre hechos históricos, lo que de por sí no sería dramático, sino fuera porque además es potencialmente capaz de lograr una rápida difusión. Podría literalmente cambiar la historia. Se puede argumentar que esto es precisamente lo que está ocurriendo con fenómenos como el terraplanismo, que sigue tratando de convencer (y en muchos casos convenciendo) de que vivimos sobre un plato y no sobre una esfera. Imagínenselo ahora empleando una herramienta de argumentación y de difusión mucho más poderosa que la que emplean actualmente. Sin ir más lejos algunos usuarios de Reddit –otra red social– aseguran que ya han logrado hackear los mecanismos que evitan que ChatGPT dé respuestas incorrectas o genere información falsa.
Todo esto es muy nuevo y va muy rápido, mucho más rápido que la capacidad de estudiarlo y de generar barreras o mecanismos de anticipación que aseguren que este tipo de instrumentos tendrán un comportamiento ético, o al menos transparente, antes de incorporarlos a la vida diaria. Y si usted piensa que esto es una exageración, recuerde que ya se usó inteligencia artificial para detectar a través de las redes sociales los usuarios más “influenciables” y a ellos se les expuso a contenido generado “a medida” para incidir en sus preferencias en una elección presidencial. Parece de ciencia ficción, pero ya está pasando. → Leer más