Una gran discusión

El gobernador de California, Gavin Newsom, vetó a fines de setiembre un proyecto de ley que pretendía imponer una regulación estricta sobre la inteligencia artificial generativa (IA generativa) en ese Estado norteamericano. El proyecto, conocido como Ley S.B.1047 o Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial, apuntaba a establecer pruebas previas a los sistemas de inteligencia artificial más avanzados antes de su lanzamiento al mercado y responsabilizar a las empresas por los daños causados por la tecnología que desarrollan.
Al vetar el proyecto, el gobernador argumentó que dicha regulación podría frenar la innovación tecnológica, especialmente en Silicon Valley, cuna de las más importantes corporaciones mundiales tecnológicas. Aunque parte de quienes veían con buenos ojos el proyecto y también varios medios de comunicación han entendido la decisión de Newson como una forma de ceder a las presiones e intereses empresariales involucrados, el gobernador expresó que consideraba que la propuesta no era la mejor manera de proteger a los ciudadanos de los riesgos asociados con la inteligencia artificial, a la vez que sugirió reescribir la legislación para llegar a un equilibrio entre la seguridad y la innovación.

La iniciativa tenía entre sus puntos claves la exigencia de pruebas de seguridad que debían cumplir las empresas que invirtieran más de 100 millones de dólares en entrenamiento de modelos de inteligencia artificial de modo de asegurar que no puedan ser utilizados para ataques cibernéticos o el desarrollo de armas químicas, biológicas, radiactivas o nucleares. Incluía también protocolos de apagado de modelos de inteligencia artificial para casos en que representaran un riesgo crítico para los usuarios, así como la creación de una Agencia de Operaciones Gubernamentales encargadas de supervisar el cumplimiento de las regulaciones incluidas en el proyecto.
La polémica acompañó a este proyecto de ley durante gran parte del año, ya que como era de esperar, la industria tecnológica argumentó que podría ser perjudicial para la innovación además de incluir mecanismos de penalización a los desarrolladores, que podrían afectar especialmente a las pequeñas empresas y el sector académico.
Es evidente que la regulación de la inteligencia artificial es un asunto complejo y multifacético que incluye argumentos a favor y en contra. Entre los primeros se ubican la necesidad de protección de los usuarios, ya que la IA generativa puede ser utilizada para crear contenido falso o engañoso; la necesidad de supervisión adecuada a esta tecnología para reducir el riesgo de que los modelos de inteligencia artificial puedan ser utilizados con fines maliciosos como ciberataques o creación de armas, y no menos importante, que las empresas desarrolladoras se responsabilicen de los impactos de su tecnologías.
Los argumentos en contra de la regulación se han centrado principalmente en que ésta podría sofocar la innovación especialmente en un campo de tanto dinamismo con el de la inteligencia artificial, lo que afectaría a empresas e investigadores del sector, además del hecho de que por ese mismo carácter dinámico las regulaciones podrían quedar rápidamente obsoletas. Otro argumento es que si un estado o país impone regulaciones muy estrictas podría perder su ventaja competitiva frente a otras regiones o país con regulaciones más laxas.

¿Por qué es importante esta discusión que se ha producido en el Estado de California? La respuesta principal seguramente esté vinculada a que allí están instaladas 30 de las empresas más importantes del mundo que desarrollan modelos de inteligencia artificial y una gran variedad de aplicaciones, por lo que lo que pase en uno de los principales centros de desarrollo tecnológico como es Silicon Valley sin duda tendrá repercusiones en todo el mundo. Por otra parte, no es posible desconocer que hoy en día la inteligencia artificial generativa tiene un impacto significativo en diversos campos, desde la creación de contenido hasta la investigación científica.
Entre ellos se destaca la aceleración del descubrimiento de nuevos medicamentos y materiales al simular y analizar millones de combinaciones posibles, la optimización de los procesos de negocio, el aumento de la productividad al automatizar tareas repetitivas y tediosas permitiendo a las personas enfocarse en actividades más creativas y estratégicas, el análisis y resumen de grandes volúmenes de datos lo que ayuda en la toma decisiones o, su uso para la creación de materiales educativos personalizados y simulaciones interactivas. Entre sus perjuicios y riesgos se encuentran, entre otros, la dependencia tecnológica, el desplazamiento laboral por la pérdida de empleo en ciertos sectores, el riesgo de sesgos y discriminación ya que si los modelos de IA generativa son entrenados con datos sesgados pueden perpetuarlos y amplificarlos.
En nuestra vida cotidiana, aún sin ser totalmente conscientes de ello, interactuamos muy a menudo con desarrollos o modelos de inteligencia artificial generativa cuando interactuamos con herramientas como ChatGPT y otros chatbots avanzados o cuando nos enfrentamos a marketing y publicidad creada con esta tecnología, o utilizamos servicios de streaming como Netflix o Spotify o YouTube que nos recomiendan películas, música o video con el fin de mejorar nuestra experiencia de usuario.

Tampoco podemos desconocer que existen dos potencias mundiales, Estados Unidos y China, que están en una carrera por el mercado mundial e invierten miles de millones de dólares en desarrollos tecnológicos avanzados vinculados a la inteligencia artificial en sectores claves como la salud, defensa y tecnología financiera.
La inteligencia artificial tiene un potencial enorme para transformar positivamente nuestras vidas y sociedades, pero es crucial abordar sus riesgos y desafíos. Los principales debates, además de cuestiones vinculadas a la seguridad de los estados y personas, pasan también por cuestiones relacionadas con la responsabilidad y la ética en su generación y uso, la necesidad de transparencia de los algoritmos y datos utilizados para entrenar a los modelos de inteligencia artificial generativa y el impacto de estas innovaciones y tecnologías en el empleo y la economía así como la generación de nuevas brechas de desigualdades.
Si bien no sabemos cómo será el mundo con la inteligencia artificial que habrá en 5 o 10 años, también es cierto que los ciudadanos deberíamos estar mejor informados y dar a conocer nuestras voces al respecto ya que en nuestro rol de usuarios personales o empresariales somos fundamentales para el éxito de la difusión y apropiación de cualquier tecnología. Por otra parte, es crucial que el desarrollo de la inteligencia artificial se haga de forma ética y responsable, asegurando que los beneficios superen los riesgos. Se requiere un equilibrio y seguramente también consensos básicos que resguarden a la humanidad de sus propias creaciones.