Inteligencia Artificial de alto, medio y bajo riesgo: la UE busca regular y proteger a los ciudadanos

La Inteligencia Artificial ya es parte de nuestra vida cotidiana. Algoritmos, chabots, “machine learning” o “deep learning” de mayor o menor complejidad, todos tienen un factor en común: la necesidad de regulación en cuestiones de ética y privacidad.
Hasta ahora la Inteligencia Artificial (IA) no tiene un código ético, por eso se busca clasificar a las distintas tecnologías para tener un mayor control. El proyecto regularía la utilización de maquinaria y robots, y prohibiría el reconocimiento facial, salvo excepciones como en la búsqueda de un niño perdido o prevenir ataques terroristas.
“Con la reglamentación se busca controlar los usos de este tipo de tecnología para evitar abusos. Se aspira a regular los usos permitidos de los mecanismos de inteligencia artificial (IA), y se establecen prohibiciones para casos como los sistemas de vigilancia masiva y las tecnologías que valoran a las personas de forma predictiva. El fin es clasificar los sistemas según su uso para que aquellos designados como de alto riesgo pasen a tener una mayor supervisión” comenta Juan Pablo Coletti, director para Latinoamérica de la International Strategy Partners de Dahua Technology.
La Unión Europea (UE) es la punta de lanza de este estudio. El Consejo Europeo de Inteligencia Artificial es un organismo integrado por expertos en IA de todos los países miembros de la UE, que decidirán qué sistemas se consideran de alto riesgo y posibles cambios de regulación. Busca asegurar que se disponga de supervisión humana y que los sistemas no se hayan entrenado con datos sesgados.

Los sistemas en cuestión

Ese estudio determina una clasificación de riesgos. Los Sistemas IA Prohibidos, son evidentemente de alto riesgo, son aquellos que propicien la manipulación del comportamiento humano provocando perjuicios; o utilizan información personal para detectar las vulnerabilidades de los sujetos. Un ejemplo podría ser los deep fakes, videos donde se altera la imagen y voz –de autoridades públicas por ejemplo– para transmitir mensajes falsos.
Luego aparecen los Sistemas IA de Alto Riesgo, que –como explica Coletti– “comprenden una gran cantidad de actividades entre las que se encuentran las utilizadas en la administración y operación de infraestructura crítica. Por ejemplo, accesos biométricos con detección facial para plantas de energía o espacios restringidos. La seguridad en los procesos productivos y en la seguridad física, se basa en la redundancia (repiten aquellos datos o hardware de carácter crítico que se quiere asegurar ante los posibles fallos que puedan surgir por su uso continuado). Todos los sistemas pueden fallar. Por eso todas las soluciones deben contar con redundancia. En el caso de los accesos biométricos, realizan cross reference con Biometría Facial. Los perímetros de un predio industrial, cuentan con al menos dos líneas de tecnología redundante, como las cámaras térmicas y cámaras IP instaladas en línea”, explica Coletti.
En tercer lugar, los “sistemas IA de Uso Sujeto a Condiciones o Medio: son los que  conllevan obligaciones específicas de transparencia. Es el caso de los asistentes conversacionales chatbots que interactúan con personas en situaciones como plataformas conversacionales como un e-commerce, por ejemplo”, completa el director de International Strategy Partners de Dahua Technology.
Finalmente los sistemas IA de Riesgo Mínimo. La Comisión de la UE considera que la gran mayoría de los sistemas de IA entran en esta categoría. Permite el libre uso de aplicaciones de sistemas inteligentes en videojuegos con IA. “También los sistemas utilizados para filtro de spams o en sistemas automatizados de publicidad que no ponen ninguna obligación relevante entran en esta categoría” indica Coletti.
El objetivo es regular en pos de proteger a las personas y a los ciudadanos. “En el caso de las empresas de la industria, todos debemos estar certificados y habilitados para lidiar con este tipo de tecnología. Dahua Technology hace foco sobre la privacidad de las personas y el uso de los datos personales, además de contar con todas las certificaciones globales y locales de ciberseguridad y de utilización de datos, exige a sus empleados los estándares más altos de la industria en términos de certificación. En Dahua Technology realizamos rigurosos exámenes y cursos vinculados a estos puntos sensibles”, finaliza Coletti.