Hasta ahora la inteligencia artificial (IA) no tiene un código ético, por eso se busca clasificar a las distintas tecnologías para tener un mayor control. Un proyecto que viene desarrollándose primero en Europa regularía la utilización de maquinaria y robots, y prohibiría el reconocimiento facial, salvo excepciones como en la búsqueda de un niño perdido o para prevenir ataques terroristas.
“Con esta reglamentación se busca regular los usos de este tipo de tecnología para evitar abusos. Se aspira a regular los usos permitidos de los mecanismos de IA y se establecen prohibiciones para usos como los sistemas de vigilancia masiva y las tecnologías que valoran a las personas de forma predictiva”, señaló Juan Pablo Coletti, director de estrategia internacional de Dahua Technology, agregando que “el fin es clasificar los sistemas según su uso para que aquellos designados como de alto riesgo pasen a tener una mayor supervisión”.
En este sentido, la Unión Europea es la punta de lanza de este estudio, ya que el Consejo Europeo de Inteligencia Artificial es un organismo integrado por expertos en IA de todos los países miembros de la UE, que decidirán qué sistemas se consideran de alto riesgo y posibles cambios de regulación. Busca asegurar que se disponga de supervisión humana y que los sistemas no se hayan entrenado con datos sesgados.
¿Cómo saber si las aplicaciones que utilizamos en nuestro teléfono son de alto riesgo? Esta es la clasificación propuesta: sistemas IA prohibidos, sistemas IA de alto riesgo, sistemas IA de uso sujeto a condiciones o medio y sistemas IA de riesgo mínimo.
El objetivo es regular con el objetivo de proteger a los ciudadanos, “en el caso de las empresas de la industria, todos debemos estar certificados y habilitados para lidiar con este tipo de tecnología”, sostuvo Coletti.
Tu opinión enriquece este artículo: