Hoy entra en vigor la Ley Europea de Inteligencia Artificial, también conocida como AI Act, cuyo reglamento fue publicado el pasado 13 de junio.
Establece cuatro niveles de riesgo para garantizar una IA segura y en la que podamos confiar:
Riesgo inaceptable, que incluye cosas como los sistemas de puntuación social o el raspado (scraping) indiscriminado de la web. Su uso está prohibido.
Riesgo algo como sistemas de reclutamiento o dispositivos médicos, que se permite pero debe cumplir unos requisitos estrictos.
Riesgo limitado como sistemas que permitan hacerse pasar por otras personas como chatbots o deep fakes, que deberán informar a quienes los usen de que están interactuando con una IA.
Riesgo mínimo como la IA usada en algunos juegos o filtros de correo basura, que se puede utilizar.La nueva legislación busca
Abordar los riesgos creados específicamente por los usos de la IA.
Prohibir las prácticas de IA que planteen riesgos inaceptables.
Crear una lista de aplicaciones de alto riesgo.
Establecer requisitos claros para los sistemas de IA destinados a aplicaciones de alto riesgo.
Definir obligaciones específicas para los desarrolladores y proveedores de aplicaciones de IA de alto riesgo.
Exigir una evaluación de la conformidad con las normas de estos sistemas antes de ponerlos en servicio o de comercializarlos.
Establecer medidas coercitivas tras la comercialización de un determinado sistema de IA. En el caso de riesgo inaceptable son multas de hasta 35 millones de euros o el 7% de la facturación total anual mundial de la empresa. En el caso de infracciones de alto riesgo, hasta 15 millones. …