Recién aprobada la Regulación sobre Inteligencia Artificial en Europa

La Unión Europea ha aprobado recientemente una Regulación sobre Inteligencia Artificial (IA) en Europa. Esta regulación busca garantizar la seguridad y los derechos fundamentales de las personas. Los elementos principales de esta regulación son los siguientes:

  1. Prohibición de sistemas de IA peligrosos: Se prohíbe el uso de sistemas de IA que se consideren peligrosos para la seguridad, la privacidad y los derechos fundamentales de las personas.
  2. Obligaciones para los sistemas de IA de alto riesgo: Los sistemas de IA considerados de alto riesgo, como los utilizados en la atención médica, el transporte y la energía, deben cumplir con requisitos específicos de transparencia, supervisión y control humano.
  3. Obligaciones para los sistemas de IA de riesgo limitado: Los sistemas de IA considerados de riesgo limitado, como los utilizados en la educación y el entretenimiento, también deben cumplir con requisitos específicos de transparencia y supervisión.
  4. Registro de sistemas de IA de alto riesgo: Los sistemas de IA de alto riesgo deben ser registrados y evaluados antes de su lanzamiento al mercado.
  5. Sanciones por incumplimiento: Las empresas que no cumplan con las regulaciones de IA pueden enfrentar sanciones financieras significativas.

La nueva regulación prohíbe el uso de sistemas de IA que se consideren peligrosos para la seguridad, la privacidad y los derechos fundamentales de las personas. Aunque la regulación no proporciona una lista exhaustiva de sistemas de IA peligrosos, algunos ejemplos podrían incluir:

  • Sistemas de vigilancia masiva: Los sistemas de IA utilizados para la vigilancia masiva pueden ser considerados peligrosos debido a su capacidad para recopilar y analizar grandes cantidades de datos personales.
  • Sistemas de IA discriminatorios: Los sistemas de IA que discriminan a ciertos grupos de personas, como los grupos étnicos o de género, pueden ser considerados peligrosos debido a su impacto en los derechos fundamentales de las personas.
  • Sistemas de IA que toman decisiones críticas: Los sistemas de IA que toman decisiones críticas, como los utilizados en la atención médica o el transporte, pueden ser considerados peligrosos si no se supervisan adecuadamente.

Respecto a las diferencias de esta regulación con respecto a los Estados Unidos o China:

La regulación de la Unión Europea (UE) se centra en garantizar la seguridad y los derechos fundamentales de las personas como veíamos.Por otro lado, China ha publicado recientemente nuevas normas sobre inteligencia artificial generativa (IA), convirtiéndose en uno de los primeros países del mundo en regular la tecnología que está detrás de la IA generativa 2. El enfoque de China se centra en la implementación de un sistema de licencias para contenido y servicios generativos de IA, y requiere que las empresas registren sus productos, realicen evaluaciones de seguridad y sigan los valores socialistas.

En los Estados Unidos, no existe una regulación federal de IA a nivel nacional. Sin embargo, algunos estados, como California, han promulgado leyes específicas sobre IA 1. Además, varias empresas de tecnología han creado sus propias políticas y principios éticos para guiar el desarrollo y uso de la IA.

Es importante tener en cuenta que la regulación de la IA varía según el país y la región, y que la evaluación de si un sistema de IA es peligroso dependerá de las circunstancias específicas.

Fuentes:

  1. Regulación sobre Inteligencia Artificial (IA) en Europa
  2. Artículo de CNN sobre las nuevas regulaciones de IA en China
  3. Artículo de Business Insider sobre la regulación de IA generativa en Europa, EE. UU. y China:
Pin It