Archivo del Autor: Carlos J. Medina

Recién aprobada la Regulación sobre Inteligencia Artificial en Europa

La Unión Europea ha aprobado recientemente una Regulación sobre Inteligencia Artificial (IA) en Europa. Esta regulación busca garantizar la seguridad y los derechos fundamentales de las personas. Los elementos principales de esta regulación son los siguientes:

  1. Prohibición de sistemas de IA peligrosos: Se prohíbe el uso de sistemas de IA que se consideren peligrosos para la seguridad, la privacidad y los derechos fundamentales de las personas.
  2. Obligaciones para los sistemas de IA de alto riesgo: Los sistemas de IA considerados de alto riesgo, como los utilizados en la atención médica, el transporte y la energía, deben cumplir con requisitos específicos de transparencia, supervisión y control humano.
  3. Obligaciones para los sistemas de IA de riesgo limitado: Los sistemas de IA considerados de riesgo limitado, como los utilizados en la educación y el entretenimiento, también deben cumplir con requisitos específicos de transparencia y supervisión.
  4. Registro de sistemas de IA de alto riesgo: Los sistemas de IA de alto riesgo deben ser registrados y evaluados antes de su lanzamiento al mercado.
  5. Sanciones por incumplimiento: Las empresas que no cumplan con las regulaciones de IA pueden enfrentar sanciones financieras significativas.

La nueva regulación prohíbe el uso de sistemas de IA que se consideren peligrosos para la seguridad, la privacidad y los derechos fundamentales de las personas. Aunque la regulación no proporciona una lista exhaustiva de sistemas de IA peligrosos, algunos ejemplos podrían incluir:

  • Sistemas de vigilancia masiva: Los sistemas de IA utilizados para la vigilancia masiva pueden ser considerados peligrosos debido a su capacidad para recopilar y analizar grandes cantidades de datos personales.
  • Sistemas de IA discriminatorios: Los sistemas de IA que discriminan a ciertos grupos de personas, como los grupos étnicos o de género, pueden ser considerados peligrosos debido a su impacto en los derechos fundamentales de las personas.
  • Sistemas de IA que toman decisiones críticas: Los sistemas de IA que toman decisiones críticas, como los utilizados en la atención médica o el transporte, pueden ser considerados peligrosos si no se supervisan adecuadamente.

Respecto a las diferencias de esta regulación con respecto a los Estados Unidos o China:

La regulación de la Unión Europea (UE) se centra en garantizar la seguridad y los derechos fundamentales de las personas como veíamos.Por otro lado, China ha publicado recientemente nuevas normas sobre inteligencia artificial generativa (IA), convirtiéndose en uno de los primeros países del mundo en regular la tecnología que está detrás de la IA generativa 2. El enfoque de China se centra en la implementación de un sistema de licencias para contenido y servicios generativos de IA, y requiere que las empresas registren sus productos, realicen evaluaciones de seguridad y sigan los valores socialistas.

En los Estados Unidos, no existe una regulación federal de IA a nivel nacional. Sin embargo, algunos estados, como California, han promulgado leyes específicas sobre IA 1. Además, varias empresas de tecnología han creado sus propias políticas y principios éticos para guiar el desarrollo y uso de la IA.

Es importante tener en cuenta que la regulación de la IA varía según el país y la región, y que la evaluación de si un sistema de IA es peligroso dependerá de las circunstancias específicas.

Fuentes:

  1. Regulación sobre Inteligencia Artificial (IA) en Europa
  2. Artículo de CNN sobre las nuevas regulaciones de IA en China
  3. Artículo de Business Insider sobre la regulación de IA generativa en Europa, EE. UU. y China:

Recién aprobada la Regulación sobre Inteligencia Artificial en Europa

La Unión Europea ha aprobado recientemente una Regulación sobre Inteligencia Artificial (IA) en Europa. Esta regulación busca garantizar la seguridad y los derechos fundamentales de las personas. Los elementos principales de esta regulación son los siguientes:

  1. Prohibición de sistemas de IA peligrosos: Se prohíbe el uso de sistemas de IA que se consideren peligrosos para la seguridad, la privacidad y los derechos fundamentales de las personas.
  2. Obligaciones para los sistemas de IA de alto riesgo: Los sistemas de IA considerados de alto riesgo, como los utilizados en la atención médica, el transporte y la energía, deben cumplir con requisitos específicos de transparencia, supervisión y control humano.
  3. Obligaciones para los sistemas de IA de riesgo limitado: Los sistemas de IA considerados de riesgo limitado, como los utilizados en la educación y el entretenimiento, también deben cumplir con requisitos específicos de transparencia y supervisión.
  4. Registro de sistemas de IA de alto riesgo: Los sistemas de IA de alto riesgo deben ser registrados y evaluados antes de su lanzamiento al mercado.
  5. Sanciones por incumplimiento: Las empresas que no cumplan con las regulaciones de IA pueden enfrentar sanciones financieras significativas.

La nueva regulación prohíbe el uso de sistemas de IA que se consideren peligrosos para la seguridad, la privacidad y los derechos fundamentales de las personas. Aunque la regulación no proporciona una lista exhaustiva de sistemas de IA peligrosos, algunos ejemplos podrían incluir:

  • Sistemas de vigilancia masiva: Los sistemas de IA utilizados para la vigilancia masiva pueden ser considerados peligrosos debido a su capacidad para recopilar y analizar grandes cantidades de datos personales.
  • Sistemas de IA discriminatorios: Los sistemas de IA que discriminan a ciertos grupos de personas, como los grupos étnicos o de género, pueden ser considerados peligrosos debido a su impacto en los derechos fundamentales de las personas.
  • Sistemas de IA que toman decisiones críticas: Los sistemas de IA que toman decisiones críticas, como los utilizados en la atención médica o el transporte, pueden ser considerados peligrosos si no se supervisan adecuadamente.

Respecto a las diferencias de esta regulación con respecto a los Estados Unidos o China:

La regulación de la Unión Europea (UE) se centra en garantizar la seguridad y los derechos fundamentales de las personas como veíamos.Por otro lado, China ha publicado recientemente nuevas normas sobre inteligencia artificial generativa (IA), convirtiéndose en uno de los primeros países del mundo en regular la tecnología que está detrás de la IA generativa 2. El enfoque de China se centra en la implementación de un sistema de licencias para contenido y servicios generativos de IA, y requiere que las empresas registren sus productos, realicen evaluaciones de seguridad y sigan los valores socialistas.

En los Estados Unidos, no existe una regulación federal de IA a nivel nacional. Sin embargo, algunos estados, como California, han promulgado leyes específicas sobre IA 1. Además, varias empresas de tecnología han creado sus propias políticas y principios éticos para guiar el desarrollo y uso de la IA.

Es importante tener en cuenta que la regulación de la IA varía según el país y la región, y que la evaluación de si un sistema de IA es peligroso dependerá de las circunstancias específicas.

Fuentes:

  1. Regulación sobre Inteligencia Artificial (IA) en Europa
  2. Artículo de CNN sobre las nuevas regulaciones de IA en China
  3. Artículo de Business Insider sobre la regulación de IA generativa en Europa, EE. UU. y China:

Informe: Impacto de la tecnología a los adolescentes |UNICEF 2022

¿Cómo afecta la tecnología a los adolescentes? Esta es una pregunta que muchos padres, educadores y profesionales se hacen ante el creciente uso de internet, las redes sociales y los dispositivos electrónicos por parte de los jóvenes. Para responder a esta cuestión, UNICEF España ha realizado el estudio más amplio hasta la fecha en nuestro país y en Europa sobre este tema, con la participación de más de 50.000 adolescentes de entre 11 y 18 años de 265 centros educativos.

El informe «Impacto de la tecnología en la adolescencia«: relaciones, riesgos y oportunidades» ofrece una fotografía muy precisa sobre cómo usan la tecnología los chicos y chicas de nuestro entorno y, sobre todo, cómo se relacionan a través de las pantallas. El estudio aborda aspectos como el tiempo dedicado a las actividades online, el tipo de contenidos que consumen o generan, las formas de comunicación que emplean, las ventajas e inconvenientes que perciben, los riesgos a los que se enfrentan o las medidas que toman para protegerse.

Portada informe «Impacto de la tecnología en la adolescencia«.

Los resultados del informe revelan una realidad compleja y diversa, en la que conviven aspectos positivos y negativos del uso de la tecnología por parte de los adolescentes. Por un lado, se constata que la tecnología les ofrece múltiples beneficios para su desarrollo personal, social y educativo: les permite acceder a información variada y actualizada, expresar su creatividad e identidad, mantener el contacto con sus amigos y familiares, ampliar su red social o apoyar causas sociales. Por otro lado, se evidencian también algunos riesgos asociados al uso problemático o excesivo de la tecnología: interferencia con otras actividades importantes como el estudio o el deporte, exposición a contenidos inapropiados o falsos, acoso o ciberbullying, sexting o envío de imágenes íntimas sin consentimiento, adicción o dependencia emocional .

Según el informe de UNICEF España, uno de cada tres adolescentes estaría haciendo un uso problemático de estas tecnologías; es decir, que pasa un número de horas muy elevado en internet y las redes sociales, y que eso interfiere en su día a día: educación,
relación con su familia y amigos, desarrollo personal en otros ámbitos…
Además, el estudio muestra que hay diferencias significativas según el género, la edad
y el nivel socioeconómico de los adolescentes, lo que implica la necesidad de adaptar las estrategias educativas y preventivas a cada grupo.

Ante esta situación, UNICEF España propone una serie de recomendaciones dirigidas a los diferentes agentes implicados: familias, educadores, administraciones públicas, empresas tecnológicas y medios de comunicación. Entre ellas, destacan:

  • Promover un uso saludable e inclusivo de las tecnologías entre los adolescentes,
    basado en el respeto, la responsabilidad y la participación activa.
  • Fomentar el diálogo y la confianza entre padres e hijos sobre sus experiencias online, así como establecer normas y límites consensuados.
  • Incorporar la educación digital como una competencia transversal en el currículo escolar, desde edades tempranas.
  • Garantizar el acceso equitativo a las tecnologías digitales para todos los adolescentes, independientemente de su situación económica o geográfica.
  • Proteger los derechos y la privacidad de los adolescentes en internet, evitando su exposición a contenidos nocivos.

Investigación: Andrade, B., Guadix, I., Rial, A. y Suárez, F. (2021). Impacto de la tecnología en la adolescencia. Relaciones, riesgos y oportunidades. Madrid: UNICEF España.

Acuerdos sobre la Competencia Digital Docente en España

En el ámbito de la competencia digital docente, en los últimos meses ha habido dos grandes acuerdos entre todas las Administraciones Educativas en España:

Tweets de la semana 2020-01-12

Tweets de la semana 2020-01-05

Tweets de la semana 2019-12-29