miércoles, 25 de febrero de 2026

EUROPA… LEY DE “IA” LIMITA SU USO EN CAMONES…? EXIGE SUPERVISIÓN HUMANA…? SERA OBLIGATORIA DESDE AGOSTO DE 2026….


la UE Europea considera a los camiones autónomos con IA "de alto riesgo"

A mediados del 2023, se sanciono una ley de IA para UE, que establece como se deberá aplicar al “IA”, según su riego.  Dentro de esta situación, existe un tratamiento especial para los automóviles, buses y camiones. Por lo que esta ley podría estar limitando el desarrollo de unidades autónomas que puedan operar en carreteras abiertas.

Ya que la ley hace referencia a que el usuario de la IA lo debe hacer con “extrema seguridad”, ya que podría afectar actividades sensible para el estado.

“La Ley de IA es el primer reglamento unificado del mundo para sistemas de IA, cuya aplicación está prevista para la Unión Europea a partir de agosto de 2026. Esta ley establece normas rigurosas y uniformes para el sector en los países europeos. El objetivo del Parlamento Europeo y del Consejo con esta legislación es crear mejores condiciones para el desarrollo de la IA, garantizando al mismo tiempo su seguridad, fiabilidad y transparencia.

El artículo 3 de la ley define un sistema de IA como software que utiliza aprendizaje automático, métodos lógicos o estadísticos para generar resultados, predicciones o decisiones que afectan al mundo. La ley prohíbe ciertos usos de estos sistemas (por ejemplo, la puntuación social y el raspado facial no dirigido), establece normas estrictas para la IA de alto riesgo y añade normas de transparencia para la IA que interactúa con personas o genera contenido. 

Por lo que si analizamos esta ley, vemos que la IA utilizada en la automatización de camiones es de “alto riesgo”.

la UE son los primeros países en poner límites y cuidados para el uso de IA

Según la Ley, los proveedores e implementadores de IA tienen nuevas responsabilidades, y el incumplimiento conlleva el riesgo de recibir multas significativas.

Las críticas de algunas partes interesadas a la Ley resaltan lagunas que debemos tener en cuenta. La Ley exige a las empresas evaluar gran parte de su propio nivel de riesgo, lo que puede implicar que algunos sistemas no se traten con el rigor que deberían. Muchas de las normas cotidianas sobre "cómo cumplir" aún se están convirtiendo en estándares comunes, lo que significa que algunos detalles aún están en desarrollo. Además, las normas de responsabilidad actuales son más claras en lo que respecta a lesiones físicas o daños a la propiedad que en lo que respecta a daños sociales como la discriminación o la desinformación. Además, partes de la ley se redactaron teniendo en cuenta la antigua IA predictiva, mientras que los nuevos modelos generativos y de propósito general plantean riesgos diferentes. La Ley no es perfecta, pero es un paso en la dirección correcta.

El Artículo 6 describe qué clasifica a los sistemas de IA como de "alto riesgo", en particular cuando realizan funciones críticas para la seguridad. Sin embargo, esta etiqueta puede malinterpretarse fácilmente: "alto riesgo" no significa "inseguro". Significa "crítico para la seguridad".

Por ejemplo, una IA que gestiona el frenado y la dirección de un camión cargado es crucial para la seguridad; una IA que transcribe notas de reuniones no lo es. La clasificación depende de la función: un sistema de IA que, en caso de fallo, podría causar daños a las personas se considera de alto riesgo. El cumplimiento de la Ley de IA depende de identificar correctamente qué funciones son cruciales para la seguridad y cuáles no. Esta clasificación se revisa continuamente a medida que los sistemas evolucionan.

 La clasificación no siempre cuenta con la autorización previa de un organismo regulador. En muchos sistemas, el proveedor realiza una evaluación de conformidad y documenta por qué es (o no es) de alto riesgo. Esta flexibilidad acelera la entrada al mercado, pero también crea una laguna en la autoevaluación si no se respalda con pruebas sólidas y un seguimiento posterior a la comercialización. 

Nuestro conductor virtual es un componente clave de seguridad, lo que significa que cualquier sistema de IA podría entrar en esta categoría de alto riesgo. Por lo tanto, debemos demostrar que nuestro conductor virtual se desarrolló priorizando la seguridad. Aquí es donde nuestro marco de análisis de seguridad se vuelve esencial.

Un caso de seguridad es un argumento estructurado y basado en evidencia que demuestra que una solución de transporte autónomo es aceptablemente segura para su propósito previsto y cumple con los requisitos regulatorios y éticos aplicables. Garantiza que la solución no solo está diseñada para ser segura en teoría, sino que también ha sido verificada y validada para operar de forma segura en condiciones reales. Al mantener casos de seguridad completos y actualizados continuamente, garantizamos el cumplimiento continuo de los requisitos de la Ley de IA de la UE en materia de gestión de riesgos, transparencia y supervisión del ciclo de vida.

Según el Artículo 14 , la Ley de IA exige la supervisión humana de los sistemas de alto riesgo, algo que ya está integrado en nuestras operaciones. Durante las primeras fases, los conductores de seguridad permanecen en la cabina hasta que sea seguro retirarlos. Los supervisores supervisan las operaciones desde centros de control mediante paneles de control en vivo. Reciben alertas en tiempo real y pueden activar una parada de emergencia en cualquier momento. Los registros e incidentes se auditan, y los operadores reciben capacitación continua. Incluso con un despliegue totalmente autónomo, los humanos permanecen al tanto.” Magnus Heidenvall responsable de legales de Volvo.

Aurora autónomo en operación en USA

Por lo que analizando lo que nos dice  Magnus Heidenvall, de Volvo,  vemos que los camiones con IA al ser considerados de “Alto Riesgo” deberán contar con un humano dentro de la cabina, cuando estos están operando en forma autónoma. Muy diferente ha los que ocurre en China o Estados Unidos, donde camiones de nivel 5 en automatización, pueden operar si conductor al mando.

Por lo que cada uno de los componentes que se operen dentro de “IA” en un camión, deben estar certificados d que operan con la máxima seguridad.

La Ley establece cuales son las actividades de riesgo aceptable y alto riesgo.  Donde vemos que la operación de camiones se encuentra en esta categoría.

Volvo FH autónomo

Que nos dice la Ley sobre la clasificación de riesgo:

Riesgo inaceptable

Los sistemas de IA de riesgo inaceptable que están prohibidos en la UE incluyen:

Manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños

Puntuación social: clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales

Sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial en espacios públicos

Existen algunas excepciones a esta calificación. Por ejemplo, los sistemas de identificación biométrica a distancia "a posteriori", en los que la identificación se produce tras un retraso significativo, se permitirán para perseguir delitos graves y sólo cuando haya previa aprobación judicial.

Alto riesgo

Los sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales se considerarán de alto riesgo y se dividirán en dos categorías.

Los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos. Esto incluye juguetes, aviación, automóviles, dispositivos médicos y ascensores.

 Los sistemas de IA pertenecientes a ocho ámbitos específicos que deberán registrarse en una base de datos de la UE:

Identificación biométrica y categorización de personas físicas

Gestión y explotación de infraestructuras críticas

Educación y formación profesional

Empleo, gestión de trabajadores y acceso al autoempleo

Acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas

Aplicación de la ley

Gestión de la migración, el asilo y el control de fronteras

Asistencia en la interpretación jurídica y aplicación de la ley.

Todos los sistemas de IA de alto riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de vida. Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA a autoridades nacionales específicas.

 

 

 

 

 

 

 

 

 

No hay comentarios:

Publicar un comentario