 |
| la UE Europea considera a los camiones autónomos con IA "de alto riesgo" |
A mediados del 2023, se
sanciono una ley de IA para UE, que establece como se deberá aplicar al “IA”, según
su riego. Dentro de esta situación,
existe un tratamiento especial para los automóviles, buses y camiones. Por lo
que esta ley podría estar limitando el desarrollo de unidades autónomas que puedan
operar en carreteras abiertas.
Ya que la ley hace
referencia a que el usuario de la IA lo debe hacer con “extrema seguridad”, ya
que podría afectar actividades sensible para el estado.
“La Ley de IA es el
primer reglamento unificado del mundo para sistemas de IA, cuya aplicación está
prevista para la Unión Europea a partir de agosto de 2026. Esta ley establece
normas rigurosas y uniformes para el sector en los países europeos. El objetivo
del Parlamento Europeo y del Consejo con esta legislación es crear mejores
condiciones para el desarrollo de la IA, garantizando al mismo tiempo su
seguridad, fiabilidad y transparencia.
El artículo 3 de la ley
define un sistema de IA como software que utiliza aprendizaje automático,
métodos lógicos o estadísticos para generar resultados, predicciones o
decisiones que afectan al mundo. La ley prohíbe ciertos usos de estos sistemas (por
ejemplo, la puntuación social y el raspado facial no dirigido), establece
normas estrictas para la IA de alto riesgo y añade normas de transparencia para
la IA que interactúa con personas o genera contenido.
Por lo que si
analizamos esta ley, vemos que la IA utilizada en la automatización de camiones
es de “alto riesgo”.
 |
| la UE son los primeros países en poner límites y cuidados para el uso de IA |
Según la Ley, los
proveedores e implementadores de IA tienen nuevas responsabilidades, y el
incumplimiento conlleva el riesgo de recibir multas significativas.
Las críticas de algunas
partes interesadas a la Ley resaltan lagunas que debemos tener en cuenta. La
Ley exige a las empresas evaluar gran parte de su propio nivel de riesgo, lo
que puede implicar que algunos sistemas no se traten con el rigor que deberían.
Muchas de las normas cotidianas sobre "cómo cumplir" aún se están
convirtiendo en estándares comunes, lo que significa que algunos detalles aún
están en desarrollo. Además, las normas de responsabilidad actuales son más
claras en lo que respecta a lesiones físicas o daños a la propiedad que en lo
que respecta a daños sociales como la discriminación o la desinformación.
Además, partes de la ley se redactaron teniendo en cuenta la antigua IA
predictiva, mientras que los nuevos modelos generativos y de propósito general
plantean riesgos diferentes. La Ley no es perfecta, pero es un paso en la
dirección correcta.
El Artículo 6 describe
qué clasifica a los sistemas de IA como de "alto riesgo", en
particular cuando realizan funciones críticas para la seguridad. Sin embargo,
esta etiqueta puede malinterpretarse fácilmente: "alto riesgo" no
significa "inseguro". Significa "crítico para la
seguridad".
Por ejemplo, una IA que
gestiona el frenado y la dirección de un camión cargado es crucial para la
seguridad; una IA que transcribe notas de reuniones no lo es. La clasificación
depende de la función: un sistema de IA que, en caso de fallo, podría causar
daños a las personas se considera de alto riesgo. El cumplimiento de la Ley de
IA depende de identificar correctamente qué funciones son cruciales para la
seguridad y cuáles no. Esta clasificación se revisa continuamente a medida que
los sistemas evolucionan.
La clasificación no siempre cuenta con la
autorización previa de un organismo regulador. En muchos sistemas, el proveedor
realiza una evaluación de conformidad y documenta por qué es (o no es) de alto
riesgo. Esta flexibilidad acelera la entrada al mercado, pero también crea una
laguna en la autoevaluación si no se respalda con pruebas sólidas y un
seguimiento posterior a la comercialización.

Nuestro conductor virtual es un componente
clave de seguridad, lo que significa que cualquier sistema de IA podría entrar
en esta categoría de alto riesgo. Por lo tanto, debemos demostrar que nuestro
conductor virtual se desarrolló priorizando la seguridad. Aquí es donde nuestro
marco de análisis de seguridad se vuelve esencial.
Un caso de seguridad es
un argumento estructurado y basado en evidencia que demuestra que una solución
de transporte autónomo es aceptablemente segura para su propósito previsto y
cumple con los requisitos regulatorios y éticos aplicables. Garantiza que la
solución no solo está diseñada para ser segura en teoría, sino que también ha
sido verificada y validada para operar de forma segura en condiciones reales.
Al mantener casos de seguridad completos y actualizados continuamente,
garantizamos el cumplimiento continuo de los requisitos de la Ley de IA de la
UE en materia de gestión de riesgos, transparencia y supervisión del ciclo de
vida.
Según el Artículo 14 , la Ley de IA
exige la supervisión humana de los sistemas de alto riesgo, algo que ya está
integrado en nuestras operaciones. Durante las primeras fases, los conductores
de seguridad permanecen en la cabina hasta que sea seguro retirarlos. Los
supervisores supervisan las operaciones desde centros de control mediante
paneles de control en vivo. Reciben alertas en tiempo real y pueden activar una
parada de emergencia en cualquier momento. Los registros e incidentes se
auditan, y los operadores reciben capacitación continua. Incluso con un
despliegue totalmente autónomo, los humanos permanecen al tanto.” Magnus Heidenvall responsable de legales de Volvo.
 |
| Aurora autónomo en operación en USA |
Por lo que analizando lo que nos dice
Magnus Heidenvall, de Volvo, vemos que los camiones con IA al ser
considerados de “Alto Riesgo” deberán contar con un humano dentro de la cabina,
cuando estos están operando en forma autónoma. Muy diferente ha los que ocurre
en China o Estados Unidos, donde camiones de nivel 5 en automatización, pueden operar
si conductor al mando.
Por lo que cada uno de los componentes
que se operen dentro de “IA” en un camión, deben estar certificados d que operan
con la máxima seguridad.
La Ley establece cuales son las
actividades de riesgo aceptable y alto riesgo.
Donde vemos que la operación de camiones se encuentra en esta categoría.
 |
| Volvo FH autónomo |
Que nos dice la Ley sobre la clasificación
de riesgo:
Riesgo inaceptable
Los sistemas de IA de riesgo
inaceptable que están prohibidos en la UE incluyen:
Manipulación cognitiva del
comportamiento de personas o grupos vulnerables específicos: por ejemplo,
juguetes activados por voz que fomentan comportamientos peligrosos en los niños
Puntuación social: clasificación de
personas en función de su comportamiento, estatus socioeconómico o
características personales
Sistemas de identificación biométrica
en tiempo real y a distancia, como el reconocimiento facial en espacios
públicos
Existen algunas excepciones a esta
calificación. Por ejemplo, los sistemas de identificación biométrica a
distancia "a posteriori", en los que la identificación se produce
tras un retraso significativo, se permitirán para perseguir delitos graves y
sólo cuando haya previa aprobación judicial.
Alto riesgo
Los sistemas de IA que afecten negativamente
a la seguridad o a los derechos fundamentales se considerarán de alto riesgo y
se dividirán en dos categorías.
Los sistemas de IA que se utilicen en
productos sujetos a la legislación de la UE sobre seguridad de los productos.
Esto incluye juguetes, aviación, automóviles, dispositivos médicos y
ascensores.
Los sistemas de IA pertenecientes a ocho
ámbitos específicos que deberán registrarse en una base de datos de la UE:
Identificación biométrica y
categorización de personas físicas
Gestión y explotación de
infraestructuras críticas
Educación y formación profesional
Empleo, gestión de trabajadores y
acceso al autoempleo
Acceso y disfrute de servicios
privados esenciales y servicios y prestaciones públicas
Aplicación de la ley
Gestión de la migración, el asilo y
el control de fronteras
Asistencia en la interpretación
jurídica y aplicación de la ley.
Todos los sistemas de IA de alto
riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de
vida. Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones
sobre los sistemas de IA a autoridades nacionales específicas.