Conducción autónoma con IA: ¿más segura que un humano?

Modelos de inteligencia artificial son una tendencia, pero representan todavía un riesgo
Los agentes de inteligencia artificial (IA) son una tendencia en el mundo empresarial, especialmente en el sector tecnológico. Muchos de estos modelos son innovadores y han creado muchas expectativas, ya que pueden completar tareas casi sin intervención humana.
No obstante, todavía parece lejana la expresión “quitar las manos del volante”. Ello porque aún debe vigilarse que la IA se estrelle y genere problemas para la humanidad. Pese a los grandes avances y modelos y esquemas introducidos, sigue sin ser del todo confiable.
El sistema de asistencia de conducción de Tesla (FSD) por sus siglas en inglés, llamado también conducción autónoma total) necesita que el usuario confié en él para dejarse llevar y que el vehículo nos lleve desde un punto de origen al de destino sin intervención humana.
Los agentes de IA proponen una idea parecida, es decir, la de completar una tarea desde el inicio al final autónomamente, pero para ello es necesario confiar de que son capaces de realizarlo.
Los agentes de IA necesitan una enorme cantidad de datos y acceso a fuentes de información actualizadas para analizar estos y decidir. Se ha visto como los modelos de IA son eficaces al momento de resumir información concreta o concluir a partir de datos acotados y específicos; esto resulta útil al momento de decidir.
Los autos de Tesla reciben actualizaciones frecuentes de FSD para mejorar su comportamiento. Estas actualizaciones se efectúan gracias a la recopilación de datos de la compañía cuando se emplea su propio sistema. Esto en teoría permite mejorar su servicio. Se espera una situación similar con los agentes de IA, que mejorarán especialmente al inicio por las actualizaciones y aprenderán de sus errores al procesar las peticiones de los usuarios.
Este tipo de soluciones pueden resultar atractivas para las empresas, que podrían automatizar procesos que antes demandaban la participación humana total o parcialmente. Por ello, es que ese tipo de integración debe ser gradual y especialmente controlada, porque los modelos de IA no son totalmente confiables.
Tesla sabe que el FSD no es perfecto, pues desde sus inicios ha estado involucrado en diferentes accidentes, muchos de ellos con víctimas mortales. Muchos accidentes se han reportado en Estados Unidos, Europa y por supuesto México.
Se ha criticado a Tesla en varias ocasiones por publicidad engañosa y de ahorrar en aspectos de desarrollo como lo son radares y sensores para lograr mayores beneficios con lo menos.
Los agentes de IA pueden resultar peligrosos también de no emplearse correctamente y “sin tener las manos en el volante”. Las personas físicas y morales que recurren a ellos deben conocer sus potenciales riesgos.
Desde finales de 2024 los agentes de IA se han perfilado como una de las mayores tendencias del mercado, pero uno de sus mayores problemas es que los modelos de IA son imperfectos y pueden cometer errores, y estos han aumentado. Diferentes casos en Canadá y Estados Unidos demuestran ello, donde los consumidores han solicitado reparaciones por las fallas ocurridas.
La acumulación de errores se ha dado desde el inicio de los procesos, lo cual genera un efecto dominó y lleva a que estos se multipliquen, generando mayores afectaciones. En México, ya se han presentado casos en materia de protección al consumidor y también en la cancha penal, ya que las fallas han afectado considerablemente a diferentes personas. Si se suma esto a otros campos como salud o finanzas los resultados también pueden ser catastróficos.
Para prevenir (medianamente) estos problemas hay diferentes opciones. Una de ellas es la introducción de puntos de comprobación o verificación. Así, después de cada subtarea, un humano debería comprobar que todo se hizo correctamente.
También pueden aplicarse sistemas redundantes para que en el momento en que el agente de IA se desvíe de lo esperable, se compruebe de inmediato el proceso.
Aunque se está en una fase preliminar, y los agentes de IA recién están aprendiendo a “conducir solos”, todavía es necesario que los humanos tengan “las manos en el volante” y dejar estos modelos para tareas o labores relativamente sencillas o demasiados concretas con una casuística limitada para que los posibles errores o fallas se minimicen.