Los recientes accidentes de tráfico de los vehículos autónomos de Tesla han reabierto el debate sobre los dilemas que proponen estas nuevas tecnologías.
“Además de acelerar y guiar el auto a un destino predeterminado por el conductor, estos dispositivos tienen una tarea nada fácil: reconocer las señales de paso de peatones (y la presencia de éstos), detener completamente el auto antes de que se pueda llegar a producir un accidente y maniobrar a través de espacios reducidos, como calles donde hay estacionamientos desde los dos lados”, aseveraron los especialistas de CESVI
Los mencionados siniestros revelan una realidad incontestable: la tecnología aún está cruda y hacen falta varios años para perfeccionarla. Al igual que el sentido de la vista de un ser humano, al volante puede ser deslumbrado por conducir con el sol en contraluz, los sensores del mencionado vehículo se vieron ‘confundidos´ por la superficie blanca de un panel lateral de un camión que desafortunadamente pasaba por ahí, hecho que evitó que no se aplicaran los frenos.
Más allá del asunto tecnológico, de la sensibilidad de los instrumentos y de la rapidez de respuesta de los microchips en la programación de los algoritmos, existen dilemas aun más delicados: el legal y el ético.
Si bien el apartado legal ya esta en estudio por los órganos legislativos del Primer Mundo, por el momento se sigue discutiendo en Europa si, a pesar de lo avanzada que esté la conducción autónoma, el conductor tiene permitido retirar las manos del volante.
Pero en lo que sí hay consenso es en que quien vaya a bordo (o al mando a distancia) es el responsable de lo que suceda, vaya o no activado el sistema autónomo. Es decir, en ningún caso se hace solidaria en la responsabilidad al fabricante del vehículo ni a la autopartista proveedora de la tecnología.
Otro punto por definir es la programación del algoritmo que decide un delicado y sensible asunto. Los programadores de estas instrucciones, por medio de las cuales actuan los sistemas de conducción autónoma, deben tomar algunas decisiones que inciden directamente con situaciones de conflicto moral. Ejemplo: si inesperadamente se atraviesa un niño, una señora embarazada y una anciana, y si no se tiene ni el tiempo ni el espacio para frenar o eludirlos, ¿A quien de ellos debe priorizar el programa autónomo?
Todo un dilema porque es una decisión de la sala de programación de los programadores para que los computadores actúen.
Las automotrices alemanas han anunciado sus lanzamientos para los años 2020 y 2021, por lo que para esas fechas ya el margen de error -siempre lo hay-, deberá ser mínimo para que la conducción autónoma no tenga fantasmas en la espalda.