A finales de 2019, el coche de Kevin George Aziz Riad se salió a toda velocidad de una autopista de California, pasó un semáforo en rojo y chocó contra otro coche, matando a las dos personas que estaban dentro. El coche de Riad, un Tesla Model S, estaba en piloto automático.
A principios de este año, los fiscales del condado de Los Ángeles presentaron dos cargos de homicidio vehicular contra Riad, que ahora tiene 27 años, y el caso marca el primer enjuiciamiento por delito grave en los Estados Unidos de un accidente de tráfico fatal que involucró un sistema de conducción asistida. También es el primer enjuiciamiento penal de un accidente que involucra la función de piloto automático de Tesla, que se encuentra en más de 750 000 coches en los EE. UU. Mientras tanto, la familia de las víctimas del accidente está entablando demandas civiles contra Riad y Tesla.
Tesla ha tenido el cuidado de distinguir entre su función de piloto automático y un automóvil sin conductor, comparando su sistema de conducción asistida con la tecnología que usan los pilotos de aviones cuando las condiciones son claras.
Tesla Autopilot libera a los conductores de los aspectos más tediosos y potencialmente peligrosos de los viajes por carretera.
Estamos construyendo Autopilot para brindarle más confianza detrás del volante, aumentar su seguridad en la carretera y hacer que la conducción sea más placentera… El conductor sigue siendo responsable y, en última instancia, tiene el control del coche.
El fabricante de vehículos eléctricos claramente coloca la responsabilidad de la seguridad en el conductor, pero la investigación sugiere que los humanos son susceptibles al sesgo de automatización, una dependencia excesiva de las ayudas automatizadas y los sistemas de apoyo a la toma de decisiones. Ahora le toca a los tribunales decidir quién es culpable cuando el uso de esos sistemas resulta en errores fatales.
Actualmente, Riad está en libertad bajo fianza y se declara inocente de los cargos de homicidio involuntario. NYU News entrevistó a Mark Geistfeld, profesor Sheila Lubetsky Birnbaum de Litigio Civil en la Facultad de Derecho de la Universidad de Nueva York (NYU) sobre la importancia de estos cargos penales y lo que podrían significar para el futuro de la confianza del consumidor en las nuevas tecnologías.
P/ ¿Puede arrojar algo de luz sobre el precedente legal que sienta el procesamiento penal de Kevin George Aziz Riad? ¿Qué mensaje envía a los consumidores y fabricantes de tecnología similar?
R/ Primero, los cargos penales son sorprendentes, según lo que sabemos: los documentos de cargos penales, como de costumbre, no brindan detalles. Por lo general, si no estaba prestando atención, se saltó un semáforo en rojo y golpeó a alguien, por trágico que sea, no obtendrá un cargo penal por ese comportamiento en la gran mayoría de los casos. Realmente no se ven muchos procesos penales por accidentes de tráfico fuera de los casos de conducción en estado de ebriedad.
Si el conductor fuera declarado culpable de homicidio involuntario, este caso realmente podría ser el precedente más disruptivo, más novedoso, más innovador. Es un fuerte alejamiento del pasado, si de hecho el enjuiciamiento penal se basa simplemente en su confianza en el piloto automático cuando debería haber asumido el control. Si eso es lo que está pasando, es posible que vea muchos más enjuiciamientos penales avanzando de lo que vemos hoy.
La responsabilidad extracontractual, o cargos civiles, por el contrario, es muy común. Ahí es cuando el demandado pagaría los daños y perjuicios por las lesiones causadas. La mayoría de las demandas por responsabilidad extracontractual en los tribunales estatales de todo el país se deben a accidentes de tráfico en los que se alega que un conductor causó el accidente de manera negligente, lo que claramente ocurrió en este caso porque el conductor se saltó un semáforo en rojo.
Si este caso de alguna manera indica que la responsabilidad penal es más posible simplemente al confiar en la tecnología, eso podría convertirse en un cambio profundo en la naturaleza de las responsabilidades legales en el futuro.
P/ ¿Qué obligación tiene una empresa de tecnología avanzada como Tesla de informar a los conductores, ya sea directamente o mediante mensajes publicitarios y de marketing, que son responsables de todos los daños, independientemente de si el coche está en piloto automático?
R/ Claramente tienen la obligación de advertir a la persona sentada en el asiento del conductor que se haga cargo del vehículo, que no es capaz de hacer todo por sí solo. Mira esa advertencia en los vehículos Tesla, y casi todos los vehículos la tienen. Por ejemplo, cuando usas una función de mapa mientras conduces, muchos coches ofrecerán una advertencia:
Esto te distraerá, presta atención a la carretera.
Los fabricantes también tienen la obligación de tener en cuenta la sensación de complacencia que conlleva la tecnología de conducción al diseñar el coche. Tesla o cualquier otro fabricante no puede simplemente decir:
Oye, presta atención, esa es tu responsabilidad.
De hecho, tienen que intentar poner algo en el diseño para asegurarse de que los conductores estén atentos. Por lo tanto, varios fabricantes están adoptando diferentes enfoques para este problema: algunos coches se detendrán si tus manos no están en el volante, y otros tienen cámaras que comenzarán a emitir un pitido si no estás prestando atención.
Según la ley actual, si el conductor sufre un accidente y hubo una advertencia adecuada, y el diseño en sí es lo suficientemente adecuado para mantener al conductor atento, el fabricante del coche no será responsable. Pero aquí hay una posible excepción: hay una formulación de la regla de responsabilidad que se adopta bastante en todo el país, incluso en California, donde se llevará a cabo este caso. Según esta regla, la consulta se basa en lo que los consumidores esperan que haga el fabricante. Y las expectativas del consumidor pueden verse fuertemente influenciadas por el marketing, la publicidad, etc.
Por ejemplo, si Tesla anunciara que el piloto automático nunca sufre un accidente, y luego un consumidor sufre un accidente, Tesla sería responsable de haber frustrado esas expectativas.
P/ En este caso, se acusó al conductor basándose en la idea de que confiaba demasiado en el piloto automático de su coche. ¿Qué dice esto sobre nuestras suposiciones básicas sobre si los humanos o la tecnología son más confiables?
R/ Hay una distinción importante entre el exceso de confianza y la complacencia. Creo que la complacencia es solo una reacción humana natural a la falta de estímulo, en este caso, la falta de responsabilidad para ejecutar todas las tareas de conducción. Puede aburrirse y caer en una sensación de complacencia, pero no creo que ese comportamiento sea demasiado dependiente de la tecnología.
La idea de confianza excesiva aquí entra en juego con la naturaleza potencial de la irregularidad. Tal vez el conductor en este caso se defienda diciendo que razonablemente pensó que el coche tenía todo bajo control, que era completamente capaz de resolver este problema y que no tenía que preocuparse por reaccionar si las cosas resultaban de otra manera. Ahora, en ese punto, estaría depositando su fe en la tecnología en lugar de en su propia capacidad para detener el vehículo y solucionar el problema de manera segura. Si existe una fe ciega en la tecnología en lugar de asumir el control cuando podría haberlo hecho, y si usted es responsable como consecuencia, eso se convierte en un tipo de mensaje muy profundo e interesante que está enviando la ley.
P/ ¿Cree que este cambio en la responsabilidad perjudicará el negocio de empresas como Tesla?
R/ El gran problema al que se enfrentan los fabricantes de vehículos autónomos como Tesla en este momento es ganarse la confianza de los consumidores cuando introducen una nueva tecnología en el mercado. La necesidad de confianza en las primeras etapas de estos productos es enormemente importante. Y todos los fabricantes están preocupados por ese problema porque saben que si hay algunas fallas terribles, los consumidores perderán la confianza en el producto. En última instancia, la tecnología terminará tomando el control; es sólo una cuestión de si es más temprano que tarde. Y el tiempo es dinero en este contexto, por lo que si solo obtiene una adopción más lenta porque los consumidores están muy preocupados por el rendimiento de seguridad de la tecnología, eso perjudicará a la industria. Obviamente quieren evitar ese resultado. Esta tecnología aún se hará cargo; es solo una cuestión de cuánto tiempo llevará que eso suceda. Hay tantas ventajas en el uso de vehículos autónomos, incluso en la dimensión de seguridad.
P/ De su capacidad de piloto automático y conducción autónoma total, Tesla dice: «Si bien estas funciones están diseñadas para ser más capaces con el tiempo, las funciones habilitadas actualmente no hacen que el vehículo sea autónomo». ¿Qué problemas de responsabilidad prevé cuando estos vehículos se vuelvan autónomos?
R/ Es una pregunta complicada, y ese es el tema que interesa a todo el mundo. Una vez que estos vehículos se vuelvan completamente autónomos, solo queda el coche. El humano en el coche ni siquiera es un elemento en la situación. Entonces, la gran pregunta es: una vez que esos vehículos chocan, ¿quién paga? Uno pensaría que el fabricante sería responsable, y eso aumentará el costo de estos vehículos y los hará mucho más difíciles de distribuir. Hay mucha gente que piensa que, en caso de accidente, el fabricante debería ser responsable en todo momento. Soy muy escéptico acerca de esa conclusión, porque creo que es una llamada mucho más cercana de lo que la mayoría de la gente cree.
En última instancia, estos problemas dependen de cómo los reguladores federales como la Administración Nacional de Seguridad del Tráfico en las Carreteras regulan el vehículo. Tendrán que establecer un estándar de rendimiento de seguridad que el fabricante debe cumplir antes de que pueda distribuir comercialmente el producto como totalmente autónomo. La pregunta es dónde establecen los reguladores ese estándar, y no creo que sea fácil hacerlo bien. En ese momento habrá un buen debate: ¿Lo hicieron bien o no? Aún nos faltan algunos años. Creo que todos tendremos estas conversaciones en 2025.