Dilemas legales sobre la Inteligencia Artificial

Artículo de opinión de Lex Inf IT Legal Advisory

Dilemas legales sobre la Inteligencia Artificial: los vehículos autónomos

Por Cynthia Solís Arredondo, Socia Directora de Lex Inf, IT Legal Advisory.
Artículo publicado originalmente en el diario El Economista el 19 de septiembre de 2019

California, 2018: un vehículo autónomo Tesla se accidentó presumiblemente por un fallo del piloto automático; su único tripulante falleció. ¿Quién es el responsable: el tripulante o el fabricante del automóvil? 

Definir el derecho aplicable a los robots o a las máquinas dotadas de Inteligencia Artificial, y sus responsabilidades puede considerar un camino complejo que es importante analizar en el ámbito legal, considerando condiciones de «responsabilidad objetiva» o «responsabilidad por riesgo creado».

Cuando una persona actúa de forma que produce resultados nocivos para otros, se genera una “responsabilidad subjetiva”. Existe un elemento subjetivo ligado a la intención. En tanto, cuando alguien asume la responsabilidad del uso de un instrumento peligroso, se genera una “responsabilidad objetiva”, es decir, asume una responsabilidad por riesgo creado. Bajo estas dos premisas debemos observar la naturaleza del objeto dotado de inteligencia artificial si dichos objetos suponen un peligro inminente. 

Desde la Revolución Industrial en el Siglo XIX, los autores franceses establecieron la responsabilidad de los patrones frente al obrero al hacerlo trabajar con nuevas máquinas que conllevaban nuevos riesgos. Así se crea la responsabilidad patronal inherente a riesgos de trabajo y enfermedades profesionales, reconocidos en México en el artículo 123 de nuestra Carta Magna, en la Ley Federal del Trabajo y en el Código Civil Federal. 

Teoría del Riesgo Creado

La responsabilidad objetiva, también llamada “Teoría del Riesgo Creado”, se justifica sobre la base de que toda persona física o moral que realice una actividad que pudiera ocasionar daños a terceros debe responder económicamente por estos. 

Si bien la tecnología con inteligencia artificial no supone un riesgo en sí mismo, esto depende de cada caso, toda vez que las empresas fabricantes deben cumplir con altos estándares internacionales de calidad y seguridad. Pero no están exentas de fallos ni pueden prever el mal uso de los consumidores, por lo que existe un riesgo compartido.

En el caso de Tesla en el 2018, la demanda en contra del fabricante fue por no hacer explícitos a sus consumidores los potenciales riesgos en el uso del piloto automático y por no contar con medidas de seguridad apropiadas. 

Continúa leyendo este artículo de opinión de Lex Inf IT Legal Advisory en El Economista.