Inteligencia Artificial (IA): Concepto, tipología y cuestiones de responsabilidad

IA Inteligencia Artificial Aprendizaje Responsabilidad
Share on facebook
Share on twitter
Share on linkedin

Mucho tiempo ha pasado desde que en 1956 John MacCarthy consagrará el término de Inteligencia Artificial, un término que no es para nada nuevo, lo que sí que ha cambiado considerablemente es la capacidad de computación de que disponemos en la actualidad. Esto unido al Big Data y al uso masivo de los datos generados en tan solo dos años -alrededor de unos 2,5 quintillones de bytes al día- han propiciado que este área haya “resucitado” y con ello se estén generando nuevas tecnologías que nos asombran cada vez más.

via GIPHY


¿Que es la Inteligencia Artificial?

La inteligencia Artificial es un concepto abstracto y para el cual no hay una definición unitaria. Pero podríamos definirla como un área de la ciencia de la computación, que hace posible que una máquina aprenda a realizar tareas de forma similar a como la realizaría un ser humano o un animal.

Tareas tan simples para los humanos como leer, interpretar, analizar y sacar conclusiones propias de este post, resulta muy complejo para una máquina.

Con el entrenamiento y el aprendizaje de IAs se intentan solucionar problemas tan diversos como conducir, entender conversaciones, e intentar reconocer objetos, y todo ello se hace mediante el uso de algoritmos y matemáticas.  

via GIPHY

Existen tres tipos de aprendizaje

Aprendizaje Supervisado:

Se realiza un etiquetado previo de los datos que la IA usará en su entrenamiento y “test final”. Imaginemos que tenemos una IA, diseñada para diferenciar ropa, deberemos realizar un etiquetado previo de cada foto, indicando si es un pantalón, una camisa o unas botas.

Los algoritmos más usados en este caso son:

El vecino más próximo -KNN-, árbol de decisiones, clasificadores lineales de regresión, máquinas de vectores de soporte y redes neuronales.

Aprendizaje No supervisado:

No se realiza un etiquetado previo de los datos que la IA usará en su entrenamiento y “test final”. Es un modelo que no es susceptible de ser corregido -el modelo es la IA entrenada- a diferencia de aquella IA supervisada.

En este caso, los algoritmos más usados son:

Camis Clustering, Minshift Clustering, y DBSK

También existe aprendizaje mixto

¿Cómo es el proceso de aprendizaje supervisado de una Inteligencia Artificial (IA)?

Debemos dejar claro que para que una máquina “aprenda” debemos tener a nuestra disposición datos suficientes, ya que ese aprendizaje resulta poco óptimo si se realiza con un muestreo de datos muy bajo. Por ello se dice que en la actualidad los datos son el petróleo de este siglo, ya que cualquier empresa que quiera ahondar en este campo ha de tener en sus manos una gran cantidad de datos para poder entrenar a sus “modelos”.

Las 4 fases del proceso de aprendizaje supervisada:

  1. División de los datos: En esta fase se separan los datos que tenemos en dos clases, los usados para el entrenamiento -en torno al 75%- y aquellos que se usarán en la fase de test -el 25% restante-
  2. Entrenamiento: Para ello se elige el algoritmo más adecuado para según en qué deseamos entrenar a la Inteligencia Artificial. Se realizan diversos entrenamientos, y se ajustan los parámetros, hasta conseguir la precisión deseada -cabe decir que este proceso es lento ya que se basa en la prueba y error, hasta encontrar un balance adecuado. En esta fase es en realidad dónde la máquina aprende.
  3. Pruebas: Aquí es cuando se realiza lo mismo que en el entrenamiento pero con datos “nuevos” que hemos guardado anteriormente -ese 25% de la división de datos-. Si cuadra con nuestras expectativas en cuanto a la precisión, estaremos listos para su despliegue, por el contrario si con ese muestreo “nuevo” no cuadra con el entrenamiento, deberemos realizar un “reentrenamiento”.
  4. Despliegue: Tenemos lista nuestra IA, pudiendo pasar a su producción, dándole entrada en el mercado.

via GIPHY

¿Que puede ocurrir tras el Despliegue de una Inteligencia Artificial (IA)?

Y aquí es dónde entramos en materia, tras explicar ciertos conceptos de qué es y cómo funciona la IA se nos vienen a la cabeza algunas dudas respecto a su funcionamiento dentro del mercado.

En primer lugar, si esta IA contiene un error y falla podría ocasionar unos daños, pero…

¿Quien cubrirá esos daños ocasionados por la Inteligencia Artificial?

Las IAs y los robots como tal pueden llegar a gozar de autonomía e incluso de una muy bien dotada movilidad pero no disponen de conciencia o de inteligencia suficiente como para entender la trascendencia de sus actos.

Por ello podríamos pensar que resulta lógico acudir a un esquema similar al usado cuando se responde por un agente o sujeto no imputable, es decir, cuando se responde por un hijo que ha roto una ventana y  del mismo modo podemos traer a colación un esquema similar al usado para los daños ocasionados por animales -que aún no poseyendo la inteligencia humana, poseen la autonomía necesaria para causar un daño-

Una clasificación que tenga en cuenta la naturaleza de la IA y su encaje en cuanto a responsabilidad civil podría ser el siguiente:

Si entendemos a la IA como un ser vivo

En este caso cabría la aplicación del 1905 y 1906 del código civil, atendiendo a su posible autonomía que puede escapar del control de su “dueño”.

Art. 1905 CC: El poseedor de un animal, o el que se sirve de él, es responsable de los perjuicios que causare, aunque se le escape o extravíe. Sólo cesará esta responsabilidad en el caso de que el daño proviniera de fuerza mayor o de culpa del que lo hubiese sufrido.

Con este ejemplo pienso en el uso de un animal como instrumento, un asno usado para labrar el campo, que le dejamos al vecino para que le ayude, y el animal da una coz a nuestro vecino, deberemos responder por ello ya que el animal es de nuestra propiedad.

via GIPHY

via GIPHY

Y en sentido similar se inclina el artículo 1906 CC:

El propietario de una heredad de caza responderá del daño causado por ésta en las fincas vecinas, cuando no haya hecho lo necesario para impedir su multiplicación o cuando haya dificultado la acción de los dueños de dichas fincas para perseguirla.

Del mismo modo, entraría en juego el artículo 1903 CC, aplicándolo a programadores, fabricantes e incluso los propios usuarios, por el ejemplo utilizado un poco más arriba de los padres y los hijos, y el deber de los primeros para cubrir los daños de los segundos. Aquí cabe preguntarse si estamos ante tal y como ejemplifica el artículo 1903, una lista cerrada de figuras que pueden llegar a responder o si por el contrario cabría la analogía  para el caso que nos ocupa.


En caso de que la IA sea entendida como un objeto inanimado

Tenemos para ello los artículos 1907 CC y el 1909 CC, los cuales entienden que existe responsabilidad por aquella falta de las reparaciones necesarias y los defectos existentes en una construcción -en una casa por ejemplo-, lo que aplicando la analogía nos puede recordar que una IA tiene actualizaciones y si no se realizan podrían suponer una falta de reparación -el daño generado por la no implementación de dicha actualización será a priori imputable a su propietario u usuario-, y por otro lado si la IA tuviera algún defecto en su diseño o en cuanto a su programación, el artículo 1909 CC marca una línea de exigencia de responsabilidad contra las figuras del arquitecto o el constructor, figuras que podrían ser sustituidas por las del programador y el fabricante.

Si la IA es entendida como un producto defectuoso

Aquí el ejemplo que nos puede venir a la cabeza es el uso de nuestro aspirador Roomba, el cual tiene integrado una IA que resulta que en lugar de aspirar la casa y el polvo, aspira tan fuerte que succiona a nuestra mascota y nos levanta el parque de madera.

Es lógico pensar que entraría en juego el Texto para la defensa de los consumidores y usuarios, y obviamente se desplegaría la protección que la Ley concede ante los daños producidos por productos defectuosos. Pero … ¿y si nuestro Roomba explota y daña a un invitado que se encontraba en el salón?

La respuesta es clara, los daños no estarían cubiertos ya que según el concepto del Texto para la defensa de los consumidores solo entiende como “perjudicado” al consumidor, y sólo cubrirá los daños que se le hayan producido a este último.

“Se entenderá por producto defectuoso aquel que no ofrezca la seguridad que cabría legítimamente esperar” y “aquel producto que no ofrece la seguridad normalmente ofrecida por los demás ejemplares de sus serie”

via GIPHY

via GIPHY

Dadas estas primeras pinceladas extraídas del artículo 137 del Texto Refundido para la Defensa de consumidores y Usuarios, parece insuficiente el concepto de producto defectuoso para responder ante el problema del uso de estas IAs.

Ya que no se trataría de que la IA estuviese estropeada, sino que no ofrece la seguridad  previsible, así que podríamos decir que para que persista el carácter defectuoso ha de “resultar que el producto resulte más peligroso para el adquirente de lo que un hombre razonable pudiera esperar de él dadas sus características; y que el daño exceda lo razonable.”

Por otro lado y en atención a la responsabilidad de los productores que se deriva del artículo 140.1 letra e) el cual exonera a los productores cuando en el momento de la puesta en circulación del producto y debido al estado de conocimientos científicos no se hubiera podido  apreciar dicho defecto.

Si estamos ante una IA que aprende parece a priori un artículo que puede ser objeto de escudo para cualquier productor que pueda probar que su producto tal y como lo desplegó en el mercado no realizaba -o no había aprendido- esa función, hecho que aporta más incertidumbre y desamparo al consumidor y blinda al productor de este tipo de productos.

Por lo tanto dado el carácter impredecible de las IAs y los robots, los cuales pueden tener un mayor o menor grado de autonomía, una posibilidad de aprendizaje y una capacidad de reacción que podría exceder lo razonable, nos encontraríamos ante un régimen incompleto que si bien ayuda, no termina de solucionar el problema.

En conclusión, estamos ante un fenómeno que si bien a corto plazo tiene una solución como hemos visto bastante difusa, la respuesta dependerá en mayor medida del grado de autonomía de la IA, y de cómo entendamos su naturaleza, pero debemos advertir que tal y como se encuentra el estado de la ciencia en la actualidad contará “por ahora” con un humano detrás que deberá responder por los daños que cause su propiedad o su producto.

via GIPHY

No puedo dejar de recomendar y agradecer su labor a los siguientes blogs:

Suscribete a nuestra newsletter

Si quieres estar al día de las novedades del Derecho Tecnológico y quieres estar más cerca de nosotros… No te lo pienses más y
¡SUSCRÍBETE!

Deja una respuesta

Tu dirección de correo electrónico no será publicada.