La ética en los tiempos de los datos masivos

la etica en los tiempos del big data
Share on facebook
Share on twitter
Share on linkedin

Ángel Luis Rubio García

Profesor Titular de Lenguajes y Sistemas Informáticos de la Universidad de La Rioja

Esta entrada está inspirada en la charla que dió Ángel Luis en la Universidad de La Rioja, cuyo vídeo podéis ver aquí:

Ética y Big Data

Esta entrada del blog va a ser ligeramente diferente de las publicadas hasta ahora. Y la razón es doble. Por una parte, quien escribe estas líneas no es un jurista, sino un profesor universitario del área de Lenguajes y Sistemas Informáticos. Pido disculpas de antemano si alguna opinión de las que voy a presentar pone de manifiesto mi notable desconocimiento de las ciencias jurídicas. Por otra parte, el tema que trataré (ya desvelado en el título) se aparta ligeramente de los temas más estrictamente legales que se suelen abordar en el blog, aunque no cabe duda de que los aspectos éticos y los legislativos están (han de estar) fuertemente relacionados.

GENERAMOS MUCHOS DATOS

La primera reflexión que conviene poner de manifiesto es en cierto modo una obviedad: la Humanidad genera muchos datos. Pero no está de más cuantificar esa afirmación, para entender un poco mejor de qué estamos hablando. Un informe de la consultora IDC [1] estima que en el año 2018 la datosfera global tenía un tamaño de 33 zettabytes (1 zettabyte = 1 billón de gigabytes), pero que en el 2025 ese tamaño será ya de 125 zettabytes. Si ese volumen de información estuviera guardado en soportes tangibles y más fácilmente comprensibles como pueden ser los discos DVD, la torre de discos que habría que construir equivaldría a 23 veces la distancia que separa la Tierra de la Luna.

El almacenamiento físico, pero sobre todo, el consumo energético que supone la gestión de tal cantidad de datos, es ya un desafío en sí mismo, que incluso comienza a preocupar a las grandes compañías [2]. El del consumo energético es sin duda un desafío de carácter ético, pues está relacionado con la sostenibilidad y viabilidad de nuestro planeta. En este sentido, varios de los Objetivos de Desarrollo Sostenible impulsados por las Naciones Unidas [3] están relacionados con la necesidad de establecer un sistema de consumo responsable, con el que la disponibilidad de energía y el uso de datos y tecnología están fuertemente interrelacionados.

DATOS = INFORMACIÓN = PODER

La existencia de ingentes cantidades de datos tiene como consecuencia la eventual obtención de gran cantidad de información. Y como es bien conocido, “la información es poder”. Son muy variados los contextos en las que la explotación de grandes volúmenes de información mediante técnicas de inteligencia artificial aplicada (tales como aprendizaje automático, uso de redes neuronales, etc.), han permitido el desarrollo de aplicaciones cuya utilización ha tenido importantes implicaciones éticas. Las autoras de los muy recomendables libros «Armas de Destrucción Matemática» [4] y «Artificial Unintelligence» [5] presentan multitud de ejemplos del uso de este tipo de aplicaciones y sus efectos en la ciudadanía. Así, se han utilizado aplicaciones de este tipo tanto para la evaluación del profesorado a través de los resultados obtenidos por los estudiantes (con consecuencias injustas para los profesores de zonas desfavorecidas o con ratios elevadas de estudiantes con dificultades de aprendizaje), como para determinar los horarios laborales óptimos (desde un punto de la empresa, lo que ha dado lugar al fenómeno del clopening [6] y a importantes repercusiones para la conciliación laboral).

Pero sin duda uno de los casos más relevantes desde un punto de vista jurídico lo supone la utilización de software para predecir la reincidencia delictiva. Como en el resto de los casos, la hipótesis de partida es bienintencionada, ya que el uso de software potencialmente podría simplificar la toma de decisiones por parte de los magistrados, al menos en los casos más sencillos, aligerando así la elevadísima carga de trabajo de los juzgados y permitiendo acelerar en cierto modo el endémico retraso de los procesos judiciales. Ese es el lado bueno de las cosas. El lado malo se pone de manifiesto cuando, tal y como la organización Propublica denunció en el año 2016 [7], se constata que el software que era utilizado para evaluar la probabilidad de reincidencia delictiva en algunos estados de EE.UU. tenía un fuerte sesgo hacia los ciudadanos negros. De modo similar, están reportados casos en los que algunas aplicaciones contienen sesgos de carácter sexista, siendo uno de los más famosos el del sistema que, entrenado para tratar de detectar qué características podían determinar qué era un buen selfie, obtenía que en un alto porcentaje lo eran los autorretratos que contenían mujeres blancas y jóvenes [8]. Recientemente, y haciéndose eco de casos como los que comentamos, un diario nacional se hacía una pregunta clave en un contexto ético: “¿Quién vigila que los algoritmos no sean racistas o sexistas?” [9]. Sería muy optimista suponer que ni en un artículo periodístico, ni en estas líneas, seamos capaces de dar una respuesta inequívoca a una pregunta tan compleja. A pesar de ello, en la última sección intentaremos arrojar algo de luz sobre el asunto.

Pero antes conviene explorar otras situaciones en las que el uso de programas y algoritmos sofisticados están a punto de cruzar (o directamente cruzan) la frontera de un comportamiento ético, como mínimo, cuestionable. Entre estos ejemplos podemos presentar el de la red generativa antagónica (GAN por sus siglas en inglés) que crea fotografías de personas que no existen [10]. O el de el software que permite que un presentador de televisión nativo inglés “parezca hablar” en varios idiomas, consiguiendo, por medios digitales, que sus labios se “muevan” de manera perfectamente síncrona con la dicción en tales idiomas [11]. Yendo un paso más allá, las técnicas conocidas como deep fake han permitido colocar, de manera totalmente creíble, la cara de actrices famosas sobre la de actrices porno en vídeos de este género cinematográfico [12]. En una suerte de duelo entre el ying y el yang, han aparecido plataformas tales como Truepic, Serelay o CameraV, que, utilizando técnicas similares a las que sirven para crear las imágenes y vídeos falaces, permiten verificar si un medio digital es genuino o está manipulado.

Si estos casos de reemplazo ya parecen suficientemente preocupantes, la situación puede ser aún más grave si las subrogadas son personas de alta relevancia pública, como puede ser un presidente de los Estados Unidos [13]. Esto nos coloca en un ámbito que plantea grandes interrogantes, como son los de comprender hasta qué punto es posible utilizar datos masivos para influir en la toma de decisiones políticas o para alterar el resultado de consultas electorales. Especialmente notable, por sus repercusiones, es el bien conocido caso de Cambridge Analytica [14]. El tema ha provocado interesantes reflexiones y debates en los medios (véanse por ejemplo [15] y [16]).

¿PODEMOS HACER ALGO?

Como en tantas otras situaciones que se presentan a lo largo de nuestra vida, la postura aparentemente más cómoda ante la panorámica que hemos presentado es la que decir que “no se puede hacer nada”, y esperar que otros tomen las decisiones por nosotros. O aun peor, pensar que son las máquinas las que podrán tomar esas decisiones (lo que algunos autores denominan encubrimiento tecnológico del yo moral).Pero nos enfrentamos a un escenario de tal importancia, que parece sumamente irresponsable adoptar una postura tal. Antes al contrario, en mi opinión es necesario tomar medidas en tres ámbitos diferenciados: en el del propio uso, en el de la regulación, y en el de la educación.

Es fundamental que los usuarios adoptemos una actitud activa ante el uso de los que, sin duda, son nuestros datos. Debemos ser conscientes de que la datosfera global es una construcción social, algo que estamos construyendo todos cada vez que damos permisos a una aplicación o aceptamos condiciones de uso de datos personales. Ya se ha acuñado en este ámbito el término prosumer, combinación de producer y consumer, puesto que ya no solo somos consumidores de información, sino también productores de datos. Es importante que términos como identidad, privacidad, propiedad, confianza o reputación sean bien entendidos en el contexto de nuestra vida digital. Y que se entiendan bien sus implicaciones en un contexto social. En este sentido, merece una importante reflexión la frase de Cathy O’Neil en [4]: «la privacidad será un lujo que solo los ricos se podrán permitir». Por otra parte, resulta muy recomendable formarse con fuentes fiables de información. Como ejemplos de estas fuentes, podemos citar los muy asequibles tutoriales sobre el concepto de huella digital publicados por The Internet Society [17] o el excelente libro Ética para máquinas de José Ignacio Latorre [18].

Si bien las decisiones de los usuarios se pueden (y seguramente se deben) tomar en el muy corto (casi instantáneo plazo), también está en nuestras manos promover otro tipo de medidas que se desarrollen como poco a medio plazo. Y es que debemos requerir a nuestros gobernantes que desarrollen legislación a la altura de las circunstancias. Hay que descartar la excusa de que “la tecnología avanza demasiado rápido”, puesto que bajo esa premisa cualquier novedad tecnológica estaría permitida de facto, y no habría margen para la reflexión y evaluación de su carácter positivo o negativo para el desarrollo social. Es significativo en este sentido que la Constitución Española (¡en 1978!), estableciera, en su Artículo 18.4 que “La ley limitará el uso de la informática para garantizar el honor y la intimidad personal y familiar de los ciudadanos y el pleno ejercicio de sus derechos”. Resulta imprescindible un desarrollo actualizado de este artículo, puesto que la actual Ley Orgánica de Protección de Datos, siendo necesaria, parece claramente insuficiente. Mientras se debate y se elabora la legislación requerida, existen una serie de códigos, de recomendaciones, que, si bien están dirigidos sobre todo a profesionales, establecen marcos de referencia de confianza. Entre estos textos, resulta destacable el recientemente aprobado, por parte del Consejo General de Colegios Profesionales de Ingeniería Informática, Código Ético y Deontológico de la Ingeniería Informática [19]. Incluso se ha planteado el debate sobre la necesidad, en el ámbito de la informática, de un equivalente al juramento hipocrático [20].

Hablar de los profesionales del ámbito de la informática nos lleva necesariamente a hablar de educación. Y es que, si bien los usuarios han de ser responsables en el uso de los datos, los legisladores deben ser capaces de desarrollar leyes y normativas que regulen el ámbito, y es conveniente que los profesionales se rijan por códigos éticos rigurosos, lo que en el fondo permite y permitirá que todos estos deseos sean realidades es la educación. Hay, una vez más, una responsabilidad compartida entre ciudadanos y sistema educativo para que la infancia y la juventud sean perfectamente conscientes de qué significa la gestión de los datos en la sociedad digital, y estén, en la medida de lo posible, alerta sobre las potenciales repercusiones de su buen o mal uso. En el nivel universitario, que compete directamente a quien escribe estas líneas, la formación de los futuros profesionales (sobre todo ingenieros informáticos, matemáticos, científicos de datos, pero también juristas, empresarios, políticos, etc., etc.) debe estar también regida por estándares éticos elevados, que nos permitan navegar en la dicotomía que existe entre la necesidad de progreso e innovación y la obligación de garantizar que todo lo que construyamos contribuya al Bien Común.


REFERENCIAS

(Nota: todos los enlaces están verificados a fecha de redacción de la entrada en mayo de 2019)

[1] International Data Corporation (IDC). Data Age 2025. The Digitization of the World. https://www.seagate.com/files/www-content/our-story/trends/files/idc-seagate-dataage-whitepaper.pdf.

[2] Microsoft Corporation. Project Natick. https://natick.research.microsoft.com/.

[3] Organización para las Naciones Unidas. Objetivos de Desarrollo Sostenible. https://www.un.org/sustainabledevelopment/es/objetivos-de-desarrollo-sostenible/.

[4] Cathy O’Neil. Armas de destrucción matemática. Cómo el big data aumenta la desigualdad y amenaza la democracia. Capitán Swing, 2018.

[5] Meredith Brooks. Artificial Unintelligence: How Computers Misunderstand the World. The MIT Press, 2018.

[6] Fox Law Inc. What is “clopening”? https://www.fox-law.com/blog/2018/09/what-is-clopening.shtml

[7] Propublica. Machine Bias. There’s software used across the country to predict future criminals. And it’s biased against blacks. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.

[8] Andrej Karpathy. What a Deep Neural Network thinks about your #selfie. http://karpathy.github.io/2015/10/25/selfie/.

[9] Manuel G. Pascual. ¿Quién vigila que los algoritmos no sean racistas o sexistas? https://retina.elpais.com/retina/2019/03/14/tendencias/1552564034_268678.html.

[10] https://thispersondoesnotexist.com/.

[11] BBC. BBC newsreader ‘speaks’ languages he can’t. https://www.bbc.com/news/av/technology-46104437/bbc-newsreader-speaks-languages-he-can-t.

[12] El País Retina. Cualquiera puede poner tu cara en un vídeo porno. https://retina.elpais.com/retina/2019/01/09/tendencias/1547033660_834941.html.

[13] BBC. El falso Barack Obama creado con inteligencia artificial capaz de hablar como si fuera el original. https://www.bbc.com/mundo/media-40632577.

[14] The Guardian. The Cambrigde Analytica Files. https://www.theguardian.com/news/series/cambridge-analytica-files.

[15] Elisa Beni. El algoritmo mata la democracia. https://www.eldiario.es/zonacritica/algoritmo-mata-democracia_6_879872028.html.

[16] Gemma Galdón. Los partidos quieren tus datos. https://elpais.com/elpais/2019/03/22/ideas/1553277431_155614.html.

[17] The Internet Society. Tu huella digital. https://www.internetsociety.org/es/tutorials/your-digital-footprint-matters.

[18] José Ignacio Latorre. Ética para máquinas. Ariel, 2019.

[19] Consejo General de Colegios Profesionales de Ingeniería Informática. Código Ético y Deontológico de la Ingeniería Informática. https://ccii.es/CodigoDeontologico.

[20] Carlos Prego. Ética y desarrollo software: el debate de si hace falta un juramento hipocrático para programadores. https://www.xataka.com/legislacion-y-derechos/etica-desarrollo-software-debate-hace-falta-juramento-hipocratico-para-programadores

Suscribete a nuestra newsletter

Si quieres estar al día de las novedades del Derecho Tecnológico y quieres estar más cerca de nosotros… No te lo pienses más y
¡SUSCRÍBETE!

Deja una respuesta

Tu dirección de correo electrónico no será publicada.