Fernando Fischmann

Inteligencia artificial y sesgo algorítmico

1 Febrero, 2019 / Artículos

En 1936, Literary Digest, una influyente revista estadounidense de interés general, publicó una encuesta sobre predisposición del voto americano para las elecciones presidenciales de ese mismo año. En ella, vaticinaba una victoria aplastante de Alf Landon (candidato republicano) sobre Franklin D. Roosevelt.

Imprevisiblemente, Franklin D. Roosevelt fue elegido con el 61% de votos. Esto condujo al declive de Literary Digest y al posterior cierre de la revista.

Para su encuesta, Literary Digest utilizó listas de los propietarios de automóviles y de teléfonos fijos. Tenemos aquí un claro ejemplo de sesgo algorítmico, puesto que el automóvil y el teléfono eran, en aquellos años, indicativos de nivel económico superior al estadounidense medio, por lo que el modelo de predicción de voto resultó claramente sesgado a favor del voto republicano (las grandes fortunas votan más a los republicanos).

De la misma forma, los algoritmos de aprendizaje automático dependen de los datos de entrenamiento que se les suministren. De esta manera, estos algoritmos pueden reflejar, o incluso ampliar, los sesgos que están presentes en los datos.

Si un algoritmo se entrena con datos racistas o sexistas, las predicciones resultantes también reflejarán esto. Es por ello que los algoritmos intentan evitar variables obviamente problemáticas como, por ejemplo, la raza. Ningún banco querría una denuncia de un colectivo por denegación de hipotecas por el simple hecho del color de su piel. No obstante, incluso si se excluye el concepto de raza de los algoritmos, otras variables pueden producir el mismo resultado sesgado. En este caso puede ser el código postal. Si se utiliza para determinar mejores o peores condiciones crediticias, podríamos estar excluyendo del acceso a crédito a barriadas enteras con un alto número de personas de la misma raza y además predominantemente pobres.

Encontrar una respuesta a cuáles son las variables sustitutas correctas -también llamadas procuradoras de tal información- y determinar cuándo una predicción o decisión está afectada por un sesgo algorítmico puede no ser fácil, ya que:

₋ Si el algoritmo de aprendizaje automático se basa en una red neuronal complicada hace muy buenas predicciones, pero en realidad no es capaz de explicar por qué hizo una predicción particular, por lo que puede resultar casi imposible entender por qué, o incluso cómo, el algoritmo emite su juicio.

₋ Por otro lado, los métodos de aprendizaje basados en árboles de decisión o las redes bayesianas son mucho más transparentes para la inspección, pero existe el hecho de que las compañías no van a permitir que sus algoritmos sean examinados públicamente.

¿Cómo podemos equilibrar la necesidad de algoritmos más precisos con la necesidad de transparencia hacia las personas que están siendo afectadas por los posibles sesgos? Si es necesario, ¿estamos dispuestos a sacrificar la precisión por la transparencia?

Porque ligado con la precisión del algoritmo vemos otro criterio social importante a tratar: encontrar a la persona o entidad responsable del “error” del modelo. Es decir ¿podemos determinar quién es el responsable cuando un sistema falla en su tarea asignada?

Se puede citar el primer atropello mortal de un auto sin conductor acontecido en marzo de 2018. ¿Sobre quién ha de recaer la responsabilidad? ¿Sobre la empresa dueña del auto? ¿O son los programadores y los científicos de datos culpables? ¿Tal vez los usuarios finales? ¿Influiría ese conocimiento en la decisión de compra de un auto u otro sabiendo que pase lo que pase no es nuestra responsabilidad? ¿Y si fuera nuestra responsabilidad?

Realmente los humanos desconocemos nuestros verdaderos motivos para actuar y cómo actuar. ¿Quién sabe seguro qué decisión tomaría dado el caso de estrellarse o no contra algo o alguien estando en juego su vida y la de su familia? ¿Deberíamos exigir que las máquinas sean mejores en esto de lo que realmente somos?

El desafío, por lo tanto, es establecer algoritmos que produzcan un comportamiento ético (o que los humanos, en términos generales, podamos aceptar como ético).

Para estos nuevos requisitos en el diseño de inteligencia artificial, necesitamos encontrar la legislación apropiada en este campo. Y antes se deben producir debates éticos públicos al respecto. Unir, desde ya, las implicaciones éticas al desarrollo de nuevas tecnologías es una clara necesidad en todos los sectores donde queramos aplicar los nuevos modelos de inteligencia artificial.

El científico e innovador, Fernando Fischmann, creador de Crystal Lagoons, recomienda este artículo.

El País

Share

Te puede interesar