Los algoritmos que controlan nuestras vidas son tan injustos como nosotros mismos

Los algoritmos que controlan nuestras vidas son tan injustos como nosotros mismos
Sin comentarios Facebook Twitter Flipboard E-mail

Los algoritmos empiezan a dominar nuestra realidad: lo hacen cuando nos recomiendan una canción en Spotify, una serie en Netflix o una compra en Amazon, pero también cuando se encargan de elegir a los mejores candidatos para un trabajo o para conceder un crédito. Todo eso ya no es ciencia-ficción. Está ocurriendo, y lo está haciendo ahora mismo, mientras lees esto.

Eso hace que haya un sentimiento agridulce sobre estos algoritmos que nos hacen la vida más fácil pero también la condicionan. Hay quien precisamente está rebelándose contra los algoritmos, y de hecho la conclusión de quienes advierten de esos peligros es contudente: deberíamos poder auditar esos algoritmos para retomar el control tanto de esos algoritmos como de nuestras vidas.

Los algoritmos son injustos

Es lo que apunta Cathy O'Neil, una científica de datos que hace poco publicó su libro "Weapons of Math Destruction" y que advertía de esa "confianza ciega" que tenemos en los algoritmos: "los algoritmos no son justos de forma inherente, porque la persona que construye ese modelo es la que define el concepto del éxito".

Algo

En su libro explicaba cómo por ejemplo en 2010 las escuelas públicas de Washington DC despidieron a más de 200 profesores (incluidos unos cuantos con muy buena reputación) por una fórmula algorítmica que evaluaba su rendimiento.

También hay algoritmos que determinan sentencias judiciales teniendo en cuenta "factores de riesgo" como sus zonas de residencia o los lazos que sus amigos y familia puedan tener con entornos criminales. En el mundo financiero se recolectan datos de distintas fuentes para la toma de decisiones en cuanto a seguros y créditos, algo que según O'Neil a menudo "amplifica los prejuicios contra los desfavorecidos".

Algoritmos auditables y que nos expliquen qué hacen

Zeynep Tufeckci, una profesora de tecnología de la Universida de North Carolina, explicaba recientemente en una charla TED cómo los sistemas computacionales pueden inferir una gran cantidad de conclusiones a partir de los datos que hay de nosotros en la red. Aunque eso tiene impacto positivo en ciertos escenarios, también puede acabar siendo injusto en otros.

Para esta experta el problema reside en que a menudo los algoritmos tratan de responder a preguntas que no tienen una única respuesta correcta. "Hay preguntas subjetivas, con frentes abiertos y con distintas valoraciones que por ejemplo tratan de contestar qué persona debería contratar una empresa, qué actualizaciones de tus amigos deberían ser mostradas en tu cuenta o qué convicto tiene más posibilidades de reincidir".

Todas esas preguntas son demasiado delicadas, y dejarle el control a un algoritmo podría ser contraproducente. Una de las soluciones sería precisamente la de poder auditar esos algoritmos y seguir las líneas de la Unión Europea en cuanto a leyes de protección de datos.

Eso crearía un "derecho a la explicación" que haría que los consumidores pudieran saber por qué un algoritmo ha tomado esa decisión que les afecta y no otra, algo que por ejemplo señalaba Frank Pasquale, profesor de Derecho en la Universidad de Maryland.

Otros no lo tienen tan claro, y Daniel Castro, vicepresidente de la Information Technology and Innovation Foundation explicaba cómo "la gente se enfada y busca a quien echar las culpas. Nos preocupa la objetividad, quién es responsable y las decisiones éticas, y todo ello existe tanto si usas algoritmos como si no".

En Xataka | ¿Puede un algoritmo ser justo aunque el mundo no lo sea?

Comentarios cerrados
Inicio