imagen-sexo-datos
data-feminismo-catherine-d'ignazio-y-lauren-f-klein

Data Feminism
Catherine D’Ignazio y Lauren F. Klein
MIT Press, 2020.
453 páginas / 28€

la-mujer-invisible-caroline-criado-perez

La mujer invisible
Caroline Criado Perez
Seix Barral, 2020.
528 páginas / 22,50€

armas-de-destruccion-matematica

Armas de destrucción matemática
Cathy O’Neil
Capitán Swing, 2018.
352 páginas / 19€

La recogida de datos y su análisis estadístico siempre han estado revestidos de objetividad. Es algo que tenemos grabado culturalmente. Pero los datos no siempre son neutros. Muchas veces están a merced del enfoque adoptado a la hora de recabarlos y analizarlos. Los datos tienen género, pero también raza y clase social. Estos tres libros abordan la increíble historia del sexo de los datos de formas diversas, directa o indirectamente, total o parcialmente, y proponen soluciones para que, en un mundo cada vez más rendido a los pies del big data, se tomen cartas en el asunto.

¿Hay sexismo en la retirada de la nieve? Pruebe a plantear esta pregunta en redes sociales y lo más probable es que el aluvión de insultos y carcajadas por parte de hombres —y de alguna que otra mujer— le deje el feed, y el alma, hecho un cristo. Solo faltaba que hasta en eso el feminismo meta sus narices, buscando jaleo donde lo que no hay, viendo el fantasma del machismo reflejado en minúsculos y neutros copos de nieve.

Pero el problema es que sí que hay sexismo en la recogida de la nieve. O, al menos, lo ha habido. O lo puede haber. La mujer invisible, el libro escrito por la periodista británica Caroline Criado-Pérez, comienza con esta controvertida pregunta, que responde con datos a prueba de balas descreídas.

En 2011, el ayuntamiento de la ciudad sueca de Karlskoga estaba implementando una evaluación de todas las políticas públicas a través de una perspectiva de género cuando alguien dijo en broma que al menos la recogida de nieve se libraría del escrutinio. Pero hubo quien se tomó en serio el comentario jocoso y finalmente se llevó a cabo un estudio con conclusiones sorprendentes.

Siendo lo habitual limpiar primero las carreteras —más usadas por los hombres para ir a trabajar en hora punta— y después los senderos peatonales y los carriles para bicicletas —más usados por las mujeres—, se descubrió que de esta forma las lesiones por caída en suelo helado se multiplicaban por tres, y que las mujeres las padecían en un 69%. A través de varios estudios realizados en distintas ciudades de Europa, se sabe que las mujeres usan menos el coche que los hombres y que tienen unos patrones de movilidad distintos. Es mucho más probable que una mujer lleve a los hijos a la guardería o a la escuela, realice labores de cuidados o tenga que ir al supermercado de camino a casa después del trabajo y que, por tanto, se resbale y se disloque más. Cambiar de estrategia ahorró al sistema sanitario sueco el 50% de los gastos por este tipo de lesiones y aumentó la productividad. A veces, ser feminista contribuye a las arcas del Estado de las maneras más insospechadas.

La mujer invisible es un compendio de datos sorprendentes que apuntalan la idea de que el mundo está diseñado por hombres y para hombres y que a su autora le ha valido el apodo de “Simone de Beauvoir con datos”. Hay tantos estudios reveladores en el libro que resulta difícil elegir. Por ejemplo, destaca que las mujeres tienen un 50% más de probabilidades de ser diagnosticadas erróneamente porque tienden a no tener el clásico ataque cardíaco que comienza con dolores en el pecho y el brazo izquierdo. Las mujeres también tienen más probabilidades de sufrir lesiones graves en un accidente automovilístico porque los maniquíes de pruebas de colisión se han diseñado tradicionalmente tomando el cuerpo masculino como referencia universal. En el área de riesgos laborales, hay mucha más información relativa a sectores laborales masculinos, como la industria y la construcción, pero poca con respecto a trabajos feminizados como el de manicuristas y trabajadoras de la limpieza, expuestas a químicos dañinos que pueden producir enfermedades pulmonares, abortos y cáncer.

 

«La mujer se determina y se diferencia con respecto al hombre, y no a la inversa; ella es lo inesencial frente a lo esencial. El es el Sujeto, es el Absoluto; ella es la Alteridad» Simone de Beauvoir, El segundo sexo.

 

La autora achaca estas diferencias a la brecha de datos de género, pero hace hincapié en que este diseño desigual no es deliberado, ni una cruzada con doble revestimiento de misoginia, sino una suerte de despiste provocado por la larga tradición masculina de verse como la medida de todo lo humano, una herencia histórico-sociológica exacerbada por la ausencia de mujeres en el diseño y en la toma de decisiones sobre políticas públicas, salud, planificación urbana, agricultura o política.

En Data Feminism, Catherine D’Ignazio y Lauren F. Klein denominan a esa brecha de datos “riesgo del privilegio”, una ceguera que aqueja a los miembros de grupos dominantes, hombres que nunca han experimentado el sexismo, el racismo o el clasismo, y cuya perspectiva ejerce una influencia enorme en la toma de decisiones. Y aunque no hay nada nuevo en esta observación, llama mucho la atención que, en una economía cada vez más basada en el big data, prevalezca el aura de objetividad de los datos, cuando lo que en realidad sucede es que se reproducen las mismas inercias del pasado. Teniendo en cuenta que cerca del 80% de los ingenieros que trabajan en Google son hombres, es más que probable que se produzcan sesgos, y más que probable que los datos favorezcan más a un sexo que a otro. Pero no todo tiene que ver con el sexo.

Como Criado Perez, D’Ignazio y Klein salpican su libro con ejemplos reveladores, como el caso de Joy Buolamwini, una estudiante del prestigioso Massachusetts Institute of Technology (MIT) que, trabajando en un proyecto basado en análisis facial, descubrió que el software no detectaba su rostro de piel oscura. Dibujó entonces una cara en su mano y, al enseñársela la cámara, la reconoció. Finalmente, Buolamwini se puso una máscara blanca y el sistema detectó perfectamente sus rasgos faciales.

Con este ejemplo, Data Feminism se apoya en el feminismo interseccional y examina fuerzas estructurales de poder entrelazadas como el sexo, la raza y la clase. En particular, examina cómo se desarrollan estas dinámicas de poder en una sociedad basada en datos. Si los datos son poder, entonces, ¿quién se beneficia de ellos, a quién dejamos fuera de nuestros datos y por qué, y cómo usamos los datos para mantener las estructuras de poder?

 

El Big Data y el Algoritmo

Algo que abordan los tres libros es precisamente la ‘dataficación’ del mundo. Cada vez más decisiones de importancia cívica, económica e individual se toman a través de sistemas automatizados alimentados con grandes cantidades de datos.

En Armas de destrucción matemática, Cathy O’Neil, doctora en Matemáticas por la Universidad de Harvard y científica de datos, alerta sobre la confianza ciega que se profesa hacia los algoritmos por la pátina objetiva y científica que les confiere su base matemática. Los algoritmos, dice, son opiniones expresadas en código que, para funcionar, precisan de dos cosas: datos ocurridos en el pasado y una definición de éxito, es decir, qué se quiere encontrar. Con esta información se le entrena para dar con el resultado deseado.

Los algoritmos ayudan a decidir a quién se contrata, cuánto cobrar por un seguro o quién se merece una hipoteca o una tarjeta de crédito basándose, en muchas ocasiones, en proxies, por ejemplo en puntuaciones crediticias como indicadores de la probabilidad de ser un buen empleado. Hay ejemplos muy sonados de algoritmos completamente sesgados que han marginado a mujeres o a pobres. En 2014, Amazon creó un algoritmo para rastrear los mejores perfiles que optaran por diferentes puestos técnicos. Alimentado con currículos de candidatos de los últimos 10 años y entrenado para elegir el mejor talento, se descubrió daba preferencia a los candidatos hombres porque la mayoría de esos currículums correspondían a hombres. Además, el algoritmo penalizaba las candidaturas que incluyeran la palabra “mujer”, como por ejemplo “capitana del club de ajedrez femenino” o a graduadas de universidades femeninas.

PredPol, una empresa de vigilancia policial predictiva fundada en 2012 por un profesor de antropología de la Universidad de California en Los Ángeles, se ha empleado en la ciudad de Los Ángeles durante casi una década para determinar qué vecindarios patrullar más asiduamente y qué vecindarios ignorar. Pero debido a que PredPol se basa en datos históricos sobre delitos, se patrullan de manera desproporcionada los barrios afroamericanos, de modo que predecir dónde ocurrirán delitos no difiere mucho de las prácticas racistas del pasado.

 

Qué Hacer 

Los datos son el nuevo oro. Nuestro futuro estará dominado la inteligencia artificial y el aprendizaje automático. Pese a los aspectos positivos que puedan poseer, no debemos dejar de vigilarla para evitar una mayor discriminación de mujeres y de grupos minoritarios. Ninguno de los tres libros proporciona una solución tajante, sino que apuestan por una mayor diversidad en los equipos de científicos de datos, involucrar a las comunidades afectadas en el proceso de elaboración de los algoritmos e incidir más en la ética, tanto en las universidades como entre los ingenieros que actualmente trabajan en los departamentos técnicos de las grandes empresas tecnológicas. Catherine D’Ignazio y Lauren F. Klein defienden una justicia de los datos que reconozca las desigualdades históricas y los diferenciales de poder y que rete al poder existente.

*

imagen-libros-sexo-datos

Libros

La increíble historia del sexo de los datos

La recogida de datos y su análisis estadístico siempre han estado revestidos de objetividad. Es algo que tenemos grabado culturalmente. Pero los datos no siempre son neutros. Muchas veces están a merced del enfoque adoptado a la hora de recabarlos y analizarlos. Los datos tienen género, pero también raza y clase social. Estos tres libros abordan la increíble historia del sexo de los datos de formas diversas, directa o indirectamente, total o parcialmente, y proponen soluciones para que, en un mundo cada vez más rendido a los pies del big data, se tomen cartas en el asunto.

¿Hay sexismo en la retirada de la nieve? Pruebe a plantear esta pregunta en redes sociales y lo más probable es que el aluvión de insultos y carcajadas por parte de hombres —y de alguna que otra mujer— le deje el feed, y el alma, hecho un cristo. Solo faltaba que hasta en eso el feminismo meta sus narices, buscando jaleo donde lo que no hay, viendo el fantasma del machismo reflejado en minúsculos y neutros copos de nieve.

Pero el problema es que sí que hay sexismo en la recogida de la nieve. O, al menos, lo ha habido. O lo puede haber. La mujer invisible, el libro escrito por la periodista británica Caroline Criado-Pérez, comienza con esta controvertida pregunta, que responde con datos a prueba de balas descreídas.

En 2011, el ayuntamiento de la ciudad sueca de Karlskoga estaba implementando una evaluación de todas las políticas públicas a través de una perspectiva de género cuando alguien dijo en broma que al menos la recogida de nieve se libraría del escrutinio. Pero hubo quien se tomó en serio el comentario jocoso y finalmente se llevó a cabo un estudio con conclusiones sorprendentes.

Siendo lo habitual limpiar primero las carreteras —más usadas por los hombres para ir a trabajar en hora punta— y después los senderos peatonales y los carriles para bicicletas —más usados por las mujeres—, se descubrió que de esta forma las lesiones por caída en suelo helado se multiplicaban por tres, y que las mujeres las padecían en un 69%. A través de varios estudios realizados en distintas ciudades de Europa, se sabe que las mujeres usan menos el coche que los hombres y que tienen unos patrones de movilidad distintos. Es mucho más probable que una mujer lleve a los hijos a la guardería o a la escuela, realice labores de cuidados o tenga que ir al supermercado de camino a casa después del trabajo y que, por tanto, se resbale y se disloque más. Cambiar de estrategia ahorró al sistema sanitario sueco el 50% de los gastos por este tipo de lesiones y aumentó la productividad. A veces, ser feminista contribuye a las arcas del Estado de las maneras más insospechadas.

La mujer invisible es un compendio de datos sorprendentes que apuntalan la idea de que el mundo está diseñado por hombres y para hombres y que a su autora le ha valido el apodo de “Simone de Beauvoir con datos”. Hay tantos estudios reveladores en el libro que resulta difícil elegir. Por ejemplo, destaca que las mujeres tienen un 50% más de probabilidades de ser diagnosticadas erróneamente porque tienden a no tener el clásico ataque cardíaco que comienza con dolores en el pecho y el brazo izquierdo. Las mujeres también tienen más probabilidades de sufrir lesiones graves en un accidente automovilístico porque los maniquíes de pruebas de colisión se han diseñado tradicionalmente tomando el cuerpo masculino como referencia universal. En el área de riesgos laborales, hay mucha más información relativa a sectores laborales masculinos, como la industria y la construcción, pero poca con respecto a trabajos feminizados como el de manicuristas y trabajadoras de la limpieza, expuestas a químicos dañinos que pueden producir enfermedades pulmonares, abortos y cáncer.

 

«La mujer se determina y se diferencia con respecto al hombre, y no a la inversa; ella es lo inesencial frente a lo esencial. El es el Sujeto, es el Absoluto; ella es la Alteridad» Simone de Beauvoir, El segundo sexo.

 

La autora achaca estas diferencias a la brecha de datos de género, pero hace hincapié en que este diseño desigual no es deliberado, ni una cruzada con doble revestimiento de misoginia, sino una suerte de despiste provocado por la larga tradición masculina de verse como la medida de todo lo humano, una herencia histórico-sociológica exacerbada por la ausencia de mujeres en el diseño y en la toma de decisiones sobre políticas públicas, salud, planificación urbana, agricultura o política.

En Data Feminism, Catherine D’Ignazio y Lauren F. Klein denominan a esa brecha de datos “riesgo del privilegio”, una ceguera que aqueja a los miembros de grupos dominantes, hombres que nunca han experimentado el sexismo, el racismo o el clasismo, y cuya perspectiva ejerce una influencia enorme en la toma de decisiones. Y aunque no hay nada nuevo en esta observación, llama mucho la atención que, en una economía cada vez más basada en el big data, prevalezca el aura de objetividad de los datos, cuando lo que en realidad sucede es que se reproducen las mismas inercias del pasado. Teniendo en cuenta que cerca del 80% de los ingenieros que trabajan en Google son hombres, es más que probable que se produzcan sesgos, y más que probable que los datos favorezcan más a un sexo que a otro. Pero no todo tiene que ver con el sexo.

Como Criado Perez, D’Ignazio y Klein salpican su libro con ejemplos reveladores, como el caso de Joy Buolamwini, una estudiante del prestigioso Massachusetts Institute of Technology (MIT) que, trabajando en un proyecto basado en análisis facial, descubrió que el software no detectaba su rostro de piel oscura. Dibujó entonces una cara en su mano y, al enseñársela la cámara, la reconoció. Finalmente, Buolamwini se puso una máscara blanca y el sistema detectó perfectamente sus rasgos faciales.

Con este ejemplo, Data Feminism se apoya en el feminismo interseccional y examina fuerzas estructurales de poder entrelazadas como el sexo, la raza y la clase. En particular, examina cómo se desarrollan estas dinámicas de poder en una sociedad basada en datos. Si los datos son poder, entonces, ¿quién se beneficia de ellos, a quién dejamos fuera de nuestros datos y por qué, y cómo usamos los datos para mantener las estructuras de poder?

 

El Big Data y el Algoritmo

Algo que abordan los tres libros es precisamente la ‘dataficación’ del mundo. Cada vez más decisiones de importancia cívica, económica e individual se toman a través de sistemas automatizados alimentados con grandes cantidades de datos.

En Armas de destrucción matemática, Cathy O’Neil, doctora en Matemáticas por la Universidad de Harvard y científica de datos, alerta sobre la confianza ciega que se profesa hacia los algoritmos por la pátina objetiva y científica que les confiere su base matemática. Los algoritmos, dice, son opiniones expresadas en código que, para funcionar, precisan de dos cosas: datos ocurridos en el pasado y una definición de éxito, es decir, qué se quiere encontrar. Con esta información se le entrena para dar con el resultado deseado.

Los algoritmos ayudan a decidir a quién se contrata, cuánto cobrar por un seguro o quién se merece una hipoteca o una tarjeta de crédito basándose, en muchas ocasiones, en proxies, por ejemplo en puntuaciones crediticias como indicadores de la probabilidad de ser un buen empleado. Hay ejemplos muy sonados de algoritmos completamente sesgados que han marginado a mujeres o a pobres. En 2014, Amazon creó un algoritmo para rastrear los mejores perfiles que optaran por diferentes puestos técnicos. Alimentado con currículos de candidatos de los últimos 10 años y entrenado para elegir el mejor talento, se descubrió daba preferencia a los candidatos hombres porque la mayoría de esos currículums correspondían a hombres. Además, el algoritmo penalizaba las candidaturas que incluyeran la palabra “mujer”, como por ejemplo “capitana del club de ajedrez femenino” o a graduadas de universidades femeninas.

PredPol, una empresa de vigilancia policial predictiva fundada en 2012 por un profesor de antropología de la Universidad de California en Los Ángeles, se ha empleado en la ciudad de Los Ángeles durante casi una década para determinar qué vecindarios patrullar más asiduamente y qué vecindarios ignorar. Pero debido a que PredPol se basa en datos históricos sobre delitos, se patrullan de manera desproporcionada los barrios afroamericanos, de modo que predecir dónde ocurrirán delitos no difiere mucho de las prácticas racistas del pasado.

 

Qué Hacer 

Los datos son el nuevo oro. Nuestro futuro estará dominado la inteligencia artificial y el aprendizaje automático. Pese a los aspectos positivos que puedan poseer, no debemos dejar de vigilarla para evitar una mayor discriminación de mujeres y de grupos minoritarios. Ninguno de los tres libros proporciona una solución tajante, sino que apuestan por una mayor diversidad en los equipos de científicos de datos, involucrar a las comunidades afectadas en el proceso de elaboración de los algoritmos e incidir más en la ética, tanto en las universidades como entre los ingenieros que actualmente trabajan en los departamentos técnicos de las grandes empresas tecnológicas. Catherine D’Ignazio y Lauren F. Klein defienden una justicia de los datos que reconozca las desigualdades históricas y los diferenciales de poder y que rete al poder existente.

*

data-feminismo-catherine-d'ignazio-y-lauren-f-klein

Data Feminism
Catherine D’Ignazio y Lauren F. Klein
MIT Press, 2020.
453 páginas / 28€

la-mujer-invisible-caroline-criado-perez

La mujer invisible
Caroline Criado Perez
Seix Barral, 2020.
528 páginas / 22,50€

armas-de-destruccion-matematica

Armas de destrucción matemática
Cathy O’Neil
Capitán Swing, 2018.
352 páginas / 19€

el-feminismo-de-datos

La increíble historia del sexo de los datos

La recogida de datos y su análisis estadístico siempre han estado revestidos de objetividad. Es algo que tenemos grabado culturalmente. Pero los datos no siempre son neutros. Muchas veces están a merced del enfoque adoptado a la hora de recabarlos y analizarlos. Los datos tienen género, pero también raza y clase social. Estos tres libros abordan la increíble historia del sexo de los datos de formas diversas, directa o indirectamente, total o parcialmente, y proponen soluciones para que, en un mundo cada vez más rendido a los pies del big data, se tomen cartas en el asunto.

POR MARTA CARO / 2 de noviembre de 2020

¿Hay sexismo en la retirada de la nieve? Pruebe a plantear esta pregunta en redes sociales y lo más probable es que el aluvión de insultos y carcajadas por parte de hombres —y de alguna que otra mujer— le deje el feed, y el alma, hecho un cristo. Solo faltaba que hasta en eso el feminismo meta sus narices, buscando jaleo donde lo que no hay, viendo el fantasma del machismo reflejado en minúsculos y neutros copos de nieve.

Pero el problema es que sí que hay sexismo en la recogida de la nieve. O, al menos, lo ha habido. O lo puede haber. La mujer invisible, el libro escrito por la periodista británica Caroline Criado-Pérez, comienza con esta controvertida pregunta, que responde con datos a prueba de balas descreídas.

En 2011, el ayuntamiento de la ciudad sueca de Karlskoga estaba implementando una evaluación de todas las políticas públicas a través de una perspectiva de género cuando alguien dijo en broma que al menos la recogida de nieve se libraría del escrutinio. Pero hubo quien se tomó en serio el comentario jocoso y finalmente se llevó a cabo un estudio con conclusiones sorprendentes.

Siendo lo habitual limpiar primero las carreteras —más usadas por los hombres para ir a trabajar en hora punta— y después los senderos peatonales y los carriles para bicicletas —más usados por las mujeres—, se descubrió que de esta forma las lesiones por caída en suelo helado se multiplicaban por tres, y que las mujeres las padecían en un 69%. A través de varios estudios realizados en distintas ciudades de Europa, se sabe que las mujeres usan menos el coche que los hombres y que tienen unos patrones de movilidad distintos. Es mucho más probable que una mujer lleve a los hijos a la guardería o a la escuela, realice labores de cuidados o tenga que ir al supermercado de camino a casa después del trabajo y que, por tanto, se resbale y se disloque más. Cambiar de estrategia ahorró al sistema sanitario sueco el 50% de los gastos por este tipo de lesiones y aumentó la productividad. A veces, ser feminista contribuye a las arcas del Estado de las maneras más insospechadas.

La mujer invisible es un compendio de datos sorprendentes que apuntalan la idea de que el mundo está diseñado por hombres y para hombres y que a su autora le ha valido el apodo de “Simone de Beauvoir con datos”. Hay tantos estudios reveladores en el libro que resulta difícil elegir. Por ejemplo, destaca que las mujeres tienen un 50% más de probabilidades de ser diagnosticadas erróneamente porque tienden a no tener el clásico ataque cardíaco que comienza con dolores en el pecho y el brazo izquierdo. Las mujeres también tienen más probabilidades de sufrir lesiones graves en un accidente automovilístico porque los maniquíes de pruebas de colisión se han diseñado tradicionalmente tomando el cuerpo masculino como referencia universal. En el área de riesgos laborales, hay mucha más información relativa a sectores laborales masculinos, como la industria y la construcción, pero poca con respecto a trabajos feminizados como el de manicuristas y trabajadoras de la limpieza, expuestas a químicos dañinos que pueden producir enfermedades pulmonares, abortos y cáncer.

 

«La mujer se determina y se diferencia con respecto al hombre, y no a la inversa; ella es lo inesencial frente a lo esencial. El es el Sujeto, es el Absoluto; ella es la Alteridad» Simone de Beauvoir, El segundo sexo.

 

La autora achaca estas diferencias a la brecha de datos de género, pero hace hincapié en que este diseño desigual no es deliberado, ni una cruzada con doble revestimiento de misoginia, sino una suerte de despiste provocado por la larga tradición masculina de verse como la medida de todo lo humano, una herencia histórico-sociológica exacerbada por la ausencia de mujeres en el diseño y en la toma de decisiones sobre políticas públicas, salud, planificación urbana, agricultura o política.

En Data Feminism, Catherine D’Ignazio y Lauren F. Klein denominan a esa brecha de datos “riesgo del privilegio”, una ceguera que aqueja a los miembros de grupos dominantes, hombres que nunca han experimentado el sexismo, el racismo o el clasismo, y cuya perspectiva ejerce una influencia enorme en la toma de decisiones. Y aunque no hay nada nuevo en esta observación, llama mucho la atención que, en una economía cada vez más basada en el big data, prevalezca el aura de objetividad de los datos, cuando lo que en realidad sucede es que se reproducen las mismas inercias del pasado. Teniendo en cuenta que cerca del 80% de los ingenieros que trabajan en Google son hombres, es más que probable que se produzcan sesgos, y más que probable que los datos favorezcan más a un sexo que a otro. Pero no todo tiene que ver con el sexo.

Como Criado Perez, D’Ignazio y Klein salpican su libro con ejemplos reveladores, como el caso de Joy Buolamwini, una estudiante del prestigioso Massachusetts Institute of Technology (MIT) que, trabajando en un proyecto basado en análisis facial, descubrió que el software no detectaba su rostro de piel oscura. Dibujó entonces una cara en su mano y, al enseñársela la cámara, la reconoció. Finalmente, Buolamwini se puso una máscara blanca y el sistema detectó perfectamente sus rasgos faciales.

Con este ejemplo, Data Feminism se apoya en el feminismo interseccional y examina fuerzas estructurales de poder entrelazadas como el sexo, la raza y la clase. En particular, examina cómo se desarrollan estas dinámicas de poder en una sociedad basada en datos. Si los datos son poder, entonces, ¿quién se beneficia de ellos, a quién dejamos fuera de nuestros datos y por qué, y cómo usamos los datos para mantener las estructuras de poder?

 

El Big Data y el Algoritmo

Algo que abordan los tres libros es precisamente la ‘dataficación’ del mundo. Cada vez más decisiones de importancia cívica, económica e individual se toman a través de sistemas automatizados alimentados con grandes cantidades de datos.

En Armas de destrucción matemática, Cathy O’Neil, doctora en Matemáticas por la Universidad de Harvard y científica de datos, alerta sobre la confianza ciega que se profesa hacia los algoritmos por la pátina objetiva y científica que les confiere su base matemática. Los algoritmos, dice, son opiniones expresadas en código que, para funcionar, precisan de dos cosas: datos ocurridos en el pasado y una definición de éxito, es decir, qué se quiere encontrar. Con esta información se le entrena para dar con el resultado deseado.

Los algoritmos ayudan a decidir a quién se contrata, cuánto cobrar por un seguro o quién se merece una hipoteca o una tarjeta de crédito basándose, en muchas ocasiones, en proxies, por ejemplo puntuaciones en crediticias como indicadores de la probabilidad de ser un buen empleado. Hay ejemplos muy sonados de algoritmos completamente sesgados que han marginado a mujeres o a pobres. En 2014, Amazon creó un algoritmo para rastrear los mejores perfiles que optaran por diferentes puestos técnicos. Alimentado con currículos de candidatos de los últimos 10 años y entrenado para elegir el mejor talento, se descubrió daba preferencia a los candidatos hombres porque la mayoría de esos currículums correspondían a hombres. Además, el algoritmo penalizaba las candidaturas que incluyeran la palabra “mujer”, como por ejemplo “capitana del club de ajedrez femenino” o a graduadas de universidades femeninas.

PredPol, una empresa de vigilancia policial predictiva fundada en 2012 por un profesor de antropología de la Universidad de California en Los Ángeles, se ha empleado en la ciudad de Los Ángeles durante casi una década para determinar qué vecindarios patrullar más asiduamente y qué vecindarios ignorar. Pero debido a que PredPol se basa en datos históricos sobre delitos, se patrullan de manera desproporcionada los barrios afroamericanos, de modo que predecir dónde ocurrirán delitos no difiere mucho de las prácticas racistas del pasado.

 

Qué Hacer 

Los datos son el nuevo oro. Nuestro futuro estará dominado la inteligencia artificial y el aprendizaje automático. Pese a los aspectos positivos que puedan poseer, no debemos dejar de vigilarla para evitar una mayor discriminación de mujeres y de grupos minoritarios. Ninguno de los tres libros proporciona una solución tajante, sino que apuestan por una mayor diversidad en los equipos de científicos de datos, involucrar a las comunidades afectadas en el proceso de elaboración de los algoritmos e incidir más en la ética, tanto en las universidades como entre los ingenieros que actualmente trabajan en los departamentos técnicos de las grandes empresas tecnológicas. Catherine D’Ignazio y Lauren F. Klein defienden una justicia de los datos que reconozca las desigualdades históricas y los diferenciales de poder y que rete al poder existente.

*

data-feminismo-catherine-d'ignazio-y-lauren-f-klein

Data Feminism
Catherine D’Ignazio y Lauren F. Klein
MIT Press, 2020.
453 páginas / 28€

la-mujer-invisible-caroline-criado-perez

La mujer invisible
Caroline Criado Perez
Seix Barral, 2020.
528 páginas / 22,50€

armas-de-destruccion-matematica

Armas de destrucción matemática
Cathy O’Neil
Capitán Swing, 2018.
352 páginas / 19€