Este trabajo busca entender el sistema de requisitos técnicos, epistemologías, instituciones, practicas organizacionales y normas culturas que moldean la toma de decisiones humanas dentro de la investigación del AI.
A pesar de que los beneficios de las herramientas generadas por la inteligencia artificial para el desarrollo son potencialmente impresivos 1, hay criticas fuertes de la AI desde un punto de vista feminista. D’Ignazio y Klein 2, por ejemplo, han mostrado como la información sesgada amplifica la desigualdad de género y racial, mientras que Noble 3 ha escrito sobre como los motores de búsqueda refuerzan el racismo y la misoginia, incluso Eubanks 4 ha mostrada como los sistemas de IT automatizan la desigualdad. Sin embargo, hay mucha menos literatura sobre que específicamente se tiene que cambiar y como se puede lograr.
Para poder ayudar a los investigadores que están contribuyendo a un AI justo, este trabajo pretende tratar de entender los sistemas de requisitos técnicos, epistemologías, instituciones, practicas organizaciones y normas culturales que moldean las decisiones humanas que se hacen dentro de la investigación del AI. Se van a considerar caminos hacia información y AI más justo al considerar otros avances que se han alcanzado con éxito al intentar avanzar la igualdad de género. Finalmente, mencionamos cuales son las direcciones más prometedoras para investigadores de AI y que ayuda les sería útil para considerar e implementar en sus planes.
Pensando en intervenciones para la igualdad de género, necesitamos considerar las preguntas de qué queremos que cambie y como hacerlo.
El qué de las movilizaciones hacia la igualdad de género significa cambio en uno o más de los cuatro cuadrantes del diagrama abajo. En otras palabras, para avanzar en la igualdad de genero en una comunidad o en una organización se requiere de atención a dinámicas “formales” como un incremento de recursos, mejores políticas y otras estructuras formales. También requiere atención a las dinámicas informales como la conciencia sobre las relaciones de poder en los géneros y un cambio de las normas excluyentes. El marco de referencia nos invita hacia un cambio individual y sistemático, ambos mecanismos formales e informales, dinámicas normativas 5 y tratar de entender la naturaleza del cambio y que cambio en particular estamos buscando.
Para ver el como del cambio necesitamos otro marco de referencia. Bennis et. al 6 identificó tres “familias” de estrategias de cambio para los sistemas humanos que trabajan a través de personas, comunidades y organizaciones.
Su categorización de cambio incluye:
-
Coactivo – uso de la ley, políticas o otros medios de presión de cumplimiento. Ejemplo de esto son políticas, cuotas, reformas legales, acciones afirmativas y movilizaciones de mujeres.
-
Racional – uso de la razón y evidencia para convencer a las personas, incluyendo a personas de investigación de políticas, argumentos económicos (sobre como la igualdad de género conlleva a otros resultados importantes) o la importancia de la educación en las niñas mejorando el nivel de la comunidad.
-
Normativo – reconocimiento de dinámicas no racionales resultando el uso de tipos particulares de educación. Este acercamiento incluye esfuerzos educaciones como educación de genero y de diversidad, también esfuerzos más grandes para cambiar las normas culturales en organizaciones.
Este diagrama abajo muestra como estas tres estrategias se combinan y algunos ejemplos de las acciones que se pueden tomar para un AI más justo.
Aquella AI que busque dar buenos resultados requiere de buena información para asegurarse que los outputs de los sistemas de AI sean eficientes y efectivos, al alcanzar las metas de los desarrolladores, y también para prevenir consecuencias no intencionadas o peligrosas. Similarmente, AI feminista requiere buena “información de género” incluyendo información que refleje y haga visible las diferencias en las experiencias, necesidades, oportunidades o contribuciones de las mujeres y hombres, niños y niñas y personas no binarias. La información de genero puede ser cuantitativa o cualitativa, generada a través de métodos convencionales como encuestas, análisis etnográficos o métodos más modernos como información generada a través de celulares, bases de datos de redes sociales, sensores en tiempo real y big data.
Los “huecos de información de género” se han vuelto una preocupación clave dentro de las instituciones de desarrollo y organizaciones, las cuales utilizan el termino para referirse a información que está faltante o no disponible, ya que se relaciona al marco de referencia de las Naciones Unidas para un desarrollo sostenible o los indicadores de desigualdad de genero y sobre como crear un cambio positivo. Varias instituciones han mapeado los huecos de información de genero a través de las metas del modelo de desarrollo sostenible de las Naciones Unidas 7, demostrando por ejemplo en la falta de información comparable, diferenciada de género, en la cantidad de personas viviendo debajo del 50% del ingreso medio (SDG 10), o la información de género en los índices de violencia sexual (SDG 5). De hecho, estadísticas nacionales oficiales no están separadas por género en muchos lugares (y mucho menos separadas por otros factores sociodemográficos como la etnia, raza o discapacidad) 8. Estadísticas oficiales, no muchas veces, son formadas en temas que importan para crear leyes para la igualdad de género, tales como acceso a salud materna o cuido no remunerado.
Los huecos de información de género, la falta de calidad o información útil en información de género, y la información no utilizada existen por diversas razones. Es posible imaginarse las razones del por qué esta faltante de información existe usando el marco de referencia analítico mencionado arriba y sus cuatro categorías: conciencia y capacidades, recursos, leyes formales y reglas y normales informales y practicas excluyentes. Al darle sentido a los huecos de información de género de esta manera tal vez podamos encontrar maneras prácticas de superarlos.
Primeramente, incluso información básica de género puede simplemente estar “faltante” o no disponible. Las oficinas nacionales de estadísticas (NSOs), la base para crear leyes basadas en información y colocación de recursos, por ejemplo, puede estar faltante de una orden para recolectar y compartir información basada en género-desagregado. Adicionalmente, las leyes formales y reglas que gobiernan las instituciones tienen prioridades, esto puede ser un problema de insuficientes recursos financieros para producir información de género, lo cual puede impactar negativamente la frecuencia y el tiempo en el cual las estadísticas de género son recolectadas. Por ejemplo, la decisión de no recolectar información en tiempo no remunerado y en la contribución que el tiempo no remunerado hace en el producto interno bruto, puede reflejar las actitudes y creencias sobre que el trabajo no remunerado sea “trabajo de mujeres”, natural y de poco valor en los sistemas económicos.
Segundo, la información de genero puede existir, pero puede no ser útil para el propósito de creación de leyes feministas, diseño de programas o abogacía, por una diversa cantidad de razones, muchas que tienen que ver con calidad. El discurso alrededor de la información de genero muchas veces combina genero con “Mujeres”, por ejemplo, y información de genero con estadísticas de género-desagregado. La producción de información de genero de calidad, sin embargo, no es un ejercicio simple de “contar mujeres” – requiere un rigor metodológico y una familiaridad profunda con las formas en las que el poder opera en la vida de los individuos, incluyendo hombres y niños, y también personas no binarias, en especifico en contextos sociales, económicos, políticos y geográficos 9.
La información de género puede ser un problema de capacidad y conciencia. La información de género de calidad requiere que los investigadores y los científicos de datos muestren un conocimiento del sesgo de genero incrustado en la “información cruda” con la que se trabaja, en definiciones, clasificaciones, hipótesis, preguntas de investigación, en metodologías de recolección de información y en muestras de la población 10. No todos los científicos de datos, investigadores y analistas de leyes tienen entrenamiento en esta área de producción y interpretación de información de género, teorías feministas de cambio y por lo tanto no toda la información de género es de calidad y útil.
Información de mala calidad también puede ser un resultado de normas informales y practicas excluyentes, ejemplificados en bases de datos con sesgos ya dentro de ellas y representatividad limitada. Por ejemplo, información oficial en femicidios muchas veces no cuenta todos los asesinatos de mujeres, una dinámica que puede ser impulsada por la impunidad en el sistema de justicia, al igual que la discriminación contra mujeres pobres y racializadas 11.
Finalmente, la información de genero puede existir, pero no estar siendo usada. Cuando se requiere producir bases de datos con tecnología de punta, la falta de recursos dentro de las organizaciones feministas y otros sectores sociales simpatizantes con la causa puede ser una barrera significante 12. Las organizaciones de desarrollo feminista están crónicamente con falta de recursos y los científicos de datos son caros. Esto significa que las organizaciones feministas pueden estar incapaces de costearse científicos de datos, lo cual incluye competir con compañías de tecnología que pueden proveer un incentivo financiero mucho más grande. Cuando se trata de bases de datos producidas digitalmente, también puede hacer poca comunicación y una falta de confianza (muchas veces por sus buenas razones) entre las organizaciones feministas y aquellos que manejan la información. Organizaciones orientadas a alcanzar la igualdad de genero muchas veces tiene muy poca visibilidad de cuales bases de datos las compañías poseen, los términos bajo los cuales la información puede ser compartida, y otros recursos importantes relacionados a la información los cuales la comunidad tecnológica pueden hacer disponibles 13. Dialogo productivo se necesita para brear la base del entendimiento muto desde el cual se puede diseñar tecnología e intervenciones asistidas de esta que producen y crean información de género de alta calidad. Estos problemas de reglas formales y políticas que prohíben relaciones cercanas de trabajo (ej. acuerdos de confidencialidad, regulaciones de intercambio de información), al igual que problemas de conciencia y capacidades para comunicarse entre instituciones y múltiples disciplinas.
La falta de confianza puede estar basada en diferencias de motivos: organizaciones feministas están orientadas hacia lograr una igualdad de género (y pueden tener metas secundarias de proveer empleo, salvar el ambiente, mejorar la tasa de alfabetización, hacer ganancias, etc..). En contraste, las corporaciones que producen bases de datos típicamente están motivadas a hacer ganancias y multiplicar las inversiones de sus accionistas. Las organizaciones feministas están en lo corrector de tener dudas y preocupaciones acerca del compromiso que tienen estas corporaciones para garantizar los derechos de las mujeres y niñas, garantizando la privacidad y seguridad de las mujeres y niñas como una prioridad en sus productos y bases datos.
Finalmente, incluso cuando existe información de género de buena calidad, simplemente puede ser ignorada, significando una brecha la voluntad política y un problema de normales informales y practicas excluyentes que no les dan prioridad a los problemas de la brecha de género. Tal vez no hay mejor ejemplo que el caso de la violencia de género, para la cual mucha información ha existido por mucho tiempo, aun así, los servicios que responden a estos problemas están crónicamente sin recursos y son los primeros en ser cancelados en tiempos de austeridad.
La falta de información de calidad y la falta de uso de este tipo de información son dos problemas detrás del AI sesgado. Para los investigadores de AI que buscan crear AI feministas, acceso a la información, calidad y accesibilidad son puntos clave para estos esfuerzos. Identificar los motivos detrás de estas brechas específicas de información puede ayudarnos a motivar esfuerzos para resolverlas.
Dadas estas barreras, ¿los caminos tradicionales para el cambio funcionan en este contexto?
Hasta ahora, hemos (a) considerado marcos de referencia teoréticos para el cambio social, y (b) examinado brechas de información de género como barreras para la inteligencia artificial feminista. Ahora, esta sección se va a dirigir a ejemplos de acción feminista que han resultado en producción de información de calidad de género o inteligencia artificial feminista. Leemos a Bennis, Benne y Chin y sus “familias” de estrategias de cambio sociales para categorizar y analizar como los individuos, comunidades y organizaciones se están moviendo mas allá de identificar el problema, para resolverlo.
Siendo consistentes con el modelo de Bennis, Benne y Chin para el cambio social, estos ejemplos ilustran la importancia de encontrar el balance entre estrategias coactivas, racionales y normativas.
Por ejemplo, en los últimos años los grupos feministas de agricultura en Brasil han hecho presión para la documentación de la producción de mujeres agriculturas para poder hacer más visible la contribución de las mujeres a la economía del país 14. Una falta de información separada por género en la producción de pequeños empresarios ha hecho en otras ocasiones invisible la capacidad de producción de las mujeres y, por ende, sistemáticamente han sido despreciadas económicamente. A través de registros, los cuales las mujeres ahora pueden usar para documentar sus producciones diarias y ventas, las agriculturas han ganado acceso a financiamiento para familias de agricultores y ahora son elegibles para participar en descuentos de comida para familias de agricultores. Eso es un ejemplo de como los grupos feministas de agricultoras usando estrategias coactivas para incluir la producción de mujeres agriculturas en las estadísticas nacionales. Al enfrentarse a practicas exclusivas, fueron capaces de usar esta nueva información como evidencia de la contribución de las agricultoras a la economía nacional (una estrategia racional), y por lo tanto influenciar las reglas formales y políticas (como el acceso de las mujeres a los servicios estatales).
El CEO de IBM Arvind Krishna, tomó la decisión de no desarrollar más investigaciones o vender software de reconocimiento facial, esto es otro ejemplo de como diversas estrategias son necesarias para crear un cambio positivo hacia AI feminista 15. La decisión de Krishna representa la culminación de diferentes puntos de presión: (a) Investigadores y periodistas utilizaron estrategias racionales y normativas para ilustrar que hacen las tecnologías de reconocimiento facial y porque el uso actual de estas tecnologías representa una amenaza para la sociedad, los derechos humanos y la justicia. Al hacerlo, estos actores también produjeron una plataforma con la cual (b) movimientos sociales fueron capaces de llevar a cabo estrategias coactivas para pedir cambio en las reglas formales y políticas. Particularmente, el impulso masivo que tuvo el movimiento de #BlackLivesMatter y su movilización alrededor de las fuerzas políticas hizo que ciertas compañías como IBM reconocieran sus practicas excluyentes y cambiaran las políticas de la empresa.
Si un acercamiento holístico es necesario para el cambio social es necesario, entonces también es importante que los defensores del AI feminista detecten los huecos en las estrategias para cerrarlas de manera efectiva.
Mimi Onuoha y Diana Nucera “People’s Guide to AI” y el proyecto Allied Media, ambos proveen una accesible introducción al AI y su impacto en la sociedad 16. Como una iniciativa social y educativa, el trabajo de Onuoha y Nucera provee un ejemplo de como superar las barreras de conciencia y capacidades a través de estrategias normativas. Un análisis de la literatura disponible ilustra que aún hay muchos huecos en esta área. Esto es importante ya que sin estrategias normativas (el cambio de actitudes al igual que el pensamiento de por qué este problema importa) es difícil construir un movimiento social fuerte alrededor del AI feminista.
En noviembre del 2018, miles de empleados de Google alrededor del mundo dejaron sus oficinas para protestar públicamente la actitud de la empresa contra el hostigamiento sexual, después de reportes de millones de dólares destinados a ejecutivos acusados de mala conducta 17. Como se describe en Data Feminism, la protesta representó el rechazo que aumentaba dentro de las compañías de tecnología contra la falta de diversidad y la elite, sesgos de hombres blancos en el desarrollo de software, aumentando la falta de políticas contra el hostigamiento sexual lo cual pintaba estas compañías como lugares hostiles para mujeres 18. Esta protesta fue particularmente importante ya que ilustra la posibilidad de estrategias coactivas desde actores internos, los cuales pueden tener una conciencia más grande sobre que necesita cambiar y últimamente aprovechar las estrategias coactivas para demandar tales cambios.
Si estos ejemplos defienden teorías que existen desde hace tiempo de cambio social (ej. estrategias coactivas, normativas y racionales), ¿entonces por qué el cambio en el sector se ve tan aplazado? Patrones en los ejemplos anteriores ayudan a ilustrar los retos únicos a los que se enfrenta las estrategias de cambio social en el contexto de AI feminista.
- Falta de una política clara. Un análisis inicial de la literatura en AI feminista y sus movimientos ilustra la necesidad de tener una política y demandas mucho mas claras, un hueco que esta relacionado muy cercanamente a las barreras identificadas mas arriba. Mucha de la literatura de AI feminista discute “acercamientos” y “principios”, en lugar de defender proyectos específicos de AI feminista.
- De las estrategias analizadas previamente, vemos que aquellas con mayor porcentaje de éxito iniciaron con una claridad de cuales políticas tenían que ser cambiadas. Por ejemplo, la inclusión de parte del gobierno de Brasil de las mujeres en la producción nacional fue una consecuencia de estrategias dedicadas exclusivamente a ese cambio en movimientos sociales. Es difícil aplicar presión y querer un cambio sin saber qué exactamente necesita cambiar.
- Autoridad de alto nivel. Demandar un desarrollo ético y feminista del AI requiere presión interna como externa. La presión externa requiere que aquellas organizaciones que crean y utilizan información (particularmente compañías de tecnología) entiendan cuales reformas se necesitan y por qué. Sin embargo, hay una barrera de autoridad, aquellos que están “calificados” para trabajar con información y tecnologías son presuntos de tener grados altos académicos de prestigio y “saben más” que aquellos ajenos a la industria. Esta barrera de alto nivel muchas veces limita las estrategias racionales y normativas, lo cual en consecuencia limita la posibilidad de estrategias coactivas externas.
- Al reconocer esta barrera para el progreso hacia un AI feminista, podemos ver la importante de (a) estrategias normativas y racionales, como la de Onuoha y Nucera “People’s Guide to AI” y Josie Sword “Feminist Chatbot Design Process (FCDP)” y de la misma manera (b) la necesidad de estrategias coactivas internas (ej. coerción por aquellos que pueden más fácilmente pasar las barreras de autoridades de alto nivel/conocimiento) como fue ilustrado en el ejemplo de la protesta de Google.
- *La incrustación de la tecnología en nuestras vidas. * Las compañías de tecnología continúan siendo uno de los principales lugares para crear cambio hacia un AI feminista. Sin embargo, algunos argumentan que las reformas dentro de los sectores de tecnología continúan siendo pocos ya que la intervención que tiene la tecnología en nuestras vidas es muy grande en nuestra vida diaria. Debido a la dependencia de la tecnología en nuestras carreras y vida diaria, se ha vuelto mucho más difícil boicotear ciertas compañías o construir movimientos sociales fuertes (estrategias coactivas) alrededor de reformas tecnológicas.
- Debido a la incrustación tan fuerte de la tecnología en nuestra vida diaria y los retos para construir movimientos alrededor de reformas para un AI feminista, iniciativas educacionales (estrategias normativas) y demandas claras, apoyadas por evidencia (estrategias racionales) y presión interna (estrategias coactivas) son específicamente importantes. Es más, estas barreras penetrantes al cambio también indican la necesidad de un dialogo abierto entre organizaciones feministas y la comunidad tecnológica 19. El AI feminista requiere que las compañías de tecnología prioricen los derechos humanos y la igualdad de genero en todos los aspectos de su trabajo, no solo mediante información aislada con buenas iniciativas.
La inteligencia artificial requiere de información de alta calidad y representatividad para poder maximizar el uso responsable del AI, y un buen AI feminista requiere buena información de género. Para poder entender mejor los “huecos de información de género” como una principal barrera hacia el AI feminista, construimos desde el marco de referencia de Gender at Work para diagnosticar las dinámicas formales e informales en un nivel individual y sistemático, afectando la calidad, disponibilidad y el uso de la información de género. Sugerimos que, al dirigirse a estas brechas, se requiere una identificación clara de los problemas causantes, los cuales pueden ser múltiples e intersecantes a la vez.
Desde el trabajo de Bennis, Bene y Chin, “familias” para el cambio, discutimos ejemplos emblemáticos para conseguir un AI más justo y feminista. Al hacerlo, también se volvió claro que mientras un balance de estrategias coactivas, racionales y normativas fueron necesarias para resolver las barreras discutidas previamente, también existen barreras únicas retrasando el progreso en esta área. La falta de una plataforma con políticas claras para un AI feminista, junto con la barrera de alto nivel y la incrustación de la tecnología en nuestras vidas, presentan un reto único para el AI feminista, los cuales van a necesitar ser enfrentados para alcanzar un progreso más substancial en el feminismo de datos y su uso.
Basados en esta exploración inicial, los investigadores se han comprometido a entender las raíces del sesgo o “mal” AI, e identificar los caminos para el desarrollo del AI feminista:
-
Reconocer el diverso ecosistema involucrado en la producción de información y su uso, y considerar los diferentes roles que los actores tienen en mantener o en desafiar los huecos de información de género, particularmente, el rol de la sociedad civil en movilizar para el cambio y en maneras de trabajar con los gobiernos para construir un cambio colaborativo.
-
De la misma manera, el uso de diversas herramientas disponibles las cuales son necesarias para crear un cambio social hacia el AI feminista, considerando en particular las dinámicas entre las estrategias coactivas externas e internas, las cuales son criticas para taclear las barreras de alto nivel y su dependencia tan alta es nuestras vidas.
-
Realizar investigación en historias de éxito, ejemplos donde actores feministas han tenido éxito en cerrar huecos de información de género, el uso de esta información y en construir un AI más feminista.
-
Realizar investigación multi disciplinaria colaborativa que una diversas perspectivas y fuerzas no muy comunes en las conversaciones, tales como científicos de datos, desarrolladores, científicos sociales expertos en teoría de género, organizaciones feministas y organizadores de comunidades.
-
Continuar empujando las fronteras de las actuales discusiones sobre qué es un AI feminista, identificar y movilizar alrededor de políticas de AI feminista que incluyan practicas informales y formales, al igual que diferentes niveles de cambio necesarios a nivel individual y sistemático.
Para poder continuar la agenda del desarrollo del AI feminista desde la teoría, la practica y hasta el impacto, abajo mencionamos huecos claves presentes en la actual literatura sobre AI feminista:
-
¿Quién está organizando alrededor del AI feminista, y quien está faltando? ¿Qué significa (y que se necesita) para fortalecer los movimientos sociales alrededor del AI feminista?
-
Como están las organizaciones feministas en diferentes contextos geográficos discutiendo y/o movilizando alrededor del AI feminista? ¿Como están los defensores de la información de género relacionándose con aquellos defensores del AI feminista?
-
¿Cuál es el ciclo de vida de diferentes iniciativas del AI feminista, y cuáles son las barreras particulares?
-
¿Las barreras identificadas en este proyecto (la falta de políticas claras, barreras de alto nivel y la dependencia de tecnología en nuestras vidas) son relevantes en diferentes geografías y contextos?
Nuestro mundo está caracterizado por las normas las cuales son no inclusivas y son mantenidas por relaciones de poder. Frecuentemente prescriben que posible para ciertos grupos e individuos. Influencias que se puede tomar como experiencia, conocimiento e inteligencia. Pueden reforzar estereotipos de género y racismos, lo cual puede llevar a discriminación abierta y encubierta. Sin esfuerzos específicos y sistemáticos para el cambio, las organizaciones relacionadas a la ciencia y a la tecnología van a reforzar y extender las normas que profundizan la exclusión y la discriminación. Las organizaciones estructurales internas muchas veces replican la desigualdad de género, racial y de poder representadas a través de los sistemas. Similarmente, el AI desarrollado por estas organizaciones puede aumentar y amplificar la exclusión o represión del conocimiento de las mujeres y racializar el concepto de “inteligencia”.
Pero las normas pueden cambiarse. Al llegar a un “punto de inflexión”, nuevas normas pueden convertirse más aceptadas.
Azcona, G., and Duerte Valero, S. (2018). Making women and girls visible: Gender data gaps and why they matter. UN Women.
Bennis, W. G., Benne, K. D., & Chin, R. E. (1961). The planning of change: Readings in the applied behavioral sciences.
Cookson, T.P., Fuentes, L., Zulver, J., & Langwworthy, M. (2020). Building Alliances for Gender Equality: How the tech community can strengthen the gender data ecosystem. Ladysmith.
D’Ignazio and Klein (2020). Data Feminism. MIT Press.
Dash, A. (2016) "How do we reform tech?" Human Tech. https://medium.com/humane-tech/how-do-we-reform-tech-581d58ee11fd
Data2x (2020). Mapping gender data gaps: An SDG era update
Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin's Press.
Fergus, J. (2020). These feminist chatbots were designed to combat online abuse. Input. https://www.inputmag.com/culture/these-feminist-chatbots-were-designed-to-combat-online-abuse
Fuentes, L. (2020). “The Garbage of Society”: Disposable Women and the Socio‐Spatial Scripts of Femicide in Guatemala. Antipode, 52(6), 1667-1687.
Fuentes, L., & Cookson, T. P. (2020). Counting gender (in) equality? a feminist geographical critique of the ‘gender data revolution’. Gender, Place & Culture, 27(6), 881-902.
and Cookson 2020
Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. nyu Press.
Onuoha, M & Nucera, D (2018). A People’s Guide to Artificial Intelligence. Allied Media Projects. https://alliedmedia.org/speaker-projects/a-peoples-press
Peters, Jay (2020). IBM will no longer offer, develop, or research facial recognition technology. The Verge. https://www.theverge.com/2020/6/8/21284683/ibm-no-longer-general-purpose-facial-recognition-analysis-software
Rao, A., Sandler, J., Kelleher, D., & Miller, C. (2015). Gender at work: Theory and practice for 21st century organizations. Routledge.
Smith, M. and Nepeune, S. (2018). Artificial intelligence and Human Development: Toward a research agenda, IDRC.
Swords, Jose (2017). Designing Feminist Chatbots. https://drive.google.com/file/d/0B036SlUSi-z4UkkzYUVGTGdocXc/view
UN Women (2020). Families in a Changing World: Progress of the World's Women 2019-2020. https://www.unwomen.org/en/digital-library/progress-of-the-worlds-women
UN Women (2018). Turning promises into action: Gender equality in the 2030 Agenda for Sustainable Development
Wakabayashi, D; Griffith, E; Tsang, A; and Conger, K (1 November 2018). Google Walkout: Employees Stage Protest Over Handling of Sexual Harassment. New York Times. https://www.nytimes.com/2018/11/01/technology/google-walkout-sexual-harassment.html
Footnotes
-
Smith, M. (2018). Artificial intelligence and Human Development: Toward a research agenda, IDRC. ↩
-
D’Ignazio and Klein (2020). Data Feminism. MIT Press. ↩
-
Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. nyu Press. ↩
-
Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin's Press. ↩
-
Rao, A., Sandler, J., Kelleher, D., & Miller, C. (2015). Gender at work: Theory and practice for 21st century organizations. Routledge. ↩
-
Bennis, W. G., Benne, K. D., & Chin, R. E. (1961). The planning of change: Readings in the applied behavioral sciences. ↩
-
UN Women (2018). Turning promises into action: Gender equality in the 2030 Agenda for Sustainable Development; Data2x (2020). Mapping gender data gaps: An SDG era update ↩
-
Azcona, G., and Duerte Valero, S. (2018). Making women and girls visible: Gender data gaps and why they matter. UN Women. ↩
-
Fuentes, L. (2020). “The Garbage of Society”: Disposable Women and the Socio‐Spatial Scripts of Femicide in Guatemala. Antipode, 52(6), 1667-1687. ↩
-
see D’Ignazio and Klein 2020 ↩
-
see Fuentes 2020 ↩
-
Cookson, T.P., Fuentes, L., Zulver, J., & Langwworthy, M. (2020). Building Alliances for Gender Equality: How the tech community can strengthen the gender data ecosystem. Ladysmith. ↩
-
Cookson et al 2020 ↩
-
UN Women (2020). Families in a Changing World: Progress of the World's Women 2019-2020. https://www.unwomen.org/en/digital-library/progress-of-the-worlds-women ↩
-
Peters, Jay (2020). IBM will no longer offer, develop, or research facial recognition technology. The Verge. https://www.theverge.com/2020/6/8/21284683/ibm-no-longer-general-purpose-facial-recognition-analysis-software ↩
-
Onuoha, M & Nucera, D (2018). A People’s Guide to Artificial Intelligence. Allied Media Projects. https://alliedmedia.org/speaker-projects/a-peoples-press ↩
-
Wakabayashi, D; Griffith, E; Tsang, A; and Conger, K (1 November 2018). Google Walkout: Employees Stage Protest Over Handling of Sexual Harassment. New York Times. https://www.nytimes.com/2018/11/01/technology/google-walkout-sexual-harassment.html ↩
-
D’Ignazio and Klein (2020). Data Feminism. MIT Press. ↩
-
Cookson et al 2020 ↩