Racismo, machismo y otras desgracias de la falta de diversidad en la industria tecnológica

Durante este confinamiento, he leído dos libros sobre el sesgo de datos. Me preocupa la discriminación, del tipo que sea, y además estos días ha habido un suceso que ha devuelto el tema a las primeras páginas de los periódicos.

Este caso mediático, el asesinato de George Floyd, no tiene mucho que ver ni con mi entorno ni con el UX writing. No obstante, no podemos olvidar que hay racismo en todas partes. Deberíamos ser conscientes de nuestros sesgos y de la falta de diversidad en nuestra industria. Estamos creando productos racistas, machistas, tránsfobos, etc. A veces es inconsciente, pero eso no es disculpa.

Mujeres y hombres y viceversa

Voy a empezar con un ejemplo básico que creo que ilustra bien la cuestión. Seguro que más de una vez te has encontrado en un formulario con una pregunta como esta:

A simple vista, puede parecer que no tenga nada malo, pero hay dos errores graves. El primero es que jamás debes preguntar por el sexo de nadie, a no ser que estemos hablando de un formulario médico o algo similar en el que realmente tengas que saber ese dato biológico. En general, el dato que se quiere recoger no es el sexo, sino el género.

Por si alguien no tiene clara la diferencia, el sexo es una característica biológica, el género una construcción social y cultural. Es una cuestión compleja en la que no voy a meterme ahora. Lo fundamental es entender que hay más de dos sexos y más de dos géneros. Si reduces las opciones a Mujer/Hombre, estás discriminando a muchas personas.

Aquí, una persona que no se sienta representada puede reaccionar de diversas maneras. Quizá se enfadará, se deprimirá o marcará una opción cualquiera. Quizá llegue a escribir un correo a la empresa o presente una queja formal a alguna institución. La cuestión de fondo es que tenemos que tener siempre presentes la diversidad y la inclusividad y luchar porque ninguna persona se sienta excluida o insultada. Otro punto importante es que si no ofreces todas las opciones recogerás datos sesgados.

Pero, ¿qué es el sesgo de datos?

En palabras sencillas, unos datos sesgados son unos datos que no representan la realidad de las personas o fenómeno que se está analizando. No es un tema que vaya solo con los UX writers, es algo que hay que tener en cuenta en todos los equipos, desde el diseño de experiencia de usuario a la programación y el marketing.

Por ejemplo, estos días ha habido un tweet que ha corrido mucho por las redes. Alguien ha implementado un código para recuperar los detalles de rostros pixelados.

El usuario en cuestión, afirmaba haber programado un código para generar imágenes de alta resolución a partir de imágenes de baja resolución pixeladas. No me refiero a cualquier imagen pixelada, sino a imágenes de rostros pixeladas para ocultar la identidad de la persona. Aparte de que esto tiene consideraciones éticas delicadas (si se está ocultado el rostro de alguien es por algo), pronto aparecieron personas que lo habían probado y se quejaban de que solo generaba imágenes de raza blanca.

En este caso, la cuestión es que el progamador no usó muestras de personas de raza negra, por lo que el programa las identifica como blancas. Este es uno de los problemas más generalizados de la inteligencia artificial y el aprendizaje automático. Ha habido casos vergonzosos en empresas muy conocidas, como una herramienta de Google que etiquetaba las fotos de personas negras como «gorilas». La razón no es que Google sea racista, es que las imágenes usadas para entrenar a la herramienta no eran lo suficientemente diversas.

Algunos casos son insultantes sin más, otros, como los relacionados con temas judiciales, pueden arruinar la vida de una persona. En EE. UU., ya habido pruebas con algoritmos que deciden si conceder la libertad provisional, por ejemplo. Algoritmos que han resultado ser racistas y clasistas. Si un adolescente latino de un barrio pobre y un adolescente blanco de un barrio pijo, ambos sin antecedentes, roban alguna tontería, como un paquete de tabaco, adivina a quién va enviar el algoritmo a la cárcel y a quién no.

Al principio mencionaba que he leído dos libros últimamente sobre este tema, y son muy recomendables los dos. Uno habla específicamente del machismo, el otro es más general. Yo los he leído inglés, pero ambos están traducidos al castellano:

Entre los datos, el diseño y la escritura

Aunque temas como los algoritmos y el big data suenen más a programación, estadística y matemáticas que otra cosa, son cuestiones que nos afectan a todas las personas, tanto a nivel laboral como personal. La mayoría de lo que hacemos en nuestro trabajo se basa en mayor o menor medida en datos. Y los datos, por mucho que haya quien se empeñe en decir lo contrario, engañan.

Los datos pueden responder a prejuicios o no ser exactos. Incluso suponiendo que todos los datos que tengamos sobre algo sean «neutrales» o «verdad», dependiendo de la persona que los analice llegará a unas conclusiones u otras. Los algoritmos no tienen prejuicios, pero las personas sí, y los algoritmos, igual que el UX writing, los escriben personas. Por mucho que creamos que somos abiertos y tolerantes, os garantizo que en cualquier equipo en el que haya solo personas blancas de clase media va a haber algún sesgo discriminatorio, aunque sea inconsciente.

Para entender mejor la discriminación en términos de diseño y UX, desde una perspectiva menos técnica que la del big data, recomiendo Technically Wrong: Sexist Apps, Biased Algorithms, and Other Threats of Toxic Tech de Sara Wachter-Boettcher. Este es un libro menos profundo que los otros dos que he mencionado, pero se lee más rápido y es mejor introducción al tema para quienes trabajamos sobre todo en el ámbito digital.

Independientemente de si venimos de un ámbito más creativo o técnico, el consejo fundamental que se saca de todas estas reflexiones sobre los prejuicios de lo digital es que no existe un usuario/a «normal» o «medio», eso que se suele llamar user persona. Si escribimos con esa idea en la cabeza, estamos escribiendo para un ser mitológico. Lo que hay que hacer es escribir y diseñar pensando en todas y en todos, no en una entelequia.

Para que se entienda mejor, voy a poner un ejemplo de un producto físico que puede salvarte la vida. Si diseñas un cinturón de seguridad pensando en un hombre de tamaño medio, no servirá para proteger a una mujer bajita, a un niño de 12 años, a un hombre adulto con acondroplasia o a un hombre obeso. Lo que necesitas no es un cinturón de seguridad medio, sino un cinturón de seguridad ajustable.

Todos tenemos hándicaps

Ya que he mencionado la acondroplasia, ¿qué pasa con las personas con trastornos genéticos, enfermedades físicas o mentales, minusvalías, etc.? Todos estos grupos suelen pasarse también por alto. ¿Qué pasa si cuando desarrollas un producto digital no piensas en las personas invidentes, por ejemplo? Solo en España, hay unos 3,84 millones de personas con algún tipo de discapacidad.

Estos días, sin ir más lejos, he visto quejas de personas sordas por el hecho de que con el uso generalizado de mascarillas no pueden leer los labios. Otras se quejaban de que ahora muchos hospitales y ambulatorios solo atienden por teléfono y no han adaptado el servicio para las personas con discapacidades auditivas. Estos son problemas de diseño que afectan cada día a cientos de personas. Sin embargo, si no eres sordo o tienes a alguien cercano que lo sea, seguramente ni se te ha pasado por la cabeza.

Incluso aunque seas una persona blanca cis heterosexual de clase alta sin ningún problema físico ni mental, en algún momento te vas a encontrar con algún obstáculo. Quizá no puedas usar el ratón porque se te ha roto la mano, o no puedas manejar bien una aplicación del móvil porque estás de pie en medio de la calle con un niño en brazos. Todo eso sin olvidar que nuestros cuerpos se deterioran con la edad, aún sin tener ningún problema, nadie llega a los 90 años con el cuerpo y las facultades que tenía a los 20.

Hagamos un esfuerzo por ser conscientes de la problematica de la discriminación desde todas las esferas. No basta con ser empáticos y pensar en la perspectiva de quien es ajeno a nosotros o a nuestras experiencias vitales. Para crear productos diversos e inclusivos, hay que trabajar en equipos diversos e inclusivos.