Reloj Tendencioso: Diversidad Artificial
Arantza Jaso//
La industria de la moda nunca ha sido realista. Kate Moss tenía tan solo 14 años cuando fue descubierta. El exángel de Victoria Secret Karlie Kloss mide 1,88 metros. Las dietas de las supermodelos de los 90 consistían en no comer hidratos (o no comer directamente).
Tan pronto como el body positivity se deshizo de arquetipos oxidados, apareció Bella Hadid abanderando la talla 34, 1,75 metros de estatura y una desesperanzadora dieta a base de chupitos de jengibre y salteados de kale. En respuesta al regreso de normatividad obsoleta en las pasarelas, ¿cuáles han sido las medidas que han tomado las grandes marcas? Pasarle el muerto a las inteligencias artificiales.
Tiktok ha viralizado una nueva campaña protagonizada por modelos generadas a través de IA. LEVI’S ha colaborado con LALALAND y ha creado una experiencia de compra “más inclusiva”, sustituyendo modelos de carne y hueso por prototipos virtuales que, en teoría, personifican todas las multiplicidades del espectro de la diversidad.
LEVI’S ya se ha disculpado e insisten en la idea de que no pretendían usar esta publicidad con IA como “un medio para promover la diversidad o como un sustituto de la acción real que se debe tomar para cumplir con los objetivos de diversidad, equidad e inclusión”.
En la campaña, a simple vista, no parece haber ningún retroceso cultural. El problema viene cuando confundimos “diversidad” por “visibilidad”, olvidando que no puede existir diversidad en algo que no conlleva una “inclusión” pura y transversal. ¿Qué importa el color de piel de la chica de la portada si la mano creativa que sujeta el aerógrafo digital es blanca?
La diversidad sin inclusión no funciona, e incluso resulta contraproducente. No sirve de nada que las grandes corporaciones manden ilustrar un séquito de modelos étnica y culturalmente heterogéneo, si en el proceso se excluye de los puestos de trabajo a las personas que étnica y culturalmente le darían sentido y justicia a esos diseños.
Los datos hablan por sí solos. El Foro Económico Mundial informa de que alrededor del 78% de los profesionales globales con habilidades de IA son hombres blancos. Para construir una solución de IA que sea verdaderamente justa con la realidad que le rodea, el sector tecnológico necesita una gama más amplia de perspectivas y variedad de pensamientos, en particular para tomar conciencia de todas las fuerzas potenciales que se necesitan para contribuir al éxito.
Hace unos meses, la situación se repetía con Shudu, la modelo negra creada por un blanco que se extendió por el algoritmo de la plataforma china. “¿Qué pasa con las personas negras, reales y hermosas que han sido excluidas por la industria?”, se pregunta la abogada y presentadora estadounidense Sunny Hostin. ¿Qué pasa con las maquilladoras, las peluqueras, las fotógrafas, etc., de colectivos minoritarios que se quedan sin trabajo si el ordenador se inventa a la persona que posa?
Hasta aquí, hemos hablado de lo que “racialmente” es susceptible de ser cuestionado si más mentes pensantes de tez pálida se lucran de rasgos físicos que nada tienen que ver con los suyos. Pero para completar el proceso de la “inclusión”, hay que entrenar a la máquina por y para ella.
Además de con grandes cantidades, las inteligencias artificiales aprenden mediante datos de calidad: precisos, limpios, equilibrados y representativos. La imparcialidad o el sesgo (como que solo se generasen prototipos de modelos blancas) ocurre cuando los datos de entrenamiento no representan completamente la diversidad de una población general. Un conjunto de datos puede estar sesgado hacia, por ejemplo, cierto género, raza o clase, y tiene una probabilidad muy alta de crear un modelo inexacto como consecuencia.
Por ello, los científicos de datos procuran ser cautelosos en las etapas de recopilación y evaluación de los datos, para garantizar que estos sean diversos, equilibrados e, idealmente, cubran casos que “se salgan de la norma” -sin sobrepasar límites éticos como puede ser la apariencia de la edad-.
“Un sistema de sesgo inconsciente ocurre cuando no tienes diversidad, cuando no tienes personas en la sala para decir, ‘bueno, demos un paso atrás con estos datos’, porque lo que sucede es que las personas están usando datos históricos (anticuados) para resolver problemas actuales (progresistas)”, indicaba Angle Bush, fundadora de Black Women in A.I., una empresa que brinda educación y recursos a mujeres negras en el campo.
No se me ocurre nada más peligroso que pasar de una Kate Moss menor de edad protagonizando la portada de The Face en tetas, a un rostro de edad indeterminada en el límite de la legalidad engendrado por una inteligencia artificial y acaparando portales digitales desprotegidos de antivirus y decoro.
El primer martes de cada mes, Arantza Jaso nos trae un artículo sobre las últimas tendencias o novedades de Tiktok, no te pierdas su Reloj Tendencioso.