Es difícil separar el movimiento Black Lives Matter de las plataformas tecnológicas que proliferan su alcance global..

Darnella Frazier, la joven de 17 años que capturó los últimos momentos de George Floyd, primero compartió el video en Facebook, donde ahora se ha visto más de 1,8 millones de veces. Y, por supuesto, el hashtag #BlackLivesMatter surgió de Twitter en 2013, como respuesta a la absolución de George Zimmerman, quien describió racialmente y le disparó fatalmente al adolescente afroamericano Trayvon Martin.

Para 2016, el hashtag #BlackLivesMatter apareció 30 millones de veces, según el Centro de Investigación Pew. La investigación actualizada de Pew muestra que el hashtag apareció 47.8 millones de veces entre el 26 de mayo y el 7 de junio, lo que no es sorprendente dado su apoyo internacional, incluido el aumento de los fanáticos del K-Pop que usaron hashtags de contramovimientos anti-BLM para ahogarse El discurso del odio.

¿Pero qué sucede cuando el tema deja de ser tendencia??

El poder viral de las redes sociales lo convierte en un sitio ideal para el activismo. Movimientos pasados ​​como Extinction Rebellion, #MeToo y la Primavera Árabe lo han hecho evidente. ¿Pero qué sucede cuando el tema deja de ser tendencia??

¿Cómo pueden las empresas como Facebook y Twitter ir más allá de ser simplemente espacios que faciliten la conversación??

Muchas de estas plataformas han mostrado su apoyo al movimiento, aunque variado. Facebook anunció que donaría $ 10 millones a «grupos que trabajan en justicia racial», mientras que YouTube dijo que donaría $ 1 millón al Centro para la Equidad Policial, al igual que Netflix.

Twitter ha agregado #BlackLivesMatter a su biografía, pero no ha prometido ninguna donación.

¿Por qué la solidaridad y las donaciones no son suficientes?

Sentados en la mira de la influencia social, política y económica, estos monolitos tecnológicos tienen el poder de realizar los cambios sistémicos que exige Black Lives Matter, comenzando desde dentro.

Una forma para que Big Tech tenga un impacto duradero es contrarrestando activamente sus propios sesgos estructurales, tanto en términos de sus productos como de sus desarrolladores. Los dos van de la mano, después de todo.

Un estudio de Cornell de 2019 identificó que la IA de monitoreo de Twitter estaba sesgada en contra de los usuarios afroamericanos, y los tweets de usuarios negros tienen más probabilidades de ser etiquetados como discurso de odio en comparación con los usuarios blancos de la plataforma.

Leer también  Fitbit Charge 4 vs Versa 2

«Estos sistemas se están desarrollando para identificar el lenguaje que se utiliza en línea para las poblaciones marginadas», dijo Thomas Davidson, autor principal del estudio y candidato a doctorado. «Es extremadamente preocupante si los mismos sistemas discriminan contra la población para la que están diseñados».

Los prejuicios en el aprendizaje automático no son nada nuevo. Solo mira la tecnología de reconocimiento facial.

El año pasado, The New York Times informó que los algoritmos de aprendizaje automático en los sistemas de reconocimiento facial tienen 10 a 100 veces más probabilidades de identificar falsamente rostros afroamericanos y asiáticos, en comparación con los rostros caucásicos, según un estudio realizado por el Instituto Nacional de Estándares y Tecnología.

Rekognition de Amazon demostró tener prejuicios raciales. Imagen obtenida del sitio de Reekognition.

Pero estos sesgos a menudo tienen su origen en líneas de base establecidas por personas.

Como explica Harvard Business Review, esto puede deberse a la capacitación del software de aprendizaje automático con datos asimétricos, es decir, datos imbuidos de prejuicios sociales e históricos existentes..

Las muestras de datos también pueden ser defectuosas, con ciertos grupos más representados o menos representados que otros..

Como resultado de las protestas de Black Lives Matter, IBM anunció el 8 de junio que dejaría de desarrollar e investigar software de reconocimiento facial de uso general.

El CEO de la compañía, Arvind Krishna, dijo en una carta al Congreso de los Estados Unidos que «IBM se opone firmemente y no tolerará el uso de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, el perfil racial, las violaciones de los derechos humanos y las libertades básicas , o cualquier propósito que no sea consistente con nuestros valores y Principios de Confianza y Transparencia «.

Siguiendo el ejemplo, Amazon anunció que prohibiría el uso de su controvertido software de reconocimiento facial Rekognition por parte de la policía durante un año, hasta que existan regulaciones más estrictas..

Rekognition mostró prejuicios contra las personas negras y de piel más oscura, como descubrió Joy Buolamwini, investigadora del MIT Media Lab, en 2019.

Si bien estos movimientos van en la dirección correcta, Big Tech puede abordar de manera más activa sus puntos ciegos y sesgos mediante la contratación de más ingenieros, codificadores y científicos negros..

Leer también  Los mejores auriculares inalámbricos True Budget

La falta de diversidad en Silicone Valley es evidente. Sigue siendo predominantemente blanco o asiático y masculino, y el progreso hacia la inclusión ha sido lento.

En 2018, menos del 3% de los empleados de Uber, Twitter, Google y Facebook se identificaron como negros. El informe anual de diversidad de Facebook de 2019 mostró que los empleados negros aumentaron de 3.5% a 3.8% en toda la compañía. Solo el 1.5% de sus roles técnicos fueron ocupados por personas negras en 2019, frente al 1.3% del año anterior.

Como consumidores de tecnología y participantes en las redes sociales, debemos esperar más de Big Tech y estar atentos. Debemos asegurarnos de que la solidaridad que ofrecen hoy no se convierta en una retórica vacía mañana. Los cambios no sucederán de la noche a la mañana. Pero deben suceder.