El 31 de agosto, el veterano del ejército de los EE. UU. Ronnie McNutt se quitó la vida mientras transmitía en vivo en Facebook. Desde entonces, la transmisión se eliminó, pero no antes de que el video se volviera a publicar y compartir en otros sitios, lo que finalmente se volvió viral en TikTok a principios de esta semana. Combine la incapacidad de Facebook para detener la transmisión y la lucha de TikTok con el contenido viral, y está claro que sus esfuerzos para detener la propagación del contenido dañino no están funcionando. 

El problema se originó en Facebook, según Josh Steen, amigo de McNutt, quien actualmente lidera una campaña #ReformForRonnie para responsabilizar a las empresas de redes sociales. Steen dijo Snopes que había informado de la transmisión en vivo a Facebook mientras McNutt todavía estaba vivo, pero que no recibió noticias de la compañía hasta que fue demasiado tarde. Incluso entonces, recibió una respuesta automática que decía que el video no violaba los estándares de la comunidad. 

«Ronnie había fallecido durante casi una hora y media cuando recibí la primera notificación de Facebook de que no iban a eliminar el video [.] ¿qué tipo de estándares son esos?» Steen dijo Snopes

A principios de esta semana, Facebook emitió la siguiente declaración: «Eliminamos el video original de Facebook el mes pasado el día en que se transmitió y hemos utilizado tecnología de automatización para eliminar copias y cargas desde ese momento». 

Wachiwit a través de Getty Images

Posteriormente, el 10 de septiembre, la empresa informó Snopes que el video estuvo en el sitio durante dos horas y 41 minutos antes de ser eliminado. «Estamos revisando cómo podríamos haber realizado la transmisión en vivo más rápido», dijo en un comunicado. Esas dos horas y 41 minutos, Steen le dijo a Snopes, no es una respuesta lo suficientemente rápida y es completamente inaceptable ya que amigos y familiares se vieron afectados por el video. 

Durante ese tiempo, el video se volvió a publicar en otros grupos de Facebook y, según Vicio, se extendió a foros marginales como 4chan. Los usuarios de esos sitios luego volvieron a compartir el video en Facebook, así como en otros lugares como Twitter y YouTube. Pero es en TikTok donde el video realmente se volvió viral. 

Una de las posibles razones de esta propagación es el algoritmo de TikTok, al que a menudo también se le atribuye el éxito de la aplicación. La característica principal de TikTok es su página Para ti, un flujo interminable de videos diseñados específicamente para ti, en función de tus intereses y compromiso. Debido a este algoritmo, a menudo es posible que desconocidos completos se vuelvan virales y triunfen en TikTok, mientras que pueden tener problemas para hacerlo en otras redes sociales. 

En una publicación de blog publicada en junio, TikTok dijo que cuando se carga un video en el servicio, primero se muestra a un pequeño subconjunto de usuarios. Según su respuesta, como ver todo o compartirlo, el video se comparte con más personas que podrían tener intereses similares, y luego se repite ese ciclo de retroalimentación, lo que hace que el video se vuelva viral. También se consideran otros elementos como clips de canciones, hashtags y subtítulos, por lo que a menudo los usuarios agregan el hashtag «#foryou» para ingresar a la página For You; si las personas interactúan con ese hashtag, entonces se les podría recomendar más videos con la misma etiqueta. 

Leer también  Tesla aumentará la aceleración de su Model Y por $ 2,000

Anatoliy Sizov a través de Getty Images

En otras palabras, al usar ciertos clips de canciones populares, hashtags y subtítulos, podría «jugar» el algoritmo de TikTok y engañar a las personas para que vean el video. Aunque TikTok no ha dicho que eso es lo que sucedió en este caso, ciertamente es una posibilidad. También es muy posible que a medida que se difundió la historia del video, la gente simplemente haya buscado el video por su cuenta para satisfacer una curiosidad mórbida, lo que a su vez lo incita a ser recogido en la página For You una y otra vez.  

TikTok, por su parte, ha estado trabajando para bloquear el video y eliminarlo desde que comenzó a aparecer el domingo. En un comunicado decía:

Nuestros sistemas, junto con nuestros equipos de moderación, han estado detectando y eliminando estos clips por violar nuestras políticas contra contenido que muestra, alaba, glorifica o promueve el suicidio. Estamos prohibiendo las cuentas que intentan cargar clips repetidamente, y agradecemos a los miembros de nuestra comunidad que han informado de contenido y advirtieron a otros que no vean, participen o compartan dichos videos en cualquier plataforma por respeto a la persona y su familia. Si alguien en nuestra comunidad está luchando con pensamientos suicidas o está preocupado por alguien que lo está, lo alentamos a buscar apoyo y brindamos acceso a líneas directas directamente desde nuestra aplicación y en nuestro Centro de seguridad.

Pero la empresa lo está pasando mal. Los usuarios siguieron descubriendo soluciones alternativas, como compartir el video en los comentarios o disfrazarlo en otro video que inicialmente parece inocuo. 

Sin embargo, al mismo tiempo, TikTok ha visto una oleada de videos que tienen como objetivo convertir a las personas lejos del video. Algunos usuarios, así como creadores destacados, han comenzado a publicar videos de advertencia, en los que dirían algo como «si ves esta imagen, no mires, sigue desplazándote». Aquellos Los videos también se han vuelto virales, lo que la compañía parece respaldar. 

En cuanto a por qué la gente transmite estos videos en primer lugar, lamentablemente eso es algo inevitable. “Todo lo que sucede en la vida real ocurrirá en plataformas de video”, dijo Bart Andrews, director clínico de Behavioral Health Response, una organización que brinda asesoramiento telefónico a personas en crisis de salud mental. “A veces, el acto no es solo el final de la vida. Es una comunicación, un mensaje final para el mundo. Y las redes sociales son una forma de hacer llegar su mensaje a millones de personas «.

«La gente se ha acostumbrado tanto a vivir su vida en línea y a través de las redes sociales», dijo Dan Reidenberg, director ejecutivo de la organización sin fines de lucro SAVE (Suicide Awareness Voices of Education). «Es una extensión natural para alguien que podría estar luchando por pensar que ahí es donde pondrían eso». A veces, dijo, poner estos pensamientos en las redes sociales es en realidad algo bueno, ya que ayuda a advertir a amigos y familiares que algo anda mal. “Envían un mensaje de angustia y reciben mucho apoyo o recursos para ayudarlos”. Desafortunadamente, sin embargo, ese no es siempre el caso, y el acto se lleva a cabo independientemente. 

Leer también  Alguien compró el nuevo Chromecast y le contó todo a Reddit

Por lo tanto, corresponde a las plataformas de redes sociales encontrar soluciones sobre cómo prevenir mejor tales actos, así como evitar que se compartan. Desafortunadamente, Facebook conoce bien el problema, ya que se han producido varios incidentes de suicidio y asesinato en su plataforma de transmisión en vivo en los últimos años. 

Soe Zeya Tun / reuters

Sin embargo, Facebook ha tomado medidas para superar este problema, y ​​Reidenberg cree que es el líder en el mundo de la tecnología en este tema. (Fue una de las personas que lideró el desarrollo de las mejores prácticas de prevención del suicidio para la industria de la tecnología). Facebook proporcionó preguntas frecuentes sobre la prevención del suicidio, contrató a un experto en salud y bienestar para su equipo de políticas de seguridad y proporcionó una lista de recursos siempre que alguien busca suicidio o autolesión, y lanzó una herramienta de prevención del suicidio basada en inteligencia artificial que supuestamente puede detectar comentarios que probablemente incluyan pensamientos suicidas. 

Facebook incluso ha integrado herramientas de prevención del suicidio en Facebook Live, donde los usuarios pueden comunicarse con la persona y reportar el incidente a la empresa al mismo tiempo. Sin embargo, Facebook ha dicho que no interrumpirá la transmisión en vivo, porque podría «eliminar la oportunidad de que esa persona reciba ayuda». Aunque eso es controvertido, Andrews apoya esta noción. «Entiendo que si esta persona todavía está viva, tal vez haya esperanza, tal vez haya algo que pueda suceder en el momento que le impida hacerlo». 

Pero desafortunadamente, como es el caso de McNutt, también existe el riesgo de exposición y error. Y el resultado puede ser traumático. «Hay algunos casos en los que la tecnología no ha avanzado lo suficientemente rápido como para poder evitar necesariamente que se muestre cada cosa mala», dijo Reidenberg.

“Ver este tipo de videos es muy peligroso”, dijo Joel Dvoskin, psicólogo clínico de la Facultad de Medicina de la Universidad de Arizona. “Uno de los factores de riesgo de suicidio es si alguien de tu familia [murió por] suicidio. Las personas que ves en las redes sociales son como miembros de tu familia. Si alguien está deprimido o vulnerable o ha pensado en ello, [ver el video] lo hace más destacado como una posibilidad «.

Dado Ruvic / Reuters

En cuanto a esa IA, tanto Reidenberg como Andrews dicen que simplemente no ha hecho un gran trabajo para erradicar el contenido dañino. Tomemos, por ejemplo, la imposibilidad de identificar el video del tiroteo en la mezquita de Christchurch porque fue filmado en primera persona o simplemente la lucha más reciente para detectar y eliminar la información errónea de COVID-19. Además, no importa lo buena que sea la IA, Andrews cree que los malos actores siempre estarán un paso por delante. 

“¿Podríamos tener un programa de inteligencia artificial completamente automatizado que identifique problemas y los bloquee? Creo que mejoraremos en eso, pero creo que siempre habrá formas de eludir eso y engañar al algoritmo «, dijo Andrews. «Simplemente no creo que sea posible, aunque es algo por lo que luchar».

Leer también  Twitter prohíbe al grupo extremista de extrema derecha The Oath Keepers

En lugar de depender únicamente de la inteligencia artificial, tanto Reidenberg como Andrews dicen que una combinación de bloqueo automatizado y moderación humana es clave. «Tenemos que confiar en cualquier IA disponible para identificar que podría haber algún riesgo», dijo Reidenberg. «Y las personas reales, como los moderadores de contenido y los profesionales de la seguridad en estas empresas, deben intentar intervenir antes de que suceda algo malo». 

En cuanto a las nuevas empresas de redes sociales, también deben pensar de forma proactiva sobre el suicidio. “Tienen que preguntarse cómo quieren que se les conozca como plataforma en términos de bien social”, dijo Reidenberg. En el caso de TikTok, espera que se una a una empresa como Facebook, que tiene mucha más experiencia en esta área. Incluso si el video se transmitió en Facebook, no se volvió viral en Facebook porque la compañía logró bloquearlo (la compañía aún podría haber hecho un trabajo mucho mejor al ser más proactivo para eliminarlo mucho antes de lo que lo hizo. ). 

NurPhoto a través de Getty Images

“Cualquier plataforma nueva debe partir de las lecciones de plataformas más antiguas. Qué funciona, qué no y qué tipo de entorno queremos crear para sus usuarios «, dijo Andrews. “Tiene la obligación de asegurarse de que está creando un entorno y normas y de tener mecanismos y algoritmos de informes para asegurarse de que el entorno sea tan fiel a lo que quería ser como pueda hacerlo. Tienes que alentar y empoderar a los usuarios cuando ven cosas que están fuera de la norma, que tienen un mecanismo para informar eso y tienes que encontrar una manera de responder muy rápidamente a eso «.

La respuesta también podría estar en crear una comunidad que se cuide a sí misma. Andrews, por ejemplo, se siente especialmente animado por el hecho de que la comunidad de TikTok se haya levantado para advertir a otros usuarios sobre el video. «Es esta maravillosa versión de los propios anticuerpos de Internet», dijo. “Este es un ejemplo en el que vimos lo peor de Internet, pero también vimos lo mejor de Internet. Estas son personas que no tienen ningún interés personal en hacer esto, advirtiendo a otros, pero hicieron todo lo posible para proteger a otros usuarios de estas imágenes traumáticas «.

Por eso, a pesar de la tragedia y el dolor, Andrews cree que la sociedad se adaptará. «Durante miles de años, los seres humanos han desarrollado un comportamiento a lo largo del tiempo para descubrir qué es aceptable y qué no», dijo. “Pero olvidamos que la tecnología, la transmisión en vivo, todo esto sigue siendo tan nuevo. La tecnología a veces se ha adelantado a nuestras instituciones y normas sociales. Todavía los estamos creando y creo que es maravilloso que lo estemos haciendo «.

En EE. UU, El número de la Línea Nacional de Prevención del Suicidio es 1-800-273-8255. Puede comunicarse con la Línea de texto de crisis enviando un mensaje de texto a HOME al 741741 (EE. UU.), 686868 (Canadá) o 85258 (Reino Unido)