Demandan a las plataformas Roblox y Discord por la explotación sexual de una niña

Según la denuncia, la menor se hizo amiga de un hombre que la animó a beber alcohol y tomar medicamentos y de otro que la convenció de enviar imágenes sexualmente explícitas

Señalización de Roblox Corp. en un ordenador portátil dispuesto en Little Falls, Nueva Jersey, Estados Unidos, el miércoles 9 de diciembre de 2020. Roblox diseña y desarrolla juegos en línea como juegos tridimensionales y tutoriales en Internet. Fotógrafo: Gabby Jones/Bloomberg
Por Joel Rosenblatt - Cecilia D´Anastasio
05 de octubre, 2022 | 09:44 PM
Últimas cotizaciones

Bloomberg — Roblox Corp. (RBLX) y Discord Inc. recibieron una demanda por un caso en el que se alega que una niña de 11 años fue explotada por un depredador sexual mientras jugaba videojuegos en línea. Según la demanda, que fue entablada el miércoles en el tribunal estatal de San Francisco, la menor se relacionó con hombres adultos a través de los servicios de mensajería directa de ambas plataformas, mismas que debían protegerla.

Un comunicado de los abogados del Social Media Victims Law Center, con sede en Seattle, que han presentado numerosos casos de adicción a las redes sociales señalan que la demanda también culpa a Snap Inc. (SNAP) y a Meta Platforms Inc. (META) de los problemas de salud mental de la niña y sus intentos de suicidio.

VER +
Nike se une al metaverso con mundo virtual en plataforma de videojuegos Roblox

“Estos hombres la explotaron sexual y económicamente”, dijo el grupo. “También la introdujeron en las plataformas de medios sociales Instagram y Snapchat, a las que se volvió adicta”.

PUBLICIDAD

Meta declinó hacer comentarios sobre la demanda. Roblox, Discord y Snap no respondieron inmediatamente a las solicitudes de comentarios. Meta y Snap han dicho previamente que están trabajando para proteger a sus usuarios más jóvenes, incluso ofreciendo recursos sobre temas de salud mental y mejorando las salvaguardias para detener la propagación de contenido dañino.

Este año se han presentado más de 80 demandas contra Meta, Snap, TikTok de ByteDance Inc. y Google de Alphabet Inc. (GOOGL) centradas en reclamaciones de adolescentes y adultos jóvenes que han sufrido ansiedad, depresión, trastornos alimentarios e insomnio tras engancharse a las redes sociales. En al menos siete casos, los demandantes son los padres de niños que han muerto por suicidio.

Discord es una aplicación de chat para juegos que tiene 150 millones de usuarios activos mensuales. Popular entre los jóvenes, Discord era conocida como una especie de espacio salvaje en línea. La empresa ha reforzado sus esfuerzos de moderación en los últimos dos años. En 2022, al menos media docena de casos relacionados con material de abuso sexual infantil o de captación de niños citaron a Discord, según una búsqueda de Bloomberg en los registros del Departamento de Justicia.

PUBLICIDAD

Roblox es una plataforma de juegos con más de 203 millones de usuarios activos mensuales, muchos de los cuales son niños. Los jugadores jóvenes han sido introducidos a extremistas en la plataforma, que pueden llevar las conversaciones a otros lugares en línea como Discord o Skype. Roblox cuenta con sólidos esfuerzos de moderación, que incluyen el escaneo del chat de texto en busca de palabras inapropiadas, así como de todas las imágenes virtuales subidas al juego.

La niña demandada, identificada solo con las iniciales S.U., y su familia pretenden responsabilizar económicamente a las empresas de redes sociales por los daños que supuestamente han causado. La familia también quiere una orden judicial que ordene a las plataformas que hagan sus productos más seguros, lo cual, según el Social Media Victims Law Center, puede hacerse mediante las tecnologías existentes y con un tiempo y gasto mínimos para las empresas.

S.U. dijo que poco después de recibir un iPad por Navidad a los 10 años, un hombre llamado Charles se hizo su “amigo” en Roblox y la animó a beber alcohol y tomar medicamentos recetados. Más tarde, animada por los hombres que conoció en Roblox y Discord, S.U. abrió cuentas de Instagram y Snapchat, ocultándolas inicialmente a su madre, según la denuncia.

Aunque aún no tenía 13 años -la edad mínima para tener cuentas en Instagram y Snap según sus condiciones de servicio-, S.U. se volvió adicta a las plataformas hasta el punto de que se conectaba a escondidas en mitad de la noche, lo que le hacía perder el sueño, según la denuncia.

En 2020, S.U. dice que fue víctima de un usuario de Roblox llamado Matthew, un joven de 22 años de Missouri que la convenció para que le enviara imágenes sexualmente explícitas, que supuestamente vendía en línea.

S.U. recurrió en gran medida a la función “My Eyes Only” de Snapchat para ocultar lo que ocurría a su madre, que seguía vigilando el uso de las redes sociales de S.U. pero no conocía My Eyes Only, según la denuncia.

Intentó quitarse la vida en julio de 2020 y de nuevo en agosto de 2020 y sus padres se endeudaron en más de 10.000 dólares en 2021 por gastos relacionados con sus crisis de salud mental, según la denuncia.

El caso es C.U. y S.U. contra Meta Platforms Inc., Tribunal Superior de California, Condado de San Francisco.