Un ex empleado de Meta dice que la empresa del Senado no protegió la seguridad de los adolescentes

Un ex empleado de Meta testificó el martes ante un subcomité del Senado de Estados Unidos, alegando que la empresa matriz de Facebook e Instagram estaba al tanto del acoso y otros daños que enfrentan los adolescentes en sus plataformas, pero no abordarlos.

El empleado, Arturo Béjar, trabajó en bienestar para Instagram de 2019 a 2021 y anteriormente fue director de ingeniería del equipo Protect and Care de Facebook de 2009 a 2015, dijo.

Bejar testificó ante el Subcomité Judicial del Senado sobre Privacidad, Tecnología y Derecho en una audiencia sobre las redes sociales y su impacto en la salud mental de los adolescentes.

«Es hora de que el público y los padres comprendan el verdadero nivel de daño que representan estos ‘productos’ y es hora de que los usuarios jóvenes tengan las herramientas para denunciar y reprimir el abuso en línea», dijo en comentarios escritos disponibles antes de la audiencia.

El testimonio de Bejar se produce en medio de un impulso bipartidista en el Congreso para aprobar una legislación que requeriría que las plataformas de redes sociales proporcionen a los padres herramientas para proteger a los niños en línea.

El objetivo de su trabajo en Meta era influir en el diseño de Facebook e Instagram de manera que impulsara a los usuarios hacia comportamientos más positivos y proporcionara herramientas para que los jóvenes manejaran experiencias desagradables, dijo Bejar en la audiencia.

Meta dijo en un comunicado que está comprometido a proteger a los jóvenes en línea, señalando su respaldo a las mismas encuestas de usuarios que Bejar citó en su testimonio y su creación de herramientas como notificaciones anónimas de contenido potencialmente dañino.

«Cada día, innumerables personas dentro y fuera de Meta trabajan en cómo ayudar a mantener seguros a los jóvenes en línea», dice el comunicado de Meta. «Todo este trabajo continúa».

Bejar dijo a los senadores que se reunía periódicamente con altos ejecutivos de la empresa, incluido el director ejecutivo Mark Zuckerberg, y los consideraba que apoyaban el trabajo en ese momento. Sin embargo, concluyó posteriormente que los directivos habían decidido «una y otra vez no abordar este problema», testificó.

En un correo electrónico de 2021, Bejar señaló a Zuckerberg y a otros altos ejecutivos datos internos que revelaban que el 51% de los usuarios de Instagram habían informado haber tenido una experiencia mala o dañina en la plataforma en los últimos siete días. Entre ese grupo, el 24,4% de los niños de entre 13 y 15 años habían informado haber recibido insinuaciones sexuales no deseadas.

Un documento separado mostró que el 13% de todos los usuarios de Instagram de 13 a 15 años encuestados dijeron que habían recibido insinuaciones no deseadas.

Bejar también les dijo a los ejecutivos que a su propia hija de 16 años le habían enviado comentarios misóginos y fotografías obscenas, sin herramientas adecuadas para reportar esas experiencias a la empresa. La existencia del correo electrónico fue reportada por primera vez por el Wall Street Journal.

En su testimonio, Bejar relató que en una reunión, el director de productos de Meta, Chris Cox, pudo citar estadísticas precisas sobre los daños a los adolescentes que se le ocurrían.

«Me pareció desgarrador porque significaba que lo sabían y que no estaban actuando en consecuencia», dijo Béjar. Bejar se reunió la semana pasada con dos senadores que patrocinan la Ley de Seguridad Infantil en Línea y dijeron que compartía evidencia de que los ejecutivos de Meta ignoraban el daño a los jóvenes en las plataformas de la compañía.

Informe de Katie Paul; Edición de Kenneth Li, Aurora Ellis y Cynthia Osterman

Fuente: reuters

Artículos Relacionados

DEJA UN COMENTARIO:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.