Tabla de Contenido
ToggleAMPDos empleados actuales y dos exempleados de Meta entregaron documentos al Congreso de Estados Unidos, denunciando que la compañía pudo haber suprimido investigaciones relacionadas con la protección de la seguridad de los niños en plataformas digitales, según reporta The Washington Post. Esta denuncia genera preocupación sobre la responsabilidad de las empresas tecnológicas en la conservación de la seguridad infantil en internet y en entornos de realidad virtual.
Las acusaciones se centran en que Meta modificó sus políticas para la investigación de temas sensibles —como privacidad infantil, seguridad en redes sociales, contenido para menores, género, raza y acoso— apenas seis semanas después de que la denunciante Frances Haugen filtrara documentos internos en 2021. Estos documentos evidencian que la propia investigación de Meta revelaba que Instagram puede afectar negativamente la salud mental de adolescentes, especialmente niñas, incrementando la discusión sobre el impacto de las plataformas digitales en la protección de menores en línea.
Este escándalo provocó una serie de audiencias en el Congreso centradas en la protección infantil en internet y la regulación de plataformas de redes sociales y realidad virtual, un tema que continúa siendo de gran relevancia para gobiernos y expertos en ética digital.
Según el informe, las nuevas políticas de Meta propusieron métodos para limitar riesgos en investigaciones sensibles relacionadas con la seguridad infantil, privacidad en redes sociales, la protección de menores en realidad virtual y el uso responsable de plataformas digitales. Estas medidas incluían:
Jason Sattizahn, antiguo investigador de Meta especializado en realidad virtual y seguridad en plataformas como Horizon Worlds, comentó a The Washington Post que su supervisor le ordenó eliminar grabaciones de una entrevista en la que un adolescente relataba que su hermano menor de 10 años había recibido proposiciones sexuales dentro de Horizon Worlds, destacando posibles riesgos para la seguridad infantil en realidad virtual.
Un portavoz de Meta mencionó a TechCrunch que las normativas globales de privacidad establecen que cualquier información recolectada de menores de 13 años sin consentimiento parental verificable debe ser eliminada, en línea con las regulaciones de protección infantil en plataformas digitales.
Sin embargo, los empleados denunciantes afirman que los documentos presentados al Congreso reflejan un patrón donde se desincentiva a los empleados de discutir o investigar preocupaciones sobre el uso de las apps de realidad virtual y redes sociales por parte de niños menores de 13 años, poniendo en duda la responsabilidad de Meta en la protección infantil en entornos digitales y en realidad virtual.
Por su parte, Meta negó dichas acusaciones, indicando que desde principios de 2022 ha aprobado casi 180 estudios relacionados con Reality Labs, enfocados en temas sociales, bienestar y seguridad juvenil, reforzando su compromiso con la protección de menores en plataformas digitales y la ética en tecnología.
El debate sobre el papel de las grandes tecnológicas en la protección de los menores y la transparencia en sus investigaciones continúa siendo un tema crítico en la ética digital y la regulación en línea. ¿Cómo debería balancearse la privacidad, seguridad y responsabilidad en plataformas digitales dirigidas a jóvenes? Comparte tu opinión y mantente informado sobre las últimas novedades en tecnología, gaming y ética digital.