Investigación: Facebook se salta la encriptación de WhatsApp para analizar los mensajes

Investigación: Facebook se salta la encriptación de WhatsApp para analizar los mensajes

Facebook lleva años asegurando que nadie puede leer el contenido de los mensajes de WhatsApp porque están protegidos por encriptación de extremo a extremo, una afirmación que una investigación ha puesto en duda al revelar que cuenta con trabajadores específicos para realizar la revisión de contenidos individuales de las conversaciones.

La investigación realizada por ProPublica se basa en datos, documentos y docenas de entrevistas con empleados y subcontratados, tanto actuales como antiguos, e incluso una denuncia confidencial presentada en 2020 ante la Comisión de Bolsa y Valores de Estados Unidos, recogida por esta agencia de noticias, en la que se asegura que las afirmaciones de privacidad hechas por Facebook sobre WhatsApp son falsas, y que existen trabajadores que emplean programas específicos para acceder a los mensajes de los usuarios.

Según ha compartido la agencia de noticias, WhatsApp cuenta con al menos mil trabajadores subcontratados en sus oficinas de Austin, Texas (Estados Unidos), Dublín (Irlanda) y Singapur, que examinan a la semana millones de contenidos compartidos por los usuarios a través de su servicio de mensajería.

Los mensajes son privados, como asegura la compañía tecnológica en su web, ya que están protegidos por la encriptación de extremo a extremo, que impide que nadie más que el emisor y el receptor puedan conocer el contenido de las conversaciones.

Sin embargo, estos trabajadores subcontratados utilizan un software especial de Facebook para analizar los mensajes y otros contenidos compartidos en los chats que otros usuarios han denunciado por violar las políticas de la plataforma, y son examinados por un sistema de inteligencia artificial.

Posteriormente, deben realizar un juicio sobre ese contenido, aunque no pueden eliminar contenido individual, como sí ocurre en las plataformas Facebook e Instagram. Con esta moderación -a la que no se refieren como tal en WhatsApp-, los trabajadores revisan mensajes para para identificar y eliminar “a los peores abusadores”, como ha reconocido el director de Comunicación de la compañía, Carl Woog, a ProPublica.

Este mensaje ha sido reiterado por un portavoz de la compañía en declaraciones a Europa Press.

“WhatsApp proporciona una forma para que las personas denuncien ‘spam’ o abuso, lo que incluye compartir los mensajes más recientes en un chat. Esta función es importante para prevenir los peores abusos en Internet. Estamos totalmente en desacuerdo con la idea de que aceptar los informes que un usuario decide enviarnos es incompatible con el cifrado de extremo a extremo”, ha expresado.

Facebook adquirió el servicio de mensajería WhatsApp en 2014 y dos años más tarde incorporó la encriptación de extremo a extremo. En 2019, el director ejecutivo, Mark Zuckerberg compartió su intención de extender esta protección a sus otros servicios de comunicación, Instagram y Messenger. Un año antes había asegurado ante el Senado de Estados Unidos que la empresa no veía nada del contenido de WhatsApp.

En la actualidad, solo WhatsApp cuenta con esta encriptación, y es, además, el único servicio del que no se ofrecen informes periódicos de transparencia, en los que la compañía detalla las actuaciones llevadas a cabo contra contenidos no permitidos en Facebook ni Instagram.

La investigación también incluye el alcance de los datos de usuarios que la compañía comparte con las autoridades policiales cuando le son requeridos. ProPublica señala que WhatsApp comparte metadatos, unos registros no cifrados que pueden acabar revelando la actividad de un usuario.

Precisamente para evitar esto, Signal, uno de los competidores, recopila menos metadatos para evitar que afecten a la privacidad de los usuarios.