Les lunettes intelligentes de Meta : des images intimes examinées par des travailleurs externalisés

Les lunettes intelligentes Ray-Ban de Meta enregistrent bien plus que votre vie quotidienne : elles capturent des moments profondément personnels, et ces enregistrements sont examinés par des sous-traitants humains. Une enquête récente menée par les médias suédois Svenska Dagbladet et Göteborgs-Posten révèle que Meta sous-traite l’analyse des images enregistrées par les utilisateurs à des travailleurs au Kenya, chargés d’étiqueter les données pour former des modèles d’IA.

Étiquetage des données et problèmes de confidentialité

Le processus, connu sous le nom d’étiquetage des données, implique que des humains examinent manuellement les images brutes avant qu’elles ne soient introduites dans les systèmes d’IA. Cela garantit que l’IA peut identifier avec précision les objets, les scènes et même les comportements dans les futurs enregistrements. Selon le rapport, les travailleurs ont été exposés à des contenus dérangeants, notamment des images prises dans des espaces privés comme des toilettes, du matériel à caractère sexuel explicite et des enregistrements contenant des informations personnelles sensibles telles que des détails de compte bancaire.

Le problème ne concerne pas seulement le contenu graphique ; il s’agit du consentement implicite des utilisateurs. Beaucoup de ces enregistrements semblent avoir été capturés sans le savoir, ce qui signifie que les individus ont été filmés à leur insu. Les travailleurs décrivent une culture du silence dans laquelle il est découragé de remettre en question la nature du travail, avec comme conséquence potentielle une perte d’emploi. *”Vous comprenez que vous regardez la vie privée de quelqu’un, mais en même temps, vous êtes simplement censé effectuer le travail. Vous n’êtes pas censé le remettre en question. Si vous commencez à poser des questions, vous n’êtes plus là”, a déclaré un entrepreneur aux publications.

Exploitation et conditions de travail

L’entrepreneur Meta impliqué, Sama, fait déjà face à un recours collectif alléguant l’exploitation de modérateurs de contenu forcés de réviser du matériel traumatisant sans soutien adéquat. Cette dernière révélation ajoute une autre couche à ces préoccupations, soulevant des questions sur les responsabilités éthiques des entreprises qui s’appuient sur une main-d’œuvre externalisée pour alimenter le développement de l’IA. Les conditions d’utilisation de Meta réservent explicitement le droit de partager les interactions des utilisateurs avec des modérateurs humains.

Problèmes de ventes, de réactions négatives et de surveillance

Les ventes des lunettes intelligentes Ray-Ban de Meta ont triplé en 2025, atteignant plus de 7 millions d’unités vendues. Cependant, l’appareil fait l’objet de critiques croissantes pour son utilisation abusive potentielle, notamment des vidéos virales de ses utilisateurs enregistrant secrètement des inconnus. Les utilisateurs ont même trouvé des moyens de désactiver le voyant d’enregistrement, transformant ainsi les lunettes en un outil de surveillance indétectable.

Au-delà des violations de la vie privée, les experts mettent en garde contre une tendance plus large vers une technologie de reconnaissance faciale et de surveillance non réglementée. Les fonctionnalités d’IA en direct prévues par Meta, y compris les capacités potentielles de reconnaissance faciale, pourraient encore étendre cette portée. La technologie soulève de sérieuses questions sur la sécurité des données, l’accès du gouvernement et le potentiel d’une surveillance militarisée.

L’intégration rapide des appareils portables alimentés par l’IA dépasse la surveillance éthique, créant un fossé dangereux entre l’innovation et la responsabilité. Le cas des lunettes Ray-Ban de Meta est un exemple frappant de la facilité avec laquelle les données intimes peuvent être exploitées, externalisées et militarisées sans garanties adéquates.