Os subcontratados veem consultas visuais íntimas da Meta AI nos óculos inteligentes da empresa, às vezes acionadas acidentalmente, revelou uma reportagem de dois jornais suecos.
Svenska Dagbladet e Göteborgs-Posten relatório conjunto levou a uma preocupação generalizada sobre a privacidade dos óculos inteligentes não apenas para outras pessoas (o que já era uma preocupação), mas para os próprios proprietários.
Para ser claro, a questão aqui é não com o recurso geral de captura de fotos e vídeos dos óculos inteligentes Ray-Ban e Oakley. Fotos e vídeos capturados com os óculos são sincronizados com o telefone e são não visualizados pela Meta ou subcontratados, nem são usados para treinar modelos de IA.
Em vez disso, o relatório refere-se ao funcionalidade de consulta visual de Meta AI nos dispositivos e sua propensão para ativação acidental.
Óculos Ray-Ban Meta obtêm IA visual, videochamadas e novo estilo
Os óculos Ray-Ban Meta agora têm uma terceira opção de estilo, compartilhamento de visualização em primeira pessoa em chamadas do WhatsApp e do Messenger e IA visual do tipo “olhar e perguntar” nos EUA e Canadá.

O recurso de consultas visuais Meta AI começou a lançar no início de 2024, cerca de seis meses após o lançamento dos óculos Ray-Ban Meta, e originalmente exigia explicitamente dizer “Ei Meta, olhe e me diga
Uma parte destas respostas é enviada a prestadores de serviços subcontratados, em países onde a mão-de-obra é barata, como o Quénia, que avaliam a resposta com base na sua utilidade ou precisão. Com o tempo, o Meta usa esses dados de revisão humana para melhorar a qualidade das respostas do Meta AI.
No final de 2024conforme anunciado no Meta Connect daquele ano, o Meta AI foi atualizado para poder inferir de forma mais natural, a partir do contexto da sua consulta, se era necessária uma captura de câmera. Por exemplo “Ei Meta, que tipo de planta é essa?” ou “Ei Meta, traduza este menu” iria acioná-lo.
Esta atualização tornou o Meta AI mais natural e útil. Mas também teve o efeito colateral de tornar muito mais provável que a IA capturasse um quadro quando você não pretendia, seguindo o dispositivo pensando incorretamente que ouviu você dizer “Ei, Meta”. Além disso, com o recurso Live AI disponível nos EUA e Canadá, isso pode incluir até mesmo videoclipes. O IA ao vivo O recurso permite iniciar uma conversa contínua com a IA, semelhante ao Gemini Live do Google em smartphones.
Combinado com o sistema de revisão do contratante, isso cria o cenário de pesadelo que o relatório revelou, em que os seres humanos podem ver o que são essencialmente fotos íntimas capturadas acidentalmente de dentro das casas dos proprietários de óculos inteligentes.
Os revisores de dados quenianos que falaram com os jornais suecos relataram ter visto imagens e videoclipes de pessoas nuas indo ao banheiro, trocando de roupa e fazendo sexo, bem como assistindo pornografia e segurando documentos confidenciais e cartões bancários.
A instalação em que esses revisores de dados trabalham inclui práticas rígidas de segurança que os impedem de colocar qualquer dispositivo de gravação em funcionamento ou de outra forma exfiltrar esses clipes. Mas se uma violação de dados ocorresse de alguma forma, provocaria um “enorme escândalo”, sugere o relatório.
Em resposta ao relatório sueco, Meta aponta que o LED na frente dos óculos sempre acenderá durante a captura de imagens (o que é verdade), e a empresa emitiu uma declaração geral observando que os dados visuais são “primeiro filtrados para proteger a privacidade das pessoas”, incluindo rostos desfocados e placas de veículos. Mas os trabalhadores quenianos afirmam que este filtro não é perfeito e que outros detalhes íntimos ainda permanecem nas imagens que analisam.
A prática de ter subcontratados revisando a interação da IA não é exclusiva da Meta. A Amazon faz isso para Alexa, Google para Gemini e Apple para Siri, por exemplo. E em 2019 um relatório da Bloomberg revelou como esses subcontratados ouviam conversas íntimas ao lado da cama em dispositivos Amazon Echo, enquanto outro relatório do The Guardian revelou que o mesmo estava acontecendo com o Siri da Apple.
Após a reação do relatório do The Guardian, a Apple tornou a revisão humana das conversas da Siri um sistema opcional, enquanto o Google permite a exclusão do Gemini.
Para Meta AI, entretanto, não há possibilidade de cancelamento. E para Meta, o formato dos óculos inteligentes, com uma câmera egocêntrica, apresenta preocupações de privacidade únicas para este modelo que podem levar aqueles que estão cientes das implicações a nunca mais quererem comprar óculos inteligentes ou a parar de usar um par que já possuem.
Google trabalhando com Gentle Monster e Warby Parker em óculos inteligentes Gemini
O Google está trabalhando com Gentle Monster e Warby Parker em óculos inteligentes com Gemini AI, o plano da empresa para competir diretamente com Ray-Ban Meta.

Este relatório levará a Meta a mudar suas práticas de revisão de dados, como a Apple fez após o relatório de 2019 do The Guardian? Ou será ignorado para que a empresa possa melhorar a Meta AI mais rapidamente para alcançar modelos de IA mais fortes, como o Gemini 3 do Google? E como o Google e a Amazon lidarão com esse problema ao lançarem óculos inteligentes para o consumidor nos próximos meses?




