Meredith Whittaker, do Signal

Meredith Whittaker, do Signal "IA é fundamentalmente uma tecnologia de vigilância"

Imagem por Kimberly White/Getty Images for TechCrunch

Este post é uma tradução, assistida pelo ChatGPT, de um artigo de Devin Coldewey no TechCrunch.

Por que tantas empresas que dependem da monetização dos dados de seus usuários parecem estar extremamente interessadas em IA? Se você perguntar à presidente da Signal, Meredith Whittaker (e eu perguntei), ela dirá que é simplesmente porque “a IA é uma tecnologia de vigilância”.

No palco do TechCrunch Disrupt 2023, Whittaker explicou sua perspectiva de que a IA é, grosso modo, inseparável do Big Data e da indústria de segmentação perpetuada por empresas como o Google e o Meta, bem como por empresas de serviços empresariais e defesa igualmente proeminentes, mas menos focadas no consumidor. (Seus comentários foram levemente editados para maior clareza.)

“Isso requer o modelo de negócios de vigilância; é uma exacerbação do que vemos desde o final dos anos 90 e o desenvolvimento da publicidade de vigilância. A IA é uma forma, creio eu, de consolidar e expandir o modelo de negócios de vigilância”, disse ela. “O diagrama de Venn é um círculo.”

“E o uso da IA também é vigilante, certo?”, continuou ela. “Você passa por uma câmera de reconhecimento facial que está equipada com reconhecimento de emoções pseudo-científicas e ela produz dados sobre você, certos ou errados, que dizem ‘você está feliz, você está triste, você tem um mau caráter, você é um mentiroso, ou seja lá o que for’. Esses são, em última análise, sistemas de vigilância que estão sendo comercializados para aqueles que, em geral, têm poder sobre nós - empregadores, governos, controles de fronteira, etc. - para tomar decisões e fazer previsões que vão modular nosso acesso a recursos e oportunidades.”

Ironicamente, aponta ela, os dados que sustentam esses sistemas frequentemente são organizados e rotulados (um passo necessário na montagem de conjunto de dados de IA) pelos próprios trabalhadores para os quais são direcionados.

“Não há como criar esses sistemas sem trabalho humano ao ponto de informar a verdade de campo [ground truth] dos dados - aprendizado por reforço com feedback humano [reinforcement learning with human feedback], por sua vez, é apenas uma forma de dar ares tecnológicos a trabalho humano precarizado. São milhares e milhares de trabalhadores mal pagos - embora, em massa, saia muito caro! - e não há outra maneira de criar esses sistemas, ponto final”, explicou ela. “De certa forma, o que estamos vendo é uma espécie de Mágico de Oz, quando puxamos a cortina, não há tanta inteligência assim.”

No entanto, nem todos os sistemas de IA e aprendizado de máquina são igualmente exploradores. Quando perguntei se o Signal usa alguma ferramenta ou processo de IA em seu aplicativo ou no processo de desenvolvimento, ela confirmou que o aplicativo possui um “pequeno modelo no dispositivo, que não desenvolvemos, usamos como é, como parte do recurso de desfoque facial em nosso conjunto de ferramentas de edição de mídia. Na verdade, não é tão bom… mas ajuda a detectar rostos em fotos de multidões e desfocá-los, para que, quando você os compartilhe nas redes sociais, não esteja revelando os dados biométricos íntimos das pessoas para a Clearview, por exemplo.”

“Mas aí é que está a coisa! Sim, isso é um ótimo uso da IA. E isso não contradiz toda essa negatividade que eu expressei no palco?”, ela acrescentou. “Claro, se esse fosse o único mercado para o reconhecimento facial… mas sejamos claros. Os incentivos econômicos que impulsionam o oneroso processo de desenvolvimento e implantação da tecnologia de reconhecimento facial nunca permitiriam que esse fosse o único uso.”

SoteroLab
SoteroLab Laboratório compromissado social e politicamente na discussão e produção de conhecimentos sobre tecnologias da informação.