top of page

Graças à tecnologia de “inferência de dados”, as empresas sabem mais sobre você do que você divulga…


As pessoas preocupadas com a privacidade muitas vezes tentam ser “cuidadosas” online. Alguns ficam fora da mídia social, ou se estão nela, postam com cautela. Não compartilham informações sobre suas crenças religiosas, vida pessoal, estado de saúde ou pontos de vista políticos. Ao fazer isso, acham que estão protegendo sua privacidade.


Mas eles estão errados. Por causa dos avanços tecnológicos e da grande quantidade de dados agora disponíveis sobre bilhões de outras pessoas, a discrição não é mais suficiente para proteger sua privacidade. Algoritmos de computador e análises de rede podem agora inferir, com um grau suficientemente alto de exatidão, uma ampla variedade de coisas sobre você que você pode nunca ter revelado, incluindo seus humores, suas crenças políticas, sua orientação sexual e sua saúde.

Não existe mais a possibilidade de “sair” individualmente do nosso mundo comprometido com a privacidade.


A ideia básica de inferência de dados não é nova. Listas de assinantes de revistas têm sido compradas por varejistas, instituições de caridade e políticos, porque fornecem dicas úteis sobre as opiniões das pessoas. Um assinante do The Wall Street Journal é mais provável que seja um eleitor republicano do que assinante do The Nation, e assim por diante.


Mas a tecnologia de hoje funciona em um nível muito mais alto. Considere um exemplo envolvendo o Facebook. Em 2017, o jornal The Australian publicou um artigo , baseado em um documento vazado do Facebook, revelando que a empresa havia dito aos anunciantes que poderia prever quando usuários mais jovens, incluindo adolescentes, se sentiam “inseguros”, “sem valor” ou de outra forma necessitados. de um “aumento da confiança”. O Facebook aparentemente conseguiu extrair essas inferências monitorando fotos, publicações e outros dados de mídia social.


O Facebook negou permitir que os anunciantes segmentassem pessoas com base nessas características, mas é quase certo que tenha essa capacidade. De fato, pesquisadores acadêmicos demonstraram no ano passado que eram capazes de prever depressão em usuários do Facebook, analisando seus dados de mídia social – e tinham acesso a muito menos dados do que o Facebook. Mesmo que o Facebook não ofereça agora sua capacidade de captar sua saúde mental presente ou futura de sua atividade de mídia social, o fato de que ele (e qualquer outro ator menos visível) possa fazer isso deve preocupá-lo.


Vale ressaltar que a inferência computacional de hoje não verifica apenas se os usuários do Facebook postaram frases como “Estou deprimido” ou “me sinto péssimo”. A tecnologia é mais sofisticada do que isso: algoritmos de aprendizagem de máquina são alimentados com enormes quantidades de dados, e o próprio programa de computador categoriza quem tem maior probabilidade de ficar deprimido.


Considere outro exemplo. Em 2017, pesquisadores acadêmicos, armados com dados de mais de 40.000 fotos do Instagram, usaram ferramentas de aprendizado de máquina para identificar com precisão sinais de depressão em um grupo de 166 usuários do Instagram. Seus modelos de computador se revelaram melhores preditores de depressão do que os humanos que foram solicitados a avaliar se as fotos eram felizes ou tristes e assim por diante.


Usada para fins de honra, a inferência computacional pode ser uma coisa maravilhosa. Prevendo a depressão antes do início dos sintomas clínicos seria uma benção para a saúde pública, razão pela qual os acadêmicos estão pesquisando essas ferramentas; eles sonham com exames e prevenção precoces.


Mas essas ferramentas também são preocupantes. Poucas pessoas postando fotos no Instagram estão cientes de que podem revelar seu status de saúde mental a qualquer pessoa com o poder computacional correto.


A inferência computacional também pode ser uma ferramenta de controle social. O governo chinês, tendo reunido dados biométricos sobre seus cidadãos, está tentando usar big data e inteligência artificial para destacar “ameaças” ao regime comunista, incluindo os uigures do país, um grupo étnico majoritariamente muçulmano.


Tais ferramentas já estão sendo comercializadas para uso na contratação de funcionários, para detectar o humor dos consumidores e prever o comportamento criminoso. A menos que sejam devidamente regulamentados, em um futuro próximo poderemos ser contratados, demitidos, concedidos ou negados, aceitos ou rejeitados na faculdade, moradia alugada e crédito estendido ou negado com base em fatos que sejam inferidos sobre nós.


Isso é preocupante o suficiente quando envolve inferências corretas . Mas, como a inferência computacional é uma técnica estatística, ela geralmente faz as coisas errarem – e é difícil, e talvez impossível, identificar a origem do erro, pois esses algoritmos oferecem pouco ou nenhum insight sobre como eles funcionam. O que acontece quando alguém é negado um trabalho com base em uma inferência que não temos certeza se está correto?


Outro exemplo preocupante de inferência envolve seu número de telefone. É cada vez mais um identificador que funciona como um número de Seguro Social – é exclusivo para você. Mesmo que você tenha permanecido fora do Facebook e de outras mídias sociais, seu número de telefone está quase certamente nas listas de contatos de muitas outras pessoas em seus telefones. Se eles usam o Facebook (ou o Instagram ou WhatsApp), eles foram solicitados a enviar seus contatos para ajudar a encontrar seus “amigos”, o que muitas pessoas fazem.


Quando o seu número aparece em poucos uploads, o Facebook pode colocá-lo em uma rede social, o que ajuda a inferir coisas sobre você, já que tendemos a nos assemelhar às pessoas em nosso conjunto social. (O Facebook até mantém perfis “sombrios” de não usuários e implanta “ pixels de rastreamento ” “Situado em toda a web – não apenas no Facebook – que transmite informações sobre o seu comportamento para a empresa.)


No ano passado, uma investigação liderada pelo senador Ron Wyden, democrata de Oregon, revelou que a Verizon, T-Mobile, Sprint e AT & T estavam vendendo dados de localização em tempo real das pessoas, . Um relatório investigativo do ano passado pelo New York Times também mostrou que aplicativos climáticos, incluindo o Weather Channel, AccuWeather e WeatherBug, estavam vendendo os dados de localização de seus usuários. Esse tipo de dados não é útil apenas para rastreá-lo, mas também para inferir coisas sobre você. O que você estava fazendo em uma clínica de câncer? Por que você estava deixando a casa de uma mulher que não é sua esposa às 5 da manhã?


A jornalista Kashmir Hill relatou casos em que o Facebook sugeriu aos pacientes de um psiquiatra que eles eram potenciais “amigos do Facebook”, sugeriu que as pessoas “amizem” a pessoa com quem sua esposa estava tendo um caso e divulgassem identidades reais de prostitutas para seus clientes. . Nós não queremos que corporações (ou governos) façam tais conexões, quanto mais explorar isso para “crescer” sua plataforma.


O que é para ser feito? Projetar telefones e outros dispositivos para serem mais protegidos contra a privacidade seria começar, e a regulamentação governamental da coleta e do fluxo de dados ajudaria a desacelerar as coisas. Mas esta não é a solução completa. Também precisamos começar a aprovar leis que regulam diretamente o uso da inferência computacional: o que permitiremos inferir, e sob quais condições, e sujeito a quais tipos de prestação de contas, divulgação, controles e penalidades por uso indevido?


Até que tenhamos boas respostas para essas perguntas, você pode esperar que os outros continuem a saber mais e mais sobre você – não importa quão discretos você tenha sido.


Por: Zeynep Tufekci


Zeynep Tufekci (@zeynep) é professor associado da Escola de Informação e Biblioteconomia da Universidade da Carolina do Norte, autor de “Twitter e Tear Gas: O Poder e Fragilidade do Protesto em Rede” e escritor de opinião.




Fonte: https://omundodegaya.wordpress.com/

Posts Em Destaque
Posts Recentes
Arquivo
Procurar por tags
Siga
  • Facebook Basic Square
  • Black Instagram Icon
  • Google+ Basic Square
bottom of page