O futuro da privacidade de dados: de Data Rights a Web 3.0 - BOX1824
PT EN
O futuro da privacidade de dados: de Data Rights a Web 3.0

O futuro da privacidade de dados: de Data Rights a Web 3.0

Por Patrícia Chmielewski

Dois tipos de indústria chamam clientes de usuários: a indústria das drogas ilegais e a de softwares. Se você não estiver pagando pelo produto, você é o produto. As frases mais contundentes e comentadas do documentário O Dilema das Redes, disponível na Netflix, ajudaram a popularizar os debates sobre como nossos dados estão sendo monetizados pelas mais diversas empresas e como o vício causado pelas redes ajuda a fazer essa engrenagem funcionar.

À primeira vista, essa é uma narrativa popular, didática e bem-sucedida, que resultou no coro de comentários sobre a necessidade de sair imediatamente de todas as redes sociais. Seguido, é claro, de uma pausa para checar os feeds preferidos e fazer um post indignado sobre o tema. Porém, olhando com mais cuidado, alguns detalhes chamam atenção. Em primeiro lugar, a ausência quase que total de estudiosos das implicações políticas e sociais do progresso tecnológico e digital, como Evgeny Morozov. Em segundo lugar, e o que motiva este artigo, vem a forma rasa como é tratada a questão da proteção de dados pela perspectiva dos direitos humanos e para onde esse debate vai levar a relação entre clientes e empresas no futuro. 

A LGPD, Lei Geral de Proteção de Dados, aprovada em agosto de 2018 e que entrou em vigor a partir de agosto de 2020, fez com que o mercado buscasse por uma adequação que tinha um viés muito mais legalista e protecionista do que realmente interessado no que a lei se propõe a fazer. Isto é, garantir a segurança dos dados pessoais e sensíveis das pessoas, respeitando a liberdade individual e privacidade de cada um. O foco estava muito mais nas punições a que as empresas poderiam sofrer e no prejuízo que infrações poderiam trazer à imagem das marcas do que encarando essas medidas como parte das políticas de sustentabilidade e regeneração das companhias, por exemplo.

Foto de ThisIsEngineering no Pexels
Foto de ThisIsEngineering no Pexels

Da perspectiva dos direitos das pessoas, muito mudou e diversos atores da sociedade civil vêm trabalhando para migrar a discussão do departamento jurídico para o de marketing e para as reuniões de board das empresas. Isso mostra como a responsabilidade das empresas tem que ir muito além de uma página de política de privacidade ou de um pop-up com aviso de cookies na hora de entrar nos canais digitais da marca. 

Um exemplo disso é o trabalho que vem sendo desenvolvido pelo InternetLab, um centro independente de pesquisa interdisciplinar que promove o debate acadêmico e a produção de conhecimento nas áreas de direito e tecnologia, sobretudo no campo da internet. Como uma entidade sem fins lucrativos, eles atuam como ponto de articulação entre acadêmicos e representantes dos setores público e privado e da sociedade civil.

Desde 2016, diga-se de passagem, bem antes da discussão tomar corpo no mercado brasileiro, o InternetLab realiza um estudo chamado “Quem defende seus dados?”, inspirado no projeto estadunidense de mesmo caráter chamado “Who Has Your Back?“. 

O objetivo desse estudo é avaliar como as empresas brasileiras provedoras de conexão à internet estão tratando os dados e se comportando em termos de políticas de transparência, privacidade e proteção de dados pessoais. Os quesitos avaliados buscam entender o comprometimento público da empresa com a privacidade e a proteção de dados de seus usuários. Ao mesmo tempo, esses quesitos podem servir de parâmetro para que outros mercados entendam com o que devem se preocupar quando se trata de defender os dados de seus usuários e consumidores. 

As categorias avaliadas no estudo incluem:  a disponibilização de informações sobre a política de proteção de dados; a postura pública pró-privacidade das empresas; protocolos de entrega de dados para investigações; a defesa de usuários no Judiciário; a forma como as empresas criam e divulgam seus relatórios de transparência e de impacto à proteção de dados; e a forma como elas notificam seus usuários quanto à necessidade de compartilhar dados com autoridades administrativas ou judiciais, ampliando as condições de exercício da ampla defesa contra abusos e irregularidades.

É importante notar que, dos quesitos avaliados pelo projeto do InternetLab, apenas o primeiro deles, a política de proteção de dados, acaba sendo mais discutido e divulgado pelas empresas que hoje se mostram publicamente preocupadas com esse tema. Mas se avaliarmos mais profundamente as demais categorias, podemos ressaltar uma dimensão que tem tudo a ver com a garantia de direitos. Isso nos dá uma pista de que hoje o grande ponto cego desta discussão tem a ver com uma virada de chave da narrativa de proteção de dados para Data Rights

A ativista e cientista de dados estadunidense, Cathy O’Neil, em seu livro Weapons of Math Destruction, expõe uma série de casos em que decisões enviesadas e produzidas por algoritmos causaram prejuízo a milhares de pessoas. O principal argumento da ativista diz respeito ao senso comum de que os algoritmos, por serem fruto da ciência, estariam livres de cometer erros que seres humanos cometem por ter determinados valores ou preconceitos. Alguns exemplos disso são excluir uma pessoa negra de um processo seletivo, privilegiar um determinado recorte atitudinal na hora de renovar o seguro do carro, vigiar com mais intensidade uma comunidade periférica ou até mesmo premiar ou punir professores do ensino público pela performance de seus alunos. Todos os exemplos citados agora são casos expostos por ela em que o algoritmo falhou e os números levaram a injustiças em vez de ajudar a sociedade a ser mais igualitária usando os dados.

Um agravante relacionado a isso é que a maior parte das decisões que os algoritmos estão tomando tem como base uma forma não transparente de pontuar e categorizar pessoas. Portanto, também são difíceis de refutar ou contra-argumentar. Os algoritmos estão tomando decisões que não podem ser justificadas de forma clara e que são entendidas como verdades absolutas.

Outro nome que vem se popularizando na cena do ativismo de Data Rights, agora no Brasil, é o da cientista de dados e estudante carioca Nina da Hora. Enquanto pesquisadora e divulgadora científica, ela se debruça sobre a ética algorítmica e articula com um grupo de cientistas negros um apoio ao movimento internacional pelo banimento do reconhecimento facial, tecnologia impregnada com vieses que reforçam o racismo e a discriminação de variadas formas.

 

A ideia por trás dessa demanda é a de que o reconhecimento facial algorítmico reproduz os mesmos vieses e o racismo que já existe na sociedade. Não são raros os casos em que tecnologias como essa falham e pessoas podem até ser presas por serem confundidas com outras.

 

Em 2020, diversas empresas de tecnologia dos EUA, como IBM, Amazon e Microsoft, que ofereciam esse tipo de solução, decidiram parar de fornecer esses serviços ao governo depois que pessoas foram reconhecidas de forma incorreta durante os protestos do Black Lives Matter. Trazendo uma situação dessa natureza para a nossa realidade, em abril de 2021, a CUFA, Central Única das Favelas, cancelou um mecanismo de reconhecimento facial que cadastrava pessoas das comunidades para serem beneficiadas em um programa de doação de cestas básicas. 

Para além de iniciativas isoladas de empresas que detêm as tecnologias de ponta em termos de coleta e uso de dados sensíveis, é importante que todas as indústrias estejam cientes do potencial dano que pode ser causado pelo vazamento de dados sensíveis. Por exemplo, dados de origem racial ou étnica, convicções religiosas ou filosóficas, opiniões políticas, dados financeiros, filiação sindical, questões genéticas, biométricas e sobre a saúde ou a vida sexual de uma pessoa. Isso abre caminho para debates mais amplos, comprometidos e transparentes sobre Data Rights e coloca os profissionais que são responsáveis por essas questões dentro das empresas em uma posição de maior empatia em relação ao uso dos dados de seus consumidores ou stakeholders.

Afinal de contas, quem gostaria de ter seu nome excluído de uma oportunidade de emprego ou ter seu contrato de aluguel recusado por conta de um vazamento de dados? Quanto mais os debates em torno da proteção de dados se alinham aos debates sobre direitos humanos e sustentabilidade, maior é a possibilidade de ganho de tração dessa demanda no mundo corporativo e, consequentemente, no cenário de ampla defesa dos direitos de cidadania. 

 

De Data Rights a blockchain: o impacto da Web 3.0 na privacidade individual

 

Avançando nesta discussão alguns anos para o futuro, no mundo da Web 3.0, é possível que haja uma descentralização do armazenamento de dados, que hoje está nas mãos de grandes empresas do setor de tecnologia, para uma rede de tecnologia blockchain. Esse tipo de rede permite criar “blocos” e formar cadeias de dados e é mantida por milhões de colaboradores autônomos espalhados pelo mundo. Isso permitirá que os usuários tenham acesso a milhares de centros de dados e possam escolher quem guarda seus dados, em vez de ter que se contentar com os grandes players de tecnologia como Amazon, Google e Microsoft, que atualmente lideram o mercado de armazenamento de dados na nuvem.

Essa mudança no mindset de infraestrutura faz com que aumente a segurança dos dados. Através dessa tecnologia peer-to-peer (P2P), que permite o intercâmbio de recursos de igual para igual, diretamente entre vários usuários, os dados estão sempre criptografados e não é possível compartilhá-los sem estar conectado à rede. O bloco precisa estar em conexão com seu antecessor e aquele que veio imediatamente depois. Segundo os especialistas no assunto, como Colin Evran, da empresa de tecnologia de blockchain Protocol Labs, que criou o Filecoin, a tecnologia blockchain da Web3 é muito segura e até hoje não há relatos de invasão.

Nesse cenário, os dados dos usuários pertencem a eles com transparência e não podem ser classificados como propriedade de nenhuma empresa ou instituição. Além disso, nessa configuração, os usuários podem ver claramente quem tem acesso aos seus dados e o tipo de acesso.

Dando um passo além e considerando uma real consolidação da tendência do Metaverso como algo bastante difundido no futuro, podemos entender que esse tipo de universo vai exigir, pela mistura entre identidade real, mundos físicos e avatares, que os usuários tenham “identidades digitais persistentes”. Essas identidades permitiriam dar continuidade à experiência dos usuários entre os mundos de acordo com sua necessidade.

Como uma forma de fazer essa transição e garantir a persistência de itens únicos atrelados a sua identidade específica, as pessoas lançarão mão cada vez mais dos NFTs (Tokens Não Fungíveis), que são lastreados por cadeias de blockchain criptografadas. Então, o uso das identidades será autossoberano. Apenas a pessoa a quem a identidade pertence será capaz de dispor de seus dados e controlar para que fins eles serão utilizados, seja qual for o “mundo” em que ela estiver operando. 

 

Mas enquanto a Web 3.0 não se consolida, o que uma empresa pode fazer hoje em relação à privacidade de dados?

 

1) Ser transparente e honesta sobre a forma como os dados dos clientes e usuários estão sendo utilizados pela empresa e pelos seus parceiros. Quanto mais a empresa se mostra aberta em relação a isso, mais os usuários tendem a confiar nela.

 

2) Ser clara ao expor qual será a troca de valor para aqueles negócios em que os dados são necessários para a operação funcionar, por exemplo, programas de descontos, de cash back e redes sociais comerciais. Expor como a empresa está monetizando os dados do usuário e o que ela pretende dar em troca dessa monetização.

 

3) Promover auditorias externas para proteger a privacidade dos usuários de dentro e de fora da companhia. Muitas vezes é preciso trazer um agente externo para que todos os comportamentos relativos ao tema sejam levados a sério.

 

4) Estar aberta a entender que as novas tecnologias de blockchain podem mudar completamente o cenário de coleta e privacidade de dados, bem como o universo de segurança de dados. Assim, ela consegue criar estratégias para se readequar a tempo de não ficar por fora, com o mínimo de interrupção em seus negócios.