Publicado em Deixe um comentário

WORLDCOIN: COLETA DE DADOS BIOMÉTRICOS E PROTEÇÃO DE DADOS

Em 2019, uma inovadora empresa no setor de inteligência artificial lançou um projeto ambicioso conhecido como Worldcoin. O objetivo principal deste projeto é coletar imagens digitais da íris das pessoas que consentem voluntariamente, oferecendo em troca um pagamento em criptomoedas equivalente a cerca de 70 euros. Este esforço tem sido implementado em vários países, inclusive na União Europeia, onde a legislação de proteção de dados pessoais é notoriamente rigorosa.

Diante das denúncias recebidas, a Autoridade de Proteção de Dados da Espanha iniciou uma investigação em fevereiro de 2024. Em março, foi emitida uma ordem cautelar para suspender as atividades de coleta e tratamento de dados pessoais da empresa no país, além de bloquear os dados já coletados. Estima-se que cerca de 400 mil pessoas tenham tido seus dados coletados.

A Lei Geral de Proteção de Dados (LGPD) do Brasil, fortemente inspirada no Regulamento Geral de Proteção de Dados (GDPR) da União Europeia, também prevê medidas semelhantes. Qualquer empresa que colete e trate dados pessoais no Brasil, expondo os titulares a riscos desproporcionais, está sujeita a medidas rigorosas, semelhantes às tomadas pela autoridade espanhola no caso do Worldcoin.

A empresa por trás do projeto Worldcoin afirma que todas as informações coletadas são anônimas e que os indivíduos mantêm controle sobre seus dados. No entanto, as denúncias dirigidas à Autoridade de Proteção de Dados da Espanha alegam insuficiência de informações fornecidas, coleta de dados de menores e impossibilidade de retirada do consentimento dado.

A imagem digital da íris é considerada um dado biométrico e recebe proteção especial tanto pelo GDPR quanto pela LGPD. Este tipo de dado é classificado como sensível devido ao elevado risco que seu tratamento representa para os direitos e liberdades dos titulares, incluindo a possibilidade de usurpação de identidade.

A decisão da autoridade espanhola, embora preliminar, foi tomada com base em circunstâncias excepcionais, sendo considerada necessária e proporcional como medida preventiva para evitar a cessão dos dados a terceiros e salvaguardar o direito fundamental à proteção de dados pessoais.

No Brasil, o direito à proteção de dados é também um direito fundamental, garantido pela Constituição Federal. As autoridades brasileiras, portanto, possuem um amplo espectro de medidas à disposição para proteger este direito.

A LGPD exige o consentimento do titular para o tratamento de dados biométricos, salvo em circunstâncias específicas. O consentimento deve ser livre, expresso, específico, inequívoco e informado. Qualquer consentimento obtido de forma viciada, mediante informações genéricas ou enganosas, é considerado nulo.

O Supremo Tribunal Federal (STF) já declarou que a permissão para tratamento de dados pessoais é uma relativização do direito fundamental à proteção de dados. Assim, a transparência e clareza das informações fornecidas para a obtenção do consentimento são essenciais para garantir que os titulares compreendam plenamente o uso de suas informações.

Além disso, mesmo que o tratamento de dados pessoais seja baseado em uma base legal, ele deve ser realizado dentro de uma atividade lícita. Se a atividade principal for ilícita, o tratamento de dados também será considerado ilícito, independentemente da base legal formal utilizada.

As regras da LGPD visam reduzir o desequilíbrio entre o agente de tratamento e o titular dos dados, exigindo lealdade, transparência e informação. A não observância desses princípios ou a ausência de fundamento legal desequilibra a relação e configura uma conduta abusiva.

No Brasil, qualquer empresa que atue de maneira semelhante ao projeto Worldcoin, coletando e tratando dados pessoais que possam colocar em risco os direitos e liberdades das pessoas, viola os fundamentos do regime de proteção de dados e o direito fundamental à proteção de dados. Consequentemente, está sujeita à fiscalização e repressão da Autoridade Nacional de Proteção de Dados (ANPD) e pode ter suas atividades suspensas judicialmente desde a fase de coleta, em ações propostas pelo Ministério Público ou outros legitimados para a Ação Civil Pública.

Publicado em Deixe um comentário

A INTERSEÇÃO ENTRE A INTELIGÊNCIA ARTIFICIAL E A PROTEÇÃO DE DADOS PESSOAIS NO BRASIL

À luz do inexorável avanço da Inteligência Artificial (IA) em todas as esferas da sociedade contemporânea, emerge como imperativo inadiável a reflexão profunda sobre a interseção deste avanço tecnológico com a salvaguarda dos dados pessoais. No Brasil, esta questão assume contornos particularmente significativos, dada a vigência da Lei Geral de Proteção de Dados (LGPD), promulgada em 2018. É imperioso, portanto, abordar este tema com a acuidade e o discernimento que a conjuntura demanda, sob a égide da responsabilidade e da ética que deve nortear a utilização de tão potente ferramenta.

Em consonância com o crescente influxo do internet das coisas na vida quotidiana dos brasileiros, constata-se que a digitalização da sociedade não é um fenômeno restrito a qualquer região específica, mas sim uma realidade global, impondo-se com igual vigor em terras brasileiras. A adoção da IA no Brasil, tal como noutros países da América Latina, vem demonstrando um crescimento exponencial, com implicações profundas não apenas no tecido econômico e social, mas também e sobretudo na esfera da privacidade e da proteção de dados.

A LGPD, enquanto arcabouço normativo que regula o tratamento de dados pessoais, tanto por entidades privadas quanto públicas, estabelece princípios e diretrizes essenciais para assegurar a privacidade dos dados dos cidadãos brasileiros. A legislação enfatiza a necessidade de consentimento expresso para a coleta e processamento de dados pessoais, além de estabelecer direitos claros para os titulares dos dados, tais como o direito de acesso, retificação e exclusão.

No entanto, a implementação efetiva da LGPD no contexto da IA apresenta desafios peculiares, em virtude da complexidade e da dinâmica próprias dos sistemas algorítmicos. Questões relativas à transparência dos algoritmos, ao potencial de vieses discriminatórios e à garantia de consentimento informado emergem como preocupações centrais, exigindo uma abordagem jurídica refinada e aprofundada.

Neste contexto, é imperativo que o desenvolvimento e a aplicação da IA no Brasil sejam conduzidos sob a égide de um marco regulatório robusto, que concilie o potencial inovador da tecnologia com a imperativa proteção dos direitos fundamentais. A esta luz, afigura-se essencial a atualização constante da legislação vigente, bem como a formulação de novas diretrizes que abordem especificamente as peculiaridades da IA.

A transparência dos processos algorítmicos, a implementação de avaliações de impacto relativas à proteção de dados e a adoção de práticas de governança de dados que assegurem a accountability são medidas que se impõem como fundamentais. Ademais, a educação e a sensibilização da população acerca dos direitos relativos à proteção de dados e dos riscos inerentes ao uso da IA constituem pilares indispensáveis para a construção de uma sociedade digitalmente madura e eticamente responsável.

O desafio que se coloca ao Brasil no que tange à interseção entre a IA e a proteção de dados pessoais não é trivial, demandando um esforço concertado tanto do poder público quanto da iniciativa privada e da sociedade civil. É mister que se caminhe na direção de um equilíbrio harmonioso entre inovação tecnológica e respeito aos direitos individuais, onde a ética e a transparência sejam os pilares que sustentam a adoção responsável e consciente da IA. Assim, o Brasil não só se manterá a par dos avanços globais em matéria de tecnologia e proteção de dados, como também se destacará como líder na promoção de uma sociedade digital justa, inclusiva e segura para todos os seus cidadãos.

Publicado em Deixe um comentário

PARLAMENTO EUROPEU ESTABELECE MARCO REGULATÓRIO PARA INTELIGÊNCIA ARTIFICIAL

Na recente aprovação pelo Parlamento Europeu da primeira legislação destinada a regular o uso da inteligência artificial (IA) dentro da União Europeia, testemunhamos um marco significativo no direcionamento das políticas tecnológicas globais. Este desenvolvimento, inédito em sua essência, é impulsionado pela intenção de assegurar que os avanços tecnológicos se alinhem com os direitos fundamentais da sociedade, estabelecendo um precedente que provavelmente inspirará iniciativas regulatórias similares ao redor do mundo.

A nova legislação serve como um paradigma ético e jurídico, visando equilibrar o progresso tecnológico com a proteção dos indivíduos, de maneira similar ao impacto que o Regulamento Geral sobre a Proteção de Dados (GDPR) teve desde sua implementação em 2018 pela União Europeia. O GDPR não apenas reformulou as práticas de privacidade e proteção de dados mas também motivou a criação de legislações correspondentes em diversas jurisdições, demonstrando o potencial de tais regulamentações para modelar padrões globais.

No contexto brasileiro, percebe-se um crescente interesse legislativo pela inteligência artificial, refletido na tramitação de numerosas propostas que buscam estabelecer um marco regulatório para o uso da IA. Esta movimentação evidencia um reconhecimento da necessidade de diretrizes claras para orientar o desenvolvimento tecnológico de forma responsável e alinhada com os interesses da sociedade.

A adoção desta legislação na União Europeia ressalta a importância de um diálogo contínuo e informado sobre as implicações éticas, sociais e legais da inteligência artificial. Ao mesmo tempo, sublinha a urgência em estabelecer frameworks regulatórios que possam não apenas promover a inovação mas também garantir que tal inovação proceda de forma ética e com respeito aos direitos humanos fundamentais. A iniciativa europeia pode, portanto, servir de inspiração para que outras regiões desenvolvam suas próprias abordagens regulatórias, ajustadas às suas realidades específicas e aos desafios apresentados pela IA.

Publicado em Deixe um comentário

O CAMINHO DA IA SOB A GUARDA DA LEGISLAÇÃO BRASILEIRA

A integração da inteligência artificial (IA) na sociedade traz consigo desafios significativos para a privacidade, liberdade e equidade, exigindo uma regulamentação cuidadosa para prevenir abusos. A Lei Geral de Proteção de Dados Pessoais (LGPD) do Brasil é um exemplo de como a legislação pode ser empregada para tutelar direitos fundamentais, impondo diretrizes claras sobre o tratamento de dados pessoais. Esta lei destaca o princípio da não discriminação e proíbe o uso de dados para fins ilícitos, estabelecendo um quadro ético para o uso de tecnologias de IA.

A correlação entre a IA e a proteção de dados é direta, visto que os sistemas de IA dependem do processamento de grandes volumes de dados para aprender e melhorar. Os modelos de IA, como os sistemas generativos, que podem criar conteúdo novo a partir de dados existentes, exemplificam a capacidade da IA de transformar e gerar novas informações. Este processo, contudo, não está isento de riscos, especialmente quando não regulamentado ou monitorado adequadamente.

Incidentes em que algoritmos de IA conduziram a práticas discriminatórias ilustram as potenciais falhas éticas e sociais dessas tecnologias. Tais casos evidenciam a necessidade de uma abordagem regulatória que assegure que a IA seja desenvolvida e aplicada de maneira justa e transparente. A LGPD aborda essa questão ao oferecer aos indivíduos o direito de revisar decisões automatizadas, promovendo a accountability e a intervenção humana nos processos decisórios automatizados.

A implementação de “sandboxes” regulatórios, supervisionados pela Autoridade Nacional de Proteção de Dados, representa uma iniciativa para fomentar a inovação responsável em IA. Estes ambientes permitem que novas tecnologias sejam exploradas de maneira controlada, equilibrando inovação com proteção de dados.

A tramitação de projetos de lei específicos para a regulamentação da IA no Brasil sinaliza um reconhecimento da importância de estabelecer princípios éticos e legais sólidos para orientar o desenvolvimento e uso da IA. Estes esforços legislativos enfatizam a transparência, a avaliação de riscos e a necessidade de proteger os direitos fundamentais frente ao avanço tecnológico.

A evolução da IA deve ser acompanhada por um diálogo contínuo entre desenvolvedores, legisladores, a sociedade civil e outros interessados. Essa abordagem colaborativa é vital para garantir que a IA seja utilizada de forma ética e responsável, respeitando os direitos fundamentais e promovendo uma sociedade mais justa e inclusiva. A regulamentação, como a LGPD e futuras legislações sobre IA, desempenha um papel importante em moldar um futuro em que a tecnologia e a ética caminham lado a lado.

Publicado em Deixe um comentário

SUPREMO TRIBUNAL EXIGE NORMAS PARA FERRAMENTAS DE MONITORAMENTO SECRETO

O Supremo Tribunal Federal, em uma ação que reflete a tensão entre as necessidades de investigação do Estado e os direitos fundamentais dos cidadãos, estabeleceu um prazo de dez dias para que o legislativo forneça detalhes acerca da regulamentação do uso de ferramentas de vigilância eletrônica – especificamente, softwares capazes de monitorar secretamente dispositivos pessoais como celulares e tablets.

Esta ação tem por objetivo fornecer ao relator da corte as informações necessárias para uma análise sobre a ausência de regulamentação específica para o uso de tecnologias de infiltração digital por parte de órgãos e agentes públicos. A situação contrasta com a lentidão legislativa em adaptar-se às novas realidades, deixando lacunas em matéria de proteção à privacidade e aos dados pessoais dos cidadãos.

O pedido central dessa iniciativa jurídica é compelir o Congresso a estabelecer, dentro de um prazo considerado razoável, uma normativa clara e efetiva que regule essas práticas, abordando diretamente a necessidade de salvaguardar os direitos à intimidade, à vida privada e à proteção do sigilo das comunicações e dos dados pessoais. Tais direitos já são parcialmente protegidos por legislações existentes, como o Marco Civil da Internet e a Lei Geral de Proteção de Dados Pessoais (LGPD), mas ainda carecem de diretrizes específicas quando se trata de infiltração virtual remota por entidades governamentais.

Além da solicitação de informações ao legislativo, foram definidos prazos adicionais para que tanto a Advocacia-Geral da União (AGU) quanto a Procuradoria-Geral da República (PGR) apresentem suas manifestações, reiterando a importância de uma deliberação rápida e fundamentada sobre a questão. Este caso, tratado sob um procedimento especial previsto na legislação das ações diretas de inconstitucionalidade, sinaliza a urgência e a relevância de atualizar o arcabouço legal para endereçar os desafios impostos pela era digital, enfatizando a primazia dos direitos fundamentais em um contexto de crescente vigilância tecnológica.

Publicado em Deixe um comentário

SENACON NOTIFICA RAIADROGASIL POR USO DE DADOS DE CLIENTES EM PUBLICIDADE

A Secretaria Nacional do Consumidor (Senacon), órgão vinculado ao Ministério da Justiça e Segurança Pública, emitiu uma notificação à empresa RaiaDrogasil, solicitando esclarecimentos acerca do uso de dados pessoais de seus clientes. A notificação tem como base uma reportagem do UOL, publicada em setembro, que revelou que a rede de farmácias criou uma empresa chamada RD Ads, destinada a comercializar informações dos consumidores com anunciantes.

Nesse processo, os anunciantes contatam a RD Ads, especificam o público que desejam atingir e a empresa realiza consultas no extenso banco de dados da RaiaDrogasil. Isso permite que anúncios sejam direcionados a pessoas com base em seus perfis de consumo, não apenas no site da farmácia, mas também em plataformas de redes sociais e no YouTube. Vale ressaltar que a base de dados da RaiaDrogasil abrange até 15 anos de informações de cerca de 48 milhões de indivíduos, o que corresponde a um em cada cinco brasileiros. Tais dados incluem informações sensíveis, revelando históricos de saúde e comportamentos pessoais, o que levanta preocupações em relação à sua utilização.

A Senacon expressa a sensibilidade desses dados devido ao potencial uso que poderia levar à discriminação, o que é proibido pela legislação e violaria os direitos fundamentais de liberdade e igualdade estabelecidos na Constituição.

A notificação à RaiaDrogasil foi assinada por Wadih Damous, Secretário Nacional do Consumidor. Até o momento, a RaiaDrogasil ainda não confirmou o recebimento da notificação, mas quando o fizer, terá um prazo de dez dias para apresentar sua resposta. A Senacon formulou onze perguntas e solicitou documentos comprobatórios. Algumas das questões levantadas incluem se os consumidores deram consentimento para o uso de seus dados pessoais em ações de publicidade e propaganda, tanto pela empresa quanto por terceiros.

A política de privacidade da RaiaDrogasil em vigor até a publicação da reportagem não fazia menção à monetização dos dados para fins de publicidade de terceiros. Além disso, a Senacon indagou sobre a relação entre a RD Ads e o grupo RaiaDrogasil, bem como sobre o modelo de negócios da RD Ads. Conforme um comunicado aos investidores da RaiaDrogasil, a empresa criou a RD Ads em novembro de 2021, com o principal objetivo de monetizar os dados junto às indústrias e agências de publicidade, conectando marcas aos clientes mais relevantes.

Publicado em Deixe um comentário

DESAFIOS NA REGULAÇÃO DAS REDES SOCIAIS: PROPOSTAS E PERSPECTIVAS

O presidente do Supremo Tribunal Federal (STF), trouxe à tona uma discussão fundamental sobre a responsabilidade das plataformas digitais no Brasil. De acordo com a legislação vigente, as empresas como Facebook, Twitter (conhecido como X), e YouTube só podem ser responsabilizadas civilmente se não cumprirem ordens judiciais para a remoção de conteúdo.

No entanto, o ministro propôs duas exceções a essa regra. A primeira delas envolve a obrigação de as empresas removerem conteúdos criminosos por conta própria, sem depender de ordens judiciais. A segunda exceção se aplica a violações de direitos fundamentais, onde uma notificação privada poderia desencadear a remoção.

A discussão é de extrema importância, pois envolve a regulação das plataformas digitais, que desempenham um papel cada vez mais importante na disseminação de informações e comunicação. Entretanto, há diferentes perspectivas sobre como essa regulação deve ocorrer.

Especialistas divergem sobre o papel do STF nesse processo. Alguns argumentam que a criação de exceções ao Marco Civil da Internet, como proposto por Barroso, deve ser uma tarefa do Legislativo, uma vez que implica em mudanças significativas na legislação.

A criação de novas leis e regulamentações, incluindo a implementação de algoritmos para monitorar comportamentos criminosos, é de competência do Congresso Nacional. É essencial que os três poderes – Executivo, Legislativo e Judiciário – desempenhem seus papéis de forma a manter o equilíbrio e a separação de poderes.

Outra questão levantada é o risco de censura prévia caso algoritmos sejam usados para monitorar conteúdos ofensivos. Isso levanta questões importantes sobre a liberdade de expressão e a limitação do acesso à informação.

O Supremo Tribunal Federal pode ter um papel fundamental ao julgar casos específicos envolvendo danos causados por publicações nas redes sociais. No entanto, a extensão de exceções à lei deve ser uma prerrogativa do Legislativo, não do Judiciário.

A discussão sobre a regulação das plataformas digitais é crucial para equilibrar a proteção dos direitos individuais e a promoção da responsabilidade das empresas. É um debate que deve envolver não apenas os poderes constituídos, mas também a sociedade civil e especialistas, a fim de encontrar soluções equilibradas e em conformidade com os princípios do Estado de Direito.

Publicado em Deixe um comentário

LIMITES DIGITAIS: A DECISÃO DO STF E A GARANTIA DA PRIVACIDADE ONLINE

Uma recente decisão da Ministra Rosa Weber, presidente do Supremo Tribunal Federal, trouxe à tona um debate importante sobre a proteção de dados e a privacidade dos usuários na era digital. O caso em destaque trata do acesso do Ministério Público do Rio de Janeiro a dados relacionados a pesquisas na internet sobre a vereadora Marielle Franco, assassinada em 2018.

A discussão se baseia na possibilidade de quebra de sigilo de dados telemáticos de um grupo não identificado de pessoas em procedimentos penais. O recurso, intermediado pelo Google contra decisão do Superior Tribunal de Justiça, destaca a intrusão no direito à privacidade sem relação com o crime investigado, levantando preocupações sobre a legalidade e a proteção de dados.

A Ministra Rosa Weber posicionou-se a favor da proteção da privacidade e da observância rigorosa dos limites formais e materiais dos direitos fundamentais à privacidade, à proteção de dados pessoais e ao devido processo legal. Destacou a desproporcionalidade da medida, afirmando que uma quantidade significativa de usuários poderia ter seus sigilos afetados de forma indevida, evidenciando a necessidade de equilibrar o acesso à informação com a garantia dos direitos individuais.

Este caso sublinha a importância de um debate amplo e aprofundado sobre a privacidade e a proteção de dados no contexto digital, respeitando os princípios legais e os direitos fundamentais dos cidadãos.

Publicado em Deixe um comentário

PROTEÇÃO DE DADOS: A ESSÊNCIA E IMPORTÂNCIA DA LGPD

Em tempos onde a digitalização de dados tornou-se constante, a proteção da privacidade e dos direitos individuais nunca foi tão vital. É justamente aqui que a Lei Geral de Proteção de Dados Pessoais (LGPD) entra em cena, servindo como um escudo para os direitos fundamentais dos cidadãos. A lei defende a privacidade e impulsiona a liberdade individual, garantindo que os dados mais sensíveis permaneçam confidenciais.

Um caso emblemático, ocorrido em Barueri/SP, ilustra a essência dessa proteção e a urgência em sua aplicação. Quando o portal de saúde do município expôs, de forma inadvertida, os dados médicos de um paciente com HIV, a consequência foi imediata e devastadora. Uma combinação de CPF e data de nascimento revelou um segredo médico, desencadeando uma série de eventos no ambiente de trabalho do paciente.

Imagine por um momento o quão desagradável é ter uma informação tão pessoal e delicada exposta. A desinformação, os preconceitos e estigmatizações associados ao HIV apenas amplificaram o trauma experimentado. Ao mesmo tempo, reflete a fragilidade dos sistemas de proteção de dados em instituições públicas.

A ação tomada pela 5ª Câmara de Direito Público do Tribunal de Justiça do Estado de São Paulo, ao condenar a prefeitura de Barueri em danos morais, é um marco e um claro indicativo de que o direito à privacidade não é apenas uma noção abstrata, mas sim uma prerrogativa inalienável de todos. A decisão da desembargadora Heloísa Martins Mimessi ressoou poderosamente, destacando a inerente dignidade que todo cidadão merece, independentemente das circunstâncias.

Embora o município tenha buscado apelação no Superior Tribunal de Justiça (STJ), o veredicto manteve-se firme, solidificando a jurisprudência sobre o assunto.

Este caso é mais do que uma lição sobre a responsabilidade na gestão de dados. No entanto, enquanto nos esforçamos para progredir no mundo digital, devemos sempre ser guiados pelo princípio fundamental da empatia e pelo imperativo moral da proteção dos direitos individuais. A LGPD não é apenas uma legislação; é uma diretriz essencial para a proteção de dados no futuro.

Publicado em Deixe um comentário

EQUILIBRANDO TRANSPARÊNCIA E PRIVACIDADE: ESTRATÉGIAS PARA O TRATAMENTO DE DADOS PESSOAIS EM DOCUMENTOS GOVERNAMENTAIS

É importante ressaltar que o dilema em questão é, na verdade, uma falsa dicotomia. A proteção dos dados pessoais e a transparência proativa são ambos direitos fundamentais consagrados na Constituição. A transparência proativa é uma ferramenta crucial para assegurar o direito fundamental de acesso à informação relacionada à gestão pública. De maneira similar, a proteção dos dados pessoais foi oficialmente reconhecida como um direito fundamental pela Emenda Constitucional n° 115, que a incorporou ao mesmo artigo 5º. Não existe uma hierarquia entre os direitos fundamentais, mas sim uma busca por harmonizá-los sempre que possível, mesmo em situações de aparente conflito. Portanto, a Lei de Acesso à Informação (LAI) desempenha o papel de promover a transparência e o acesso à informação para os cidadãos, enquanto a Lei Geral de Proteção de Dados (LGPD) estabelece regras e restrições para o uso de dados pessoais.

A transparência proativa tem como principal objetivo possibilitar o controle social e a supervisão das ações do setor público, sendo essencial para a prática democrática e para assegurar a prestação de contas das atividades governamentais. Assim, quando a transparência proativa implica na divulgação de dados pessoais, o interesse público nessa divulgação se restringiria à identificação dos agentes, sejam eles públicos ou privados, envolvidos nos atos administrativos, como contratos e notas de empenho. Essa identificação pode ser viabilizada por meio do nome completo e do CPF, ou alternativamente, pelo número de matrícula nos casos que envolvam agentes públicos. O CPF, inclusive, já é considerado um documento suficiente para identificar cidadãos em bancos de dados de serviços públicos, de acordo com a Lei nº 14.534/2023.

No contexto da transparência proativa, é possível que, além do nome e do CPF, outros dados pessoais sejam disponibilizados. Por exemplo, em contratos administrativos, os dados pessoais dos responsáveis legais podem incluir informações como data de nascimento, endereço, e-mail, telefone e assinatura. Similarmente, notas de empenho podem conter mais informações sobre a pessoa física beneficiária de pagamentos do setor público.

No entanto, a coleta organizada desses dados pessoais pode ser explorada por indivíduos mal-intencionados para atividades ilícitas, como roubo de identidade, abertura fraudulenta de contas bancárias, subscrição de serviços e até mesmo a realização de transações civis, como aluguel de propriedades ou compra de bens. Detentores desses dados podem falsificar documentos e fazer-se passar pelas pessoas cujas informações foram expostas.

Além disso, é importante considerar que algoritmos de web scraping são capazes de extrair informações de diversos documentos para construir bancos de dados, permitindo o perfilamento de servidores públicos com base em sua renda mensal, conforme apresentado nos portais de transparência. Isso pode levar a empresas com intenções duvidosas direcionando produtos e anúncios específicos, o que constitui uma violação dos princípios da LGPD.

Portanto, esses dados não são essenciais para a transparência proativa, uma vez que extrapolam sua finalidade e sua divulgação acarreta riscos aos titulares. No que diz respeito à identificação dos responsáveis por atos administrativos, acredita-se que somente o nome e o CPF são suficientes.

Contudo, quanto ao CPF, também é possível argumentar que a divulgação do número completo dos envolvidos em atos administrativos não é necessária, dado que esse é um dado altamente sensível e único para cada indivíduo. Nos Estados Unidos, o SSN (Número de Seguro Social) possui funções semelhantes ao CPF e é amplamente recomendado que esse número seja mantido confidencial, devido ao risco de fraude.

Em contratos administrativos, portanto, apenas a informação de identificação do representante legal, com nome completo e CPF mascarado (ou número de matrícula em casos de servidores públicos), seria suficiente para atender à transparência proativa, protegendo a privacidade dos envolvidos e prevenindo fraudes.

No entanto, há situações em que os dados pessoais não estão estruturados em bancos de dados, como contratos administrativos digitalizados, e estão disponíveis no documento. Se o documento for digitalizado com reconhecimento óptico de caracteres, os dados pessoais podem ser extraídos, inclusive de forma automatizada.

Nesses casos, ferramentas de “marcação para redação” podem ser empregadas para cobrir os dados pessoais que não são necessários. Isso, no entanto, muitas vezes requer intervenção manual, o que pode ser desafiador para órgãos com recursos limitados. Além disso, o mascaramento do CPF pode exigir softwares específicos.

Por conseguinte, o encarregado pelo tratamento de dados pessoais deve orientar as áreas responsáveis.

Publicado em Deixe um comentário

LGPD NOS CARTÓRIOS: ENCONTRANDO EQUILÍBRIO ENTRE PRIVACIDADE E TRANSPARÊNCIA

A aplicação da Lei Geral de Proteção de Dados (LGPD) nos cartórios tem gerado debates, e um dos principais pontos de controvérsia é a expedição de certidões. A emissão de certidões por notários e registradores está prevista em leis específicas, o que tem gerado um conflito aparente entre a necessidade de publicidade e o direito fundamental à proteção de dados pessoais. A implementação dessa legislação tem impactado as práticas diárias dos profissionais notariais e registrais.

Embora a Constituição Federal já protegesse a privacidade e a intimidade, a proteção de dados pessoais tornou-se um direito fundamental com a promulgação da Emenda Constitucional 115/2022. A Autoridade Nacional de Proteção de Dados (ANPD) ressalta a importância dos direitos à privacidade e proteção de dados pessoais, pois esses direitos fundamentais visam promover a dignidade humana e proteger os cidadãos, especialmente na era digital.

O reconhecimento da proteção dos dados pessoais como um direito fundamental busca garantir que a construção da personalidade esteja salvaguardada. A proteção de dados pessoais está relacionada ao livre desenvolvimento e determinação da personalidade, ligada à proteção da privacidade e intimidade. Princípios e direitos como a dignidade da pessoa humana, o livre desenvolvimento da personalidade e a privacidade estão associados ao direito à proteção de dados pessoais.

A Lei 13.709/18, que trata da proteção de dados pessoais, estabelece princípios como finalidade, adequação e necessidade para o tratamento de dados. A expedição de certidões, considerada uma operação de tratamento de dados, deve observar esses princípios. A Lei também determina que o notário ou registrador deve avaliar a adequação, necessidade e proporcionalidade do conteúdo da certidão de acordo com sua finalidade.

As diferenças entre a publicidade notarial e registral são essenciais para entender o conflito aparente entre os direitos de proteção de dados pessoais e a publicidade. A expedição de certidões por notários é focada em atos específicos e destinada principalmente às partes envolvidas, enquanto a publicidade registral é mais ampla e direcionada a qualquer pessoa.

A proteção de dados pessoais introduz um novo procedimento para a expedição de certidões, considerando a necessidade de análise, validação e adaptação à LGPD. Esse processo difere da simples emissão de certidões e requer um tratamento cuidadoso para garantir que dados pessoais relevantes sejam protegidos e usados de forma proporcional.

Portanto, a aplicação da LGPD nos cartórios requer uma compreensão clara das diferenças entre as publicidades notarial e registral, assim como a necessidade de um novo procedimento para a expedição de certidões em conformidade com os princípios de proteção de dados pessoais. Isso garante que tanto a proteção dos dados pessoais quanto a publicidade dos atos sejam equilibradas de maneira justa e legal.