Publicado em Deixe um comentário

SERVIDORA PÚBLICA DENUNCIA ABORDAGEM EQUIVOCADA POR SISTEMA DE RECONHECIMENTO FACIAL

Uma servidora pública e defensora da igualdade racial foi alvo de um incidente preocupante envolvendo o uso de tecnologia de reconhecimento facial pela Polícia Militar. Durante um evento sobre igualdade racial no Centro do Rio, ela foi erroneamente identificada como uma foragida da justiça. A abordagem ocorreu quando a imagem dela foi associada no sistema de reconhecimento facial a uma pessoa procurada.

A servidora, que há uma década trabalha ouvindo relatos de vítimas de preconceito, descreveu a experiência como extremamente constrangedora. “Eles me mostraram a foto da pessoa procurada, que é completamente diferente de mim. Senti-me desamparada e temo que isso possa ocorrer novamente”, relatou. Até o momento, ela não recebeu esclarecimentos sobre o destino das imagens capturadas nem sobre a sua eventual arquivação.

Os policiais, ao perceberem o erro, encerraram a abordagem, justificando que seguiam o protocolo. A Polícia Militar informou que o sistema de reconhecimento facial foi selecionado via licitação e testado nos Estados Unidos. Contudo, a servidora questiona a eficácia e a segurança do sistema, destacando a preocupação com a tecnologia que, segundo ela, não foi desenvolvida pensando nas especificidades da população brasileira.

O caso está sendo acompanhado pela Defensoria Pública do Estado, que solicitou à Secretaria de Segurança Pública informações detalhadas sobre o uso da tecnologia. A defensora pública responsável pelo caso ressaltou que a tecnologia de IA e algoritmos pode reproduzir padrões racistas presentes na sociedade.

A cidade do Rio de Janeiro já conta com videomonitoramento em tempo real em vários pontos. Entre dezembro do ano passado e junho deste ano, 200 pessoas foram presas com base no reconhecimento facial, o que levanta debates sobre a necessidade de uma regulamentação mais rigorosa para evitar erros e abusos.

A servidora destacou ainda a importância de estar sempre com documentação pessoal, um ensinamento transmitido desde a infância para muitas pessoas negras. Ela mencionou que, mesmo adulta, compreendeu a necessidade de ter seus documentos à mão em todos os momentos.

Casos de prisões equivocadas devido a bancos de dados desatualizados também foram registrados. No início do ano, duas pessoas foram presas indevidamente porque os mandados de prisão já não tinham validade. No semestre, quase metade das prisões relacionadas ao reconhecimento facial foram por falta de pagamento de pensão alimentícia, além de crimes como roubo, homicídio, feminicídio, tráfico de drogas, violência doméstica, furto e estupro.

A Defensoria Pública questiona os protocolos utilizados, o treinamento dos agentes de segurança e a base de dados que alimenta o sistema de reconhecimento facial. A Secretaria Estadual de Governo afirmou que a abordagem seguiu os protocolos e foi encerrada após a apresentação dos documentos pela servidora. A Polícia Civil está investigando o caso na Delegacia de Combate aos Crimes Raciais e Delitos de Intolerância.

Publicado em Deixe um comentário

IA E PROTEÇÃO DE DADOS: DESAFIOS REGULATÓRIOS E O CASO DA META PLATFORMS

A IA está se tornando cada vez mais onipresente em nossas vidas, transformando uma ampla gama de processos comerciais e pessoais com um potencial quase ilimitado para inovação. Seja melhorando a eficiência operacional, personalizando a experiência do usuário, ou mesmo impulsionando avanços em áreas críticas como saúde e educação, a IA está na vanguarda da revolução tecnológica. No entanto, à medida que essa tecnologia se infiltra em mais aspectos de nossa existência diária, crescem também as preocupações com a proteção de dados pessoais.

O equilíbrio entre a inovação trazida pela IA e a privacidade dos indivíduos é uma questão cada vez mais premente. A capacidade da IA de processar e analisar grandes volumes de dados pessoais pode oferecer insights profundos e melhorias de serviço, mas também apresenta riscos significativos de privacidade e segurança. Neste contexto, a intervenção regulatória torna-se crucial. Um exemplo emblemático dessa tensão regulatória é a recente decisão da ANPD – Autoridade Nacional de Proteção de Dados do Brasil, que impôs medidas restritivas contra a Meta Platforms Inc., anteriormente conhecida como Facebook. A decisão visou suspender a implementação de novas políticas de privacidade relacionadas ao uso de dados pessoais para o treinamento de sistemas de IA generativa, destacando os desafios de assegurar que tais inovações não comprometam os direitos fundamentais dos usuários.

Este caso sublinha a necessidade imperativa de uma vigilância regulatória robusta e de uma abordagem ponderada que não apenas fomente a inovação tecnológica, mas também proteja rigorosamente a privacidade e os dados pessoais. A medida da ANPD reflete um passo significativo na direção de um quadro legal que busca harmonizar esses dois objetivos, servindo como um ponto de referência para o debate global sobre como melhor regular o impacto transformador da inteligência artificial em nossa sociedade.

A ascensão da IA

A IA, um campo que abrange desde algoritmos simples até complexos sistemas de aprendizado de máquina, vem sendo cada vez mais adotada em uma miríade de setores industriais. Sua aplicabilidade estende-se desde a realização de análises preditivas, que antecipam tendências de mercado e comportamento de consumidores, até a automação de processos, que substitui a intervenção humana em tarefas repetitivas e meticulosas, culminando na personalização de serviços, que ajusta experiências e ofertas às necessidades individuais dos usuários.

Benefícios da IA

Os benefícios proporcionados pela IA são multifacetados e substanciais. No setor de saúde, por exemplo, algoritmos de IA são utilizados para diagnosticar doenças com precisão e rapidez que superam frequentemente a capacidade humana. Na indústria financeira, a IA melhora a segurança através da detecção de fraudes e da gestão de risco, enquanto no varejo, sistemas de recomendação baseados em IA aprimoram a experiência do cliente ao sugerir produtos alinhados com suas preferências passadas e atuais. Essas inovações não apenas aumentam a eficiência e a eficácia operacional, mas também abrem novos caminhos para a personalização em massa e o engajamento do cliente.

Desafios éticos e de privacidade

Entretanto, o avanço da IA não está isento de desafios significativos, especialmente no que tange à ética e à privacidade. A capacidade desses sistemas de coletar, armazenar e processar enormes volumes de dados pessoais gera preocupações profundas com a segurança e a integridade dessas informações. O risco de vazamentos de dados, uso indevido de informações sensíveis e a falta de transparência sobre como os dados são utilizados e por que são questões que demandam urgente atenção regulatória e ética.

Ademais, a automação trazida pela IA pode conduzir a questões de desemprego tecnológico, enquanto o viés algorítmico – onde sistemas perpetuam ou até exacerbam discriminações preexistentes – suscita debates acalorados sobre a justiça e a imparcialidade das decisões tomadas por máquinas. Tais preocupações enfatizam a necessidade de desenvolver e implementar IA de maneira responsável, assegurando que tecnologias avançadas promovam benefícios sem erodir a ética ou comprometer os direitos fundamentais dos indivíduos.

Portanto, enquanto a ascensão da inteligência artificial sinaliza uma era de possibilidades quase ilimitadas, ela também impõe a necessidade imperativa de vigilância e regulamentação robustas para garantir que seu uso seja equitativo, seguro e respeitoso com a privacidade e a dignidade humana.

O caso da Meta Platforms e a decisão da ANPD

A recente intervenção da ANPD no Brasil no caso da Meta Platforms Inc. ilustra vividamente as complexas interseções entre inovação tecnológica e regulamentação de privacidade. A decisão da ANPD, que resultou na suspensão de partes específicas da nova política de privacidade da Meta relacionadas ao uso de dados para o treinamento de sistemas de inteligência artificial generativa, marca um momento decisivo na governança de dados pessoais frente às tecnologias emergentes.

Detalhamento da decisão

Conforme explicitado pelo despacho decisório 20/24/PR/ANPD, a medida preventiva foi adotada após um cuidadoso escrutínio das políticas propostas pela Meta. A decisão determinou a suspensão imediata da implementação da política que permitiria o uso extensivo de dados pessoais para o treinamento de IA. Isso incluía não apenas os dados de usuários ativos das plataformas da Meta, mas também de indivíduos não usuários, ampliando significativamente o escopo de coleta e análise de dados pessoais.

Base legal e justificativa

A ANPD baseou sua decisão em uma série de fundamentos legais solidamente estabelecidos, incluindo, mas não se limitando a:

Art. 45 da Lei nº 9.784/1999: Que regula o processo administrativo no âmbito da Administração Pública Federal.
Arts. 52 e 54 da LGPD: Que tratam das sanções administrativas aplicáveis em caso de tratamento de dados realizado em desacordo com a legislação.
Art. 26, IV, do decreto 10.474/20: Que especifica procedimentos e competências da ANPD.
Arts. 7°, IV e 55 do Regimento Interno da ANPD: Que detalham as atribuições e poderes conferidos ao Conselho Diretor da ANPD.
O uso destas bases legais reflete a abordagem adotada pela ANPD para garantir que qualquer forma de processamento de dados respeite os limites impostos pela legislação brasileira. O “risco iminente de dano grave e irreparável”, mencionado no despacho, sublinha a preocupação da ANPD com a potencial violação massiva dos direitos fundamentais dos titulares dos dados, considerando a natureza invasiva das práticas propostas pela Meta.

Implicações da Medida Preventiva

Esta decisão não apenas impõe a necessidade de uma revisão substancial das práticas de privacidade pela Meta, mas também serve como um alerta para outras corporações que operam em território brasileiro e globalmente, reiterando a seriedade com que as questões de privacidade estão sendo tratadas pela ANPD. A ação da ANPD é um lembrete potente de que a inovação tecnológica não pode avançar à custa de direitos pessoais, e que a proteção de dados pessoais é um pilar central na regulação de tecnologias disruptivas como a inteligência artificial.

Implicações e reflexões sobre a decisão

A decisão proferida pela ANPD contra a Meta Platforms Inc. traz à tona várias implicações significativas para a empresa e para o ecossistema tecnológico mais amplo, especialmente no que se refere ao desenvolvimento e aplicação da IA em conformidade com as normas de proteção de dados.

Consequências para a Meta Platforms e o setor tecnológico

Para a Meta Platforms, esta decisão implica a necessidade de reavaliar e modificar suas práticas de coleta e uso de dados, especialmente aquelas relacionadas ao treinamento de sistemas de IA generativa. O impacto é duplo: operacional e reputacional. Operacionalmente, a Meta deve adaptar suas operações para garantir que as políticas de privacidade estejam em total conformidade com as determinações da ANPD, o que pode requerer investimentos significativos em tecnologia e governança de dados. Reputacionalmente, a decisão enfatiza a posição da empresa sob escrutínio regulatório, o que pode afetar a confiança dos usuários e, por extensão, influenciar negativamente a participação de mercado e a percepção pública.

Outras empresas do setor de tecnologia, particularmente aquelas que operam no Brasil ou que coletam e processam dados de cidadãos brasileiros, também precisarão revisar suas operações. Esta decisão serve como um lembrete crítico da necessidade de aderência estrita às leis de proteção de dados, sublinhando que a ANPD está ativa e disposta a tomar medidas punitivas contra práticas consideradas prejudiciais aos direitos dos titulares de dados.

Influência em políticas de privacidade e práticas de desenvolvimento de IA

A nível global, a decisão da ANPD pode ter um efeito cascata, incentivando outras jurisdições a adotarem posturas semelhantes na regulamentação da IA e na proteção de dados. Isso pode levar a uma padronização mais rígida das práticas de privacidade e uso de dados em IA forçando as empresas a adotarem uma abordagem mais centrada no usuário e orientada pela ética para o desenvolvimento de tecnologias.

A longo prazo, a decisão pode estimular a inovação responsável dentro do campo da IA. Empresas poderiam ser incentivadas a desenvolver novas metodologias de treinamento de IA que requerem menos dados pessoais ou que utilizem técnicas de anonimização e pseudonimização. Além disso, a decisão reforça a importância da transparência e do consentimento do usuário, elementos que podem se tornar ainda mais centrais nas estratégias de desenvolvimento de produtos tecnológicos.

A discussão em torno da recente decisão da ANPD contra a Meta Platforms Inc. reflete uma problemática central no mundo contemporâneo: a necessidade de equilibrar a inovação tecnológica com a proteção de dados pessoais. Este caso destaca não apenas os desafios inerentes ao rápido avanço da IA, mas também a grande importância de regulamentações que salvaguardem os direitos fundamentais dos indivíduos.

Equilíbrio entre inovação e proteção de dados

As tecnologias de IA, ao transformar setores inteiros, oferecem imensas oportunidades para o crescimento econômico e o bem-estar social. Contudo, essas mesmas tecnologias podem também implicar riscos significativos para a privacidade e a segurança dos dados pessoais. A decisão da ANPD ilustra o papel crítico que as entidades reguladoras desempenham em manter esse equilíbrio, assegurando que a inovação não ocorra à custa de direitos individuais.

Perspectivas futuras sobre a regulação da IA

Olhando para o futuro, é provável que a regulação da IA se torne ainda mais rigorosa, tanto no Brasil quanto globalmente. A tendência é que as leis de proteção de dados se fortaleçam em resposta às novas demandas impostas pelo desenvolvimento tecnológico e pela crescente digitalização de nossas vidas. A decisão da ANPD pode servir como um precedente influente, incentivando a implementarem ou aprimorarem regulamentações que diretamente abordem os desafios específicos impostos pelo uso de IA, especialmente em contextos que envolvem grandes volumes de dados pessoais.

Além disso, espera-se que as empresas que desenvolvem e implementam soluções baseadas em IA aumentem seu foco em estratégias de conformidade e em práticas de desenvolvimento ético. Isso pode incluir a adoção de princípios de IA responsável, o fortalecimento de medidas de segurança de dados, e o investimento em tecnologias que promovam a transparência e permitam um controle mais efetivo dos usuários sobre seus dados.

Considerações finais

Em última análise, a interação entre inovação tecnológica e regulamentação de privacidade é dinâmica e requer uma vigilância contínua. A decisão da ANPD reforça a necessidade de um diálogo contínuo entre reguladores, empresas de tecnologia, acadêmicos e a sociedade civil para assegurar que os benefícios da inteligência artificial sejam realizados de forma que respeite e proteja a privacidade e a integridade dos dados pessoais. As decisões que tomamos hoje definirão o cenário regulatório e tecnológico do amanhã, influenciando não apenas a forma como interagimos com a tecnologia, mas também como ela molda nossa sociedade.

Publicado em Deixe um comentário

RELATÓRIO DA UNIÃO EUROPEIA QUESTIONA A PRECISÃO DOS DADOS DO CHATGPT

A equipe de defesa da privacidade da União Europeia (UE) avaliou que os esforços da OpenAI para reduzir o número de informações falsas geradas pelo ChatGPT ainda não são suficientes para cumprir as rigorosas políticas de dados da UE.

Conforme detalhado em um relatório publicado no site da equipe, as medidas adotadas para aumentar a transparência, apesar de úteis para evitar interpretações errôneas dos resultados do ChatGPT, ainda não atendem plenamente ao critério de precisão de dados exigido pela legislação europeia.

No ano passado, conforme noticiado pela Reuters, autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões específicas relacionadas ao ChatGPT. Essa ação foi motivada por preocupações levantadas por reguladores nacionais sobre o uso crescente deste serviço de inteligência artificial.

O relatório aponta que algumas investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membros ainda estão em andamento. Portanto, os resultados apresentados devem ser entendidos como observações preliminares comuns a essas autoridades. A exatidão dos dados é uma das principais diretrizes da regulamentação de proteção de dados da UE.

“Devido à natureza probabilística do sistema, a metodologia atual de treinamento pode gerar informações tendenciosas ou fictícias,” destaca o relatório. “Além disso, os usuários finais podem interpretar os resultados gerados pelo ChatGPT como fatos precisos, especialmente quando se referem a dados sobre indivíduos, sem verificar a veracidade dessas informações.”

Esse levantamento sublinha a importância de medidas adicionais para garantir que as saídas do ChatGPT não apenas evitem erros interpretativos, mas também cumpram os elevados padrões de precisão de dados exigidos pela UE.

Publicado em Deixe um comentário

ANPD ABRE CONSULTA SOBRE TRATAMENTO DE DADOS DE CRIANÇAS E ADOLESCENTES

A Autoridade Nacional de Proteção de Dados (ANPD) iniciou uma Tomada de Subsídios referente ao Tratamento de Dados de Crianças e Adolescentes, com o propósito de fundamentar a criação de um projeto regulatório específico para essa faixa etária. A iniciativa está aberta por 30 dias na Plataforma Participa+Brasil, permitindo contribuições de indivíduos, órgãos públicos e organizações da sociedade civil.

Ao término do período de consulta, a Coordenação-Geral de Normatização (CGN) da ANPD analisará as sugestões recebidas e conduzirá uma Análise de Impacto Regulatório (AIR), que servirá de base para a formulação da solução regulatória mais apropriada.

A abrangência da Tomada de Subsídios é significativa, abordando temas como o melhor interesse do menor, consentimento fornecido por pais e responsáveis, coleta de dados por meio de jogos e aplicações de internet, e a transparência nas operações de tratamento de dados.

O tratamento de dados de crianças e adolescentes é uma questão central tanto para o Poder Público quanto para diversas organizações defensoras de direitos. Embora a Lei Geral de Proteção de Dados (LGPD) trate do assunto, há necessidade de análises regulatórias adicionais. É essencial considerar o desenvolvimento infantil e os riscos associados ao ambiente digital.

Em iniciativas anteriores, a ANPD já explorou o tema, como na Consulta Pública de setembro de 2022, que resultou no Enunciado CD/ANPD nº 01/2023, uniformizando a interpretação das hipóteses legais aplicáveis ao tratamento de dados de menores. Além disso, a Autoridade publicou um guia orientativo sobre o legítimo interesse, esclarecendo sua aplicação no contexto de dados de crianças e adolescentes.

Vale destacar que a proteção de dados pessoais de menores é uma prioridade contínua para a ANPD, sendo uma preocupação transversal que permeia todas as suas ações regulatórias. A Tomada de Subsídios é apenas um passo nesse processo abrangente de proteção e garantia de direitos.

Publicado em Deixe um comentário

RELATÓRIO DA UNIÃO EUROPEIA APONTA INSUFICIÊNCIAS NA TRANSPARÊNCIA DO CHATGPT

Uma equipe do órgão de defesa da privacidade da União Europeia (UE) divulgou um relatório indicando que os esforços da OpenAI para diminuir o número de resultados factualmente incorretos do ChatGPT ainda não são suficientes para atender às rigorosas políticas de dados da UE.

O relatório aponta que, embora as iniciativas para aumentar a transparência sejam positivas para evitar interpretações errôneas dos resultados do ChatGPT, essas medidas não bastam para garantir a precisão dos dados, conforme exigido pelas normas da UE.

No ano passado, as autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões relacionadas ao ChatGPT, após preocupações levantadas por reguladores nacionais sobre o serviço de inteligência artificial amplamente utilizado. Segundo o relatório, investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membro ainda estão em andamento, e, portanto, os resultados completos não podem ser divulgados. Assim, os pontos destacados no relatório devem ser vistos como observações comuns entre as autoridades nacionais.

Uma regra fundamental de proteção de dados na UE é a exatidão. No entanto, o relatório enfatiza que, devido à natureza probabilística do ChatGPT, o modelo pode gerar informações tendenciosas ou fabricadas. Além disso, os resultados fornecidos pelo ChatGPT podem ser interpretados pelos usuários como fatos precisos, sem considerar a veracidade das informações.

É importante ressaltar a necessidade contínua de melhorar os mecanismos de precisão no ChatGPT para que se alinhem plenamente com os rigorosos padrões de proteção de dados da UE, destacando os desafios e a complexidade envolvidas na gestão da precisão em sistemas de inteligência artificial.

Publicado em Deixe um comentário

DESAFIOS DE COMPLIANCE NO SETOR DE TECNOLOGIA E TELECOMUNICAÇÕES

As empresas de tecnologia e telecomunicações estão na linha de frente dos desafios de compliance, devido à natureza altamente regulada de suas operações e ao vasto volume de dados pessoais que tratam diariamente. A gestão desses dados acarreta não apenas riscos regulatórios, mas também a possibilidade de incidentes de segurança que podem ter consequências significativas.

Para garantir maior eficiência e otimização, muitas empresas terceirizam parte de suas operações. Contudo, essa prática exige uma avaliação criteriosa dos terceiros contratados para assegurar que fornecedores e parceiros também estejam alinhados com as melhores práticas de compliance. Além disso, a natureza transfronteiriça das operações dessas empresas demanda a observância das regulamentações de diversos países, elevando o nível de complexidade e a necessidade de um programa de compliance robusto e integrado.

Consequências da Não Conformidade

A não conformidade com as regras de compliance no ambiente digital pode resultar em severas sanções e ações judiciais. Empresas que falham em proteger os dados pessoais podem enfrentar multas expressivas, proibições operacionais e outras penalidades administrativas. Além dos impactos financeiros, as empresas também podem sofrer danos irreparáveis à sua reputação e marca.

Desenvolvimento de Programas de Compliance

Desenvolver e implementar programas de compliance eficazes em um ambiente digital em constante evolução é crucial. O comprometimento da liderança é o primeiro passo fundamental para o sucesso de qualquer programa de compliance. A liderança deve compreender a importância do tema e alocar recursos adequados para manter um programa robusto e eficaz.

A criação de políticas e procedimentos de governança é essencial. Esses documentos devem ser amplamente divulgados e implementados de forma precisa no dia a dia das atividades empresariais.

Educação Digital e Governança Corporativa

A educação digital é outra peça-chave para a conformidade em um ambiente digital. Empresas têm a obrigação de educar os usuários sobre seus direitos e práticas de segurança para proteger dados pessoais. Esse esforço deve ser transparente e fornecer orientações claras sobre como os usuários podem proteger suas informações enquanto utilizam os serviços da empresa.

Avaliação de Riscos e Medidas Técnicas

As empresas devem estar constantemente atentas aos riscos de violação da privacidade dos dados. Avaliações periódicas dos riscos e impactos são essenciais para identificar vulnerabilidades. Medidas técnicas e organizacionais, como controles de acesso, autenticação multifatorial, gerenciamento de privilégios, monitoramento de atividades, criptografia e sistemas de detecção de ameaças, são cruciais para garantir a segurança dos dados.

Transferências Internacionais de Dados

Para transferências internacionais de dados, é necessário garantir que os dados sejam protegidos conforme os padrões regulatórios de cada localidade. Cláusulas contratuais robustas devem ser implementadas para assegurar o tratamento adequado dos dados e permitir auditorias regulares das práticas de segurança e conformidade.

Inovação e Tecnologia no Compliance

As novas tecnologias são ferramentas fundamentais para a inovação nos processos de compliance. Análises preditivas podem examinar grandes conjuntos de dados para identificar padrões e possíveis violações de compliance. Tecnologias avançadas também facilitam auditorias digitais, permitindo uma coleta e análise mais eficiente de evidências em casos de incidentes de segurança. Isso não apenas mitiga danos aos titulares de dados, mas também assegura a conformidade regulatória, atendendo princípios como o da responsabilização e prestação de contas previstos na Lei Geral de Proteção de Dados (LGPD).

A complexidade do ambiente digital e as crescentes exigências regulatórias impõem um desafio significativo às empresas de tecnologia e telecomunicações. No entanto, com um compromisso firme da liderança, políticas bem estruturadas, educação contínua e uso de tecnologias avançadas, é possível desenvolver um programa de compliance eficaz que proteja dados pessoais e sustente a confiança e a integridade da empresa.

Publicado em Deixe um comentário

BIOMETRIA E A REVOLUÇÃO DA SEGURANÇA DE DADOS

Imagine um futuro onde esquecer senhas e perder crachás se torne obsoleto. Em vez de enfrentar o tedioso processo de preencher formulários, um novo funcionário poderia simplesmente fornecer algumas informações biométricas. O rosto seria escaneado, o modo de caminhar analisado, uma frase gravada, e pronto: o próprio corpo se tornaria a chave para acessar todas as áreas da empresa.

Este é o cenário que especialistas em biometria preveem. De acordo com uma recente reportagem do The Wall Street Journal, a integração dessas tecnologias promete transformar a experiência de segurança e acesso nas empresas. Um diretor de tecnologia de uma empresa de segurança descreve uma experiência perfeitamente integrada: ao chegar ao estacionamento, sua localização seria detectada pelo sistema do celular. Entrando pela porta principal, o reconhecimento facial abriria a porta e desbloquearia seu computador automaticamente.

Além de eliminar a inconveniência das senhas esquecidas, essa tecnologia poderia fortalecer significativamente a proteção contra ataques cibernéticos. No entanto, isso levanta importantes questões sobre a privacidade e o uso de dados biométricos pelos empregadores.

Hoje, já vemos scanners de palma em consultórios médicos e o desbloqueio de smartphones por impressão digital. O reconhecimento facial é comum em aeroportos e estádios. Mas, com o avanço contínuo da inteligência artificial e da tecnologia de sensores, podemos esperar uma integração ainda mais sofisticada de dados biométricos nos próximos anos.

Mesmo com os benefícios evidentes, como maior proteção contra invasões, há preocupações legítimas sobre a privacidade e a segurança dos dados. A chave para equilibrar esses benefícios e riscos está na combinação de criptografia robusta e regulamentações governamentais rigorosas sobre a coleta, uso e armazenamento de informações biométricas.

Embora substituir senhas por biometria possa parecer algo futurista, a indústria de tecnologia está cada vez mais focada nesse objetivo. Grandes empresas de tecnologia estão na vanguarda dessa mudança, promovendo métodos de autenticação baseados em biometria em vez de senhas tradicionais. Contudo, como especialistas em segurança digital alertam, mesmo a melhor tecnologia pode falhar. E quando se trata de dados biométricos, os riscos de vazamento ou roubo são particularmente preocupantes, já que não podemos simplesmente substituir nossas características físicas.

Assim, enquanto avançamos em direção a um futuro onde a biometria possa proporcionar segurança e conveniência sem precedentes, é importante continuar discutindo e desenvolvendo medidas para proteger nossa privacidade e segurança de dados.

Publicado em Deixe um comentário

ENTENDA AS NOVAS DIRETRIZES E DESAFIOS COM O GUIA DA ANPD

Recentemente, a Autoridade Nacional de Proteção de Dados (ANPD) lançou o “Guia Orientativo – Hipóteses legais de tratamento de dados pessoais – Legítimo Interesse”, que aprofunda o entendimento sobre a aplicação da Lei Geral de Proteção de Dados Pessoais (LGPD). Este guia detalha o legítimo interesse (LI), uma base legal que autoriza o tratamento de dados pessoais (não sensíveis) para atender interesses legítimos do controlador ou de terceiros, desde que esses interesses não violem os direitos e liberdades fundamentais dos titulares dos dados.

O guia apresenta interpretações da ANPD sobre o uso do LI, incluindo exemplos práticos e um modelo de teste de balanceamento. Este teste é crucial para que as empresas possam demonstrar um equilíbrio adequado entre os interesses envolvidos, garantindo que o tratamento dos dados seja proporcional e seguro.

A adoção da base do legítimo interesse representa um desafio para as empresas, que precisam realizar o teste de balanceamento para assegurar a proporcionalidade e a segurança no tratamento dos dados pessoais. Apesar de a minuta inicial do documento sugerir a obrigatoriedade do registro do teste, a versão final do guia não confirma essa exigência, mas indica que o registro contribui para a transparência e a prestação de contas, além de permitir a avaliação da conformidade pela ANPD.

O guia ressalta que os controladores devem avaliar os riscos e a necessidade de registrar o teste de balanceamento caso a caso, sendo obrigatório apenas no tratamento de dados de crianças e adolescentes baseado no legítimo interesse.

O documento também detalha os passos que o agente de tratamento deve seguir, desde a identificação da natureza dos dados até a avaliação dos interesses do controlador ou de terceiros. A ANPD considera a coletividade como um terceiro relevante, permitindo a aplicação do conceito de legítimo interesse em situações que beneficiem a sociedade como um todo, desde que respeitados os preceitos legais.

Para que o legítimo interesse seja válido, o controlador deve identificar e justificar o interesse, garantindo sua compatibilidade com as regras jurídicas, evitando situações especulativas ou futuras, e vinculando-o a finalidades legítimas e explícitas. O guia exemplifica a aplicação do legítimo interesse, permitindo que instituições de ensino enviem promoções aos seus alunos e professores, desde que observadas as disposições legais.

Apesar da clareza do guia, a aplicação do legítimo interesse é passível de questionamento, tanto pela ANPD quanto pelos titulares dos dados. Portanto, é essencial que os controladores sigam rigorosamente as orientações do guia, assegurando transparência e mecanismos que permitam aos titulares exercerem seus direitos.

O “Guia Orientativo – Hipóteses legais de tratamento de dados pessoais – Legítimo Interesse” da ANPD é um marco importante na regulamentação do tratamento de dados pessoais no Brasil, trazendo clareza e novos desafios para as empresas na implementação da LGPD.

Publicado em Deixe um comentário

NOVA RESOLUÇÃO DO TSE IMPÕE REGRAS PARA USO DE IA NA PROPAGANDA ELEITORAL

Recentemente, o Tribunal Superior Eleitoral (TSE) aprovou uma nova resolução que impactará a propaganda eleitoral para as eleições municipais de 2024, especificamente abordando o uso de inteligência artificial (IA), proteção de dados e fake news. A Resolução Nº 23.732/24 altera a Resolução nº 23.610/19 e traz à tona questões cruciais sobre a identificação e rotulagem de conteúdo sintético multimídia em peças publicitárias.

Uma das mudanças mais notáveis é a exigência de rotulagem de qualquer peça publicitária que utilize IA. Esta determinação visa informar o público sobre o uso de tecnologia avançada na criação de imagens, textos ou vídeos. No entanto, a aplicação prática dessa exigência gera dúvidas, pois a IA pode ser utilizada em várias fases do desenvolvimento publicitário, desde a pesquisa até a produção final. A resolução esclarece que o rótulo deve ser aplicado ao conteúdo final veiculado ao público, garantindo transparência sobre o uso de IA no material divulgado.

Além disso, o uso de chatbots e avatares foi restringido, proibindo qualquer simulação de conversas com candidatos ou pessoas reais, com o objetivo de evitar a disseminação de informações falsas ou enganosas. A vedação ao uso de deepfakes também é destacada, proibindo a utilização de qualquer conteúdo artificialmente gerado ou modificado que possa influenciar negativamente o processo eleitoral.

A resolução também aborda a proteção de dados, classificando campanhas em cidades com menos de 200.000 eleitores como agentes de tratamento de pequeno porte, aplicando-se as disposições da Resolução CD/ANPD nº 2 de 2022. Há uma exigência de registro detalhado das operações de tratamento de dados, incluindo informações sobre o tipo de dado, sua origem, categorias de titulares, finalidade e medidas de segurança adotadas.

Outra medida significativa é a exigência de um relatório de impacto à proteção de dados (RIPD) para campanhas que realizem tratamento de dados de alto risco, especialmente aquelas que envolvem tecnologias inovadoras ou dados sensíveis. Esse relatório deve ser elaborado pela candidata ou candidato e pelo partido político, detalhando os tipos de dados coletados, os riscos identificados, as metodologias de tratamento e as medidas de mitigação de riscos.

Essas regulamentações são essenciais para garantir que a IA e outras tecnologias emergentes sejam usadas de maneira responsável no contexto eleitoral, preservando a integridade do processo democrático e protegendo os direitos dos eleitores. Em um cenário global onde o uso irresponsável da IA em campanhas eleitorais tem sido reportado, como em casos nos EUA onde telefonemas automatizados enganam eleitores, a iniciativa do TSE representa um avanço significativo na busca por um processo eleitoral mais justo e transparente.

Publicado em Deixe um comentário

ESTRATÉGIAS PARA COMBATER OS DEEPFAKES NA ERA DIGITAL

Deepfakes, uma forma avançada de inteligência artificial que pode criar mídias sintéticas convincentes, representam uma ameaça crescente à segurança e à privacidade em todo o mundo. Recentemente, o Brasil foi palco de um episódio alarmante: um vídeo manipulado de um programa de notícias circulou nas redes sociais, exibindo um apresentador anunciando falsamente uma decisão governamental sobre uma indenização.

Este incidente é apenas um exemplo do uso malicioso dos Deepfakes, que estão sendo empregados em diversos golpes, desde ataques de phishing até a propagação de notícias falsas. Diante desse cenário, espera-se um aumento significativo nos investimentos destinados à detecção de imagens falsas.

Os gastos com ferramentas de segurança para combater os Deepfakes devem aumentar consideravelmente nos próximos anos. Esse crescimento é impulsionado pela preocupação com os riscos reputacionais e legais associados ao uso indevido de dados, bem como pela sofisticação crescente das técnicas de manipulação de mídia.

Uma das ferramentas mais eficazes na defesa contra os Deepfakes é um mecanismo de mapeamento facial alimentado por inteligência artificial. Essa tecnologia pode determinar se uma imagem de rosto corresponde a uma pessoa real ou se é uma representação sintética, como uma foto estática ou uma máscara.

Profissionais do setor destacam a importância desse tipo de tecnologia na identificação de fraudes que utilizam inteligência artificial para substituir rostos. Ressaltam que, com a crescente regulamentação e os riscos operacionais cada vez maiores, a adoção de ferramentas como essa se tornará essencial para organizações que lidam com grandes volumes de dados.

As principais soluções anti-Deepfakes do mercado empregam algoritmos de machine learning para analisar imagens em busca de sinais de manipulação. Essa abordagem é fundamental para mitigar os riscos associados aos Deepfakes e garantir a integridade da informação em um ambiente cada vez mais digitalizado.

Publicado em Deixe um comentário

FALHA DE SEGURANÇA EM HOSPITAL BRITÂNICO EXPÕE DADOS DA PRINCESA KATE MIDDLETON

O recente incidente no The London Clinic envolvendo a possível exposição de informações médicas privadas da Princesa Kate Middleton ressalta um desafio crítico no manejo de dados sensíveis. Relatos indicam que o hospital, onde a princesa foi recentemente tratada, teria demorado uma semana para informar as autoridades sobre uma suspeita de violação de dados. Isso está em desacordo com a legislação do Reino Unido, que exige a notificação de tais incidentes em até 72 horas após sua detecção.

O episódio destaca questões mais amplas sobre a segurança da informação e a privacidade do paciente em instituições médicas renomadas. Ainda que a investigação esteja em curso, já se sabe que três funcionários da clínica estão sendo investigados por supostamente acessar indevidamente o prontuário da princesa. Essas ações podem levar a sérias repercussões profissionais e disciplinares para os envolvidos.

A possível multa de até £18 milhões imposta ao hospital reitera a gravidade do descumprimento das normas de proteção de dados. Este caso serve como um lembrete potente para todas as instituições de saúde sobre a importância de aderir rigorosamente às leis de proteção de dados, não apenas para evitar penalidades financeiras, mas para manter a confiança do público e garantir a privacidade dos pacientes.

Publicado em Deixe um comentário

UNIÃO EUROPEIA INICIA INVESTIGAÇÃO CONTRA PRINCIPAIS EMPRESAS DE TECNOLOGIA

Recentemente, a União Europeia iniciou um procedimento investigativo contra algumas das maiores empresas de tecnologia do mundo, marcando um passo significativo na aplicação de uma legislação inovadora voltada para a promoção de um mercado digital mais justo e aberto. A legislação em questão, que entrou em vigor no início de março deste ano, visa regular as operações dessas corporações para garantir que não dominem o mercado de maneira injusta, afetando a livre concorrência e a escolha do consumidor.

Uma autoridade regulatória de alto escalão expressou preocupações com as soluções propostas por essas empresas, sugerindo que elas podem não estar totalmente alinhadas com os objetivos da nova lei. Essa posição destaca a importância de práticas empresariais que promovam um ambiente digital equitativo, enfatizando a necessidade de inovação e diversidade no ecossistema tecnológico.

Em resposta às exigências regulatórias, uma dessas empresas implementou mudanças significativas em seus sistemas operacionais e plataformas de distribuição de aplicativos, incluindo medidas para permitir a instalação de aplicativos fora de sua loja oficial e reforçar a proteção à privacidade dos usuários. Apesar dessas adaptações, as autoridades reguladoras continuam céticas quanto à sua eficácia em cumprir integralmente com as obrigações estabelecidas pela legislação.

A investigação não se limita a práticas de distribuição de aplicativos, estendendo-se também a como uma determinada empresa trata o consentimento dos usuários e o compartilhamento de dados entre suas várias plataformas. Este aspecto da investigação destaca questões críticas sobre privacidade e o direito dos usuários de controlar como suas informações pessoais são utilizadas.

Com um prazo de 12 meses para concluir essa investigação, as autoridades têm a tarefa de avaliar se as práticas dessas empresas estão em conformidade com a legislação. Caso sejam encontradas infrações, as consequências podem ser severas, incluindo multas substanciais que refletem a gravidade do descumprimento. Este cenário sublinha a seriedade com que a União Europeia está abordando a regulamentação do espaço digital, visando estabelecer um precedente para um ambiente digital mais aberto e equitativo.

Essa iniciativa representa um momento importante para o futuro do espaço digital, testando tanto a determinação das autoridades reguladoras em impor a nova legislação quanto a vontade das empresas de tecnologia em adaptar suas operações a um quadro mais estrito, que prioriza a equidade e a concorrência leal.