Publicado em Deixe um comentário

JUSTIÇA IMPÕE MULTA DE R$ 200 MIL A HOSPITAL POR VAZAMENTO DE DADOS DE KLARA CASTANHO

O recente episódio envolvendo o vazamento de informações sensíveis da atriz Klara Castanho pelo Hospital e Maternidade Brasil, integrante da Rede D’Or São Luiz, evidencia um cenário alarmante sobre a proteção de dados no âmbito da saúde. Em 2022, detalhes de um caso particular de uma paciente, que involuntariamente se tornou centro de uma ampla discussão pública, foram expostos sem seu consentimento. Este incidente culminou em uma decisão judicial pela 1ª Câmara de Direito Privado do Tribunal de Justiça de São Paulo, que determinou uma indenização por danos morais no valor de R$ 200 mil, ajustando o montante inicial de R$ 1 milhão.

A análise do desembargador responsável pela relatoria do processo destaca a infracção grave ao dever de sigilo profissional, um pilar fundamental na relação entre instituições de saúde e seus pacientes. Esta falha não somente transgride normativas éticas, mas também legislações específicas como a Lei Geral de Proteção de Dados (LGPD), que visa salvaguardar a privacidade e o tratamento adequado de dados pessoais.

O núcleo deste problema ressalta a imperiosa necessidade de mecanismos de governança corporativa mais eficientes no setor da saúde, visando assegurar a confidencialidade e a integridade das informações dos pacientes. A conduta do hospital, segundo apurações, reflete um descompasso significativo entre as práticas adotadas pela instituição e os preceitos éticos e legais demandados pela sociedade e pelas autoridades competentes.

Importante destacar que o caso sub judice não se restringe à questão do vazamento de dados, mas abrange a responsabilidade institucional em promover um ambiente seguro, que respeite a dignidade e a privacidade dos indivíduos sob seus cuidados. A falha na proteção de dados sensíveis revela um déficit na formação e na sensibilização dos profissionais de saúde quanto à importância do sigilo profissional, além de apontar para a necessidade de implementação de políticas internas mais rigorosas e efetivas para prevenir recorrências de tais eventos.

Este precedente jurídico suscita uma reflexão crítica sobre a cultura organizacional das instituições de saúde e seu compromisso com a ética profissional. A decisão judicial reforça a mensagem de que a negligência e o descuido com as informações dos pacientes são inaceitáveis, impondo consequências legais e financeiras significativas às entidades que falharem em sua guarda.

Por fim, o episódio serve como um lembrete imperativo para as empresas controladoras de dados, sobre a importância da confidencialidade das informações, instigando a adoção de medidas mais robustas de segurança da informação e a promoção de uma cultura organizacional que priorize, de forma incondicional, a privacidade e o respeito aos direitos dos titulares de dados.

Publicado em Deixe um comentário

VULNERABILIDADE NO SITE DA ENEL EXPÕE DADOS DE MILHÕES DE CONSUMIDORES

A recente descoberta de uma brecha de segurança no site da Enel, concessionária responsável pela distribuição de energia elétrica em 24 cidades da grande São Paulo, levanta sérias preocupações sobre a proteção dos dados dos clientes. Segundo relatos do Tecnoblog, a falha permitia que clientes acessassem faturas de outros consumidores, expondo informações pessoais sensíveis, como nome completo, endereço e CPF.

O acesso às faturas no site da empresa era supostamente protegido por um número de instalação e um código de identificação, um método que estava em vigor desde janeiro do ano passado. No entanto, essa medida de segurança parece ter sido insuficiente, pois a brecha só foi corrigida após ser exposta pela equipe de reportagem.

A Enel, por sua vez, apresentou respostas conflitantes sobre o incidente. Enquanto afirmou ter reintroduzido o envio de links para download de faturas em 4 de março, agora com uma camada adicional de segurança, a empresa não explicou por que a página de download foi retirada do ar. Além disso, a nova medida de segurança, que exige um código autenticador para acessar o PDF enviado por e-mail, também é questionável, pois ainda pode ser contornada por softwares maliciosos.

Embora não seja possível determinar se a brecha de segurança foi explorada por hackers, é importante ressaltar o potencial impacto desse incidente na privacidade de milhões de clientes. A possibilidade de acesso não autorizado a dados sensíveis levanta preocupações significativas, especialmente à luz da Lei Geral de Proteção de Dados (LGPD), em vigor desde setembro de 2020. A Enel pode enfrentar consequências legais por violar esta legislação, caso seja comprovado que não implementou as medidas adequadas para proteger as informações de seus clientes.

Publicado em Deixe um comentário

COMO A PLATAFORMA DIGITAL PODE MUDAR O FUTURO DO TRABALHO NO BRASIL

O universo trabalhista brasileiro está prestes a experimentar uma revolução digital com o lançamento do FGTS Digital. Esta plataforma inovadora promete transformar a maneira como empregadores administram o Fundo de Garantia do Tempo de Serviço (FGTS), tornando os processos mais eficientes e menos custosos. A integração com o sistema e-Social é um dos pilares dessa transformação, permitindo a gestão individualizada dos débitos e a unificação dos dados contratuais e de folha de pagamento. Como resultado, serão geradas guias personalizadas para cada trabalhador, um passo importante na direção de uma gestão mais ágil e transparente.

O FGTS Digital não apenas simplifica a emissão e personalização de guias, mas também acelera a individualização dos depósitos, melhorando a clareza e a eficiência do sistema. A simplificação dos procedimentos representa uma mudança significativa para os empregadores, facilitando sua rotina e permitindo o recolhimento de vários meses de FGTS em uma única guia. Além disso, a nova plataforma oferece uma solução rápida para o pagamento do FGTS atrasado, ajudando na regularização das obrigações trabalhistas.

Um aspecto fundamental do FGTS Digital é a segurança dos dados dos trabalhadores. O Serpro, responsável pela implementação técnica, garante que a plataforma segue as diretrizes da Lei Geral de Proteção de Dados Pessoais (LGPD), protegendo as informações sensíveis dos empregados. Com capacidade para gerenciar os dados de mais de 50 milhões de trabalhadores e emitir cerca de sete milhões de guias mensalmente, o sistema está preparado para um alcance significativo.

Todos os trabalhadores regidos pela Consolidação das Leis do Trabalho (CLT) têm direito ao FGTS, abrangendo uma ampla categoria de empregados, desde domésticos a atletas profissionais. A plataforma também reconhece a diversidade do mercado de trabalho, incluindo estagiários, aprendizes, e até diretores não empregados sob o regime CLT, embora autônomos e trabalhadores informais não sejam cobertos pelo FGTS.

Entre as inovações do FGTS Digital está a adoção do CPF como identificador único, substituindo o PIS, e a introdução do PIX como método de pagamento. Essas mudanças não apenas modernizam o sistema, mas também ampliam a rede arrecadadora do FGTS de cerca de 16 para mais de 800 instituições, oferecendo uma gama mais ampla de opções de pagamento para os empregadores. A previsão é de que essas inovações resultem em uma economia significativa de tempo e redução de custos operacionais, com uma estimativa de economia de 36 horas mensais em rotinas administrativas e uma redução de custos na ordem de R$ 144 milhões ao ano.

O FGTS Digital representa um salto qualitativo na gestão do FGTS no Brasil, prometendo mais eficiência, segurança, e acessibilidade tanto para empregadores quanto para trabalhadores. Esta iniciativa não apenas moderniza o sistema existente, mas também alinha o país com as melhores práticas globais em gestão de benefícios trabalhistas.

Publicado em Deixe um comentário

MAPA DE TEMAS PRIORITÁRIOS DA ANPD: CONECTANDO-SE AOS DESAFIOS DA PROTEÇÃO DE DADOS

A Autoridade Nacional de Proteção de Dados (ANPD) divulgou a primeira edição do Mapa de Temas Prioritários (MTP), delineando as áreas de foco para estudos e planejamento das atividades de fiscalização nos próximos dois anos. Este documento não apenas estabelece prioridades, mas também visa beneficiar diretamente a sociedade, fortalecendo a governança e promovendo maior transparência e previsibilidade nas ações da ANPD.

O MTP identifica quatro eixos de ação que serão prioritários: direitos dos titulares; tratamento de dados pessoais de crianças e adolescentes no ambiente digital; inteligência artificial para reconhecimento facial e tratamento de dados pessoais; e raspagem de dados e agregadores de dados.

A escolha desses temas foi baseada em um levantamento conduzido pela Coordenação-Geral de Fiscalização (CGF), que considerou áreas no âmbito da proteção de dados propícias para estudo e fiscalização. Metodologias adicionais, como a análise de demandas passadas e o alinhamento com objetivos institucionais, foram empregadas para a seleção.

O MTP fornece detalhes sobre o processo decisório, objetivos a serem atingidos e atividades prioritárias em cada eixo. Além disso, apresenta um cronograma de execução e destaca a necessidade de interação com outros órgãos da Administração Pública, e possivelmente, com autoridades de proteção de dados de outros países.

Camila Falchetto Romero, Coordenadora-Geral de Fiscalização Substituta, destaca que essa ferramenta, aliada a outros instrumentos de governança da ANPD, orienta o direcionamento do órgão nos próximos dois anos, priorizando estudos e atividades de fiscalização em conformidade com a Lei Geral de Proteção de Dados Pessoais (LGPD).

Publicado em Deixe um comentário

COMO DEVERÍAMOS REGULAR A INTELIGÊNCIA ARTIFICIAL EM NOSSA SOCIEDADE?

Atualmente, estamos vivendo uma era onde a inteligência artificial (IA) se tornou um pilar central nas relações econômicas e sociais, operando predominantemente através de plataformas tecnológicas avançadas. Este cenário tem suscitado debates em nível global sobre a necessidade de estabelecer regulamentações para a IA, buscando assim um uso mais ético e responsável dessa tecnologia, de modo a proteger os direitos dos indivíduos.

A União Europeia (UE) está na vanguarda deste movimento com sua proposta conhecida como AI Act. Esta iniciativa tem como objetivo principal assegurar a segurança, respeitar os direitos humanos, incrementar a confiança e a transparência no uso da IA, além de fomentar a inovação no mercado digital unificado. A proposta da UE busca prevenir preconceitos e discriminações e estabelecer diretrizes claras para sistemas de IA de alto e baixo risco. Em contraste, França, Alemanha e Itália recentemente adotaram uma abordagem de autorregulação obrigatória, que envolve códigos de conduta para os principais modelos de IA, uma estratégia que tende a ser menos restritiva do que as regulações governamentais e que pode preservar a competitividade no mercado global.

Nos Estados Unidos, uma ordem executiva assinada pelo presidente Joe Biden em outubro deste ano reflete preocupações similares. Esta ordem exige que desenvolvedores de sistemas de IA compartilhem resultados de testes e segurança com o governo, e estabelece a adoção de padrões pelo Instituto Nacional de Padrões e Tecnologia (NIST). Além disso, impõe a utilização de marca d’água para ajudar a identificar conteúdos criados por IA, uma medida para combater fraudes e desinformação.

No Brasil, inspirado pelo movimento da UE, o Projeto de Lei nº 2.338/2023 está em discussão, visando regulamentar o uso de sistemas baseados em IA. Atualmente, apenas a Lei Geral de Proteção de Dados (Lei 13.709/2018) oferece algum nível de proteção contra riscos relacionados ao uso de IA, principalmente no que tange à revisão de decisões automatizadas que afetam direitos individuais.

Este cenário emergente sinaliza algumas tendências claras em relação à autorregulação na IA. Um dos aspectos centrais é a importância da governança como um elemento chave no uso ético da IA. Existe um consenso crescente em torno de quatro pilares éticos fundamentais para a IA: o respeito à autonomia individual, o princípio da precaução, a equidade e a transparência.

No contexto da autorregulação, os programas de governança em IA são importantes para assegurar o uso ético da tecnologia, a transparência, a responsabilidade corporativa, a segurança e privacidade dos dados, a justiça social, a conformidade legal e regulatória, e a gestão de riscos. É importante notar que, apesar de um consenso teórico sobre estes temas, na prática, muitas empresas de tecnologia enfrentam críticas em relação à eficácia e transparência de seus comitês de ética, alguns dos quais foram até mesmo desmantelados.

Em resumo, a evolução e adaptação das regulamentações em torno da IA são essenciais para garantir seu uso ético e responsável. A definição de um “mínimo ético” com diretrizes universais é fundamental para assegurar princípios inegociáveis na ética da IA, como respeito à autonomia individual, precaução, equidade e transparência. A tendência de autorregulação e os programas de governança em IA tornam-se essenciais para garantir a conformidade legal, a responsabilidade corporativa, a justiça social e a gestão eficiente de riscos. O futuro da IA, portanto, dependerá da capacidade das organizações de integrar esses princípios éticos no desenvolvimento e na implementação de seus sistemas, promovendo um uso da IA que seja benéfico e sustentável para toda a sociedade.

Publicado em Deixe um comentário

VOCÊ ESTÁ SEGURO ONLINE? UMA JORNADA INTERATIVA NA PROTEÇÃO CONTRA IMAGENS FALSAS DE IA

A crescente incidência de crimes cibernéticos envolvendo a utilização de Inteligência Artificial (IA) para a criação de imagens falsas de nudez, comumente conhecidas como “deep nudes”, tem se tornado uma preocupação significativa no mundo jurídico e tecnológico. Essas práticas representam uma grave violação da privacidade e dignidade das vítimas, muitas das quais são mulheres e jovens, destacando a necessidade urgente de uma abordagem mais robusta na legislação e na educação digital.

Especialistas em Direito e Tecnologia têm enfatizado a importância de leis específicas para lidar com esses crimes, apontando para as limitações das legislações atuais em combater efetivamente tais práticas. Embora existam normativas, como as que permitem a remoção de conteúdo ofensivo da internet e estabelecem a responsabilidade das plataformas digitais, elas muitas vezes não são suficientes para abordar integralmente a questão.

A necessidade de legislações específicas que tratem de crimes envolvendo IA, como a criação de deep nudes, é um tópico em discussão. A ideia é que novas leis possam desincentivar tais práticas e oferecer um caminho mais claro para a responsabilização dos infratores. A abordagem proposta enfatiza um equilíbrio entre os direitos individuais e os riscos associados ao uso da tecnologia, sugerindo o uso de “sandboxes” regulatórios para um desenvolvimento e teste seguros de novas tecnologias.

Os desafios no julgamento desses crimes são amplificados pela complexa natureza da internet, que muitas vezes envolve dados armazenados em múltiplas jurisdições internacionais. Isso ressalta a importância de convenções internacionais que tratam de crimes cibernéticos e a cooperação jurídica internacional em casos envolvendo provas eletrônicas.

Para proteger-se contra esses crimes, é recomendado ter cautela com a exposição nas redes sociais e estar consciente dos riscos associados ao uso da internet. A educação, tanto em ambientes escolares quanto familiares, é fundamental para informar as novas gerações sobre os perigos potenciais do mundo digital. Além disso, destaca-se a importância de profissionais do Direito estarem bem informados e capacitados para lidar com questões de Direito e Tecnologia, entendendo a aplicação de leis relevantes como o Marco Civil da Internet e a Lei Geral de Proteção de Dados.

A reflexão sobre o impacto da IA no mercado de trabalho e na sociedade como um todo é um tópico relevante. Enquanto a IA tem o potencial de aumentar a eficiência em certos trabalhos, também existe a preocupação com o desemprego em massa em setores mais suscetíveis à automação. A supervisão humana e a crítica são vistas como componentes essenciais no processo de integração da IA, enfatizando a necessidade de uma aplicação ética e regulamentada da tecnologia.

Publicado em Deixe um comentário

O EQUILÍBRIO ENTRE SEGURANÇA E PRIVACIDADE: A RESOLUÇÃO 6 DO BACEN E A LGPD

No dia 1º de novembro, uma importante determinação do Banco Central (Bacen) entrou em vigor, marcando um passo significativo em direção a uma cultura de segurança aprimorada nas transações financeiras. A Resolução Conjunta nº 6 do Bacen, publicada em conjunto com o Conselho Monetário Nacional (CMN), estabelece critérios para o compartilhamento de dados e informações sobre indícios de fraudes entre instituições financeiras, empresas de pagamento e outras instituições autorizadas pelo Bacen.

Essa iniciativa visa criar um sistema eletrônico que permita o registro, alteração, exclusão e consulta de dados e informações relacionados a indícios de fraudes detectadas por essas instituições em suas operações. Isso é particularmente relevante, uma vez que bancos, fintechs, empresas de crédito e pagamento estão entre os principais alvos de cibercriminosos no Brasil, que utilizam táticas avançadas, como deepfake, fraudes de identidade facial e documental, para acessar aplicativos bancários de forma não autorizada. No ano anterior, as perdas atribuídas a fraudes no sistema financeiro nacional atingiram a marca de R$ 2,5 bilhões.

Com a entrada em vigor da Resolução 06 do Bacen, as instituições financeiras autorizadas pelo Banco Central devem compartilhar informações sobre indícios de fraude entre si. Isso ampliará a visibilidade das características de alto risco nas operações comerciais para todos os participantes do mercado.

No entanto, surgem algumas preocupações com relação à conformidade com a Lei Geral de Proteção de Dados (LGPD). A LGPD estabelece exceções ao consentimento para o tratamento de dados pessoais com base em obrigações legais, o que já se aplicaria ao cliente do sistema financeiro. Portanto, a exigência de consentimento para inclusão na base de dados de combate à fraude imposta pelo Bacen parece contrariar a LGPD.

A Resolução Conjunta nº 6 também aborda a necessidade de cumprir a legislação de proteção de dados ao compartilhar informações para prevenir fraudes. A LGPD prevê explicitamente a justificativa do tratamento de dados pessoais sensíveis na prevenção de fraudes, alinhando-se com essa finalidade.

Para resolver essa aparente incompatibilidade, sugere-se que as instituições devem manter documentação relacionada ao sistema de compartilhamento eletrônico à disposição do Bacen, incluindo os dados compartilhados, bem como informações sobre os mecanismos de acompanhamento e controle. Elas devem esforçar-se para operar em conformidade com a legislação vigente, preservando o sigilo, a proteção dos dados pessoais e a livre concorrência.

Nesse cenário, as instituições financeiras precisam estar preparadas para enfrentar os desafios tecnológicos que surgem e adotar práticas que fortaleçam seus controles internos, garantindo assim a resiliência cibernética e a proteção de seus ativos e interesses dos stakeholders.

Publicado em Deixe um comentário

DESCARTE DE DADOS PESSOAIS: UM CRIME AMBIENTAL E DIGITAL

O descarte inadequado de dados pessoais de terceiros pode parecer inofensivo à primeira vista, mas é um ato que constitui um crime grave, sujeito a multas que podem chegar a até R$ 50 milhões.

Recentemente, um incidente ocorrido no início desta semana lançou luz sobre essa questão. Uma empresa que atua na venda de semijoias descartou um grande volume de caixas contendo folhas com informações de clientes e ex-funcionários em um terreno baldio. Esse foi um ato significativo, não apenas do ponto de vista ambiental, mas também na esfera da segurança dos dados.

Uma residente da localidade em questão descobriu ao encontrar documentos contendo números de telefone, registros de identidade, CPF e outros dados pessoais, inclusive seu próprio, entre os materiais descartados de forma negligente. Ela prontamente contatou uma ex-vendedora da empresa, cujo número estava presente nos documentos, e informou-a sobre a situação. A ex-vendedora denunciou o incidente às autoridades, especificamente à Semadur (Secretaria Municipal de Meio Ambiente e Gestão Urbana).

Além das implicações ambientais e do risco de exposição de dados pessoais, especialistas em direito digital destacam que a exposição irregular de informações pessoais pode facilitar a prática de golpes, especialmente aqueles realizados na esfera virtual.

O estágio final do ciclo de vida dos dados é o descarte e eliminação. No entanto, esse processo deve ser conduzido de acordo com rigorosas normas de segurança. Quando essas precauções não são observadas, existe o risco de vazamentos de dados, o que pode acarretar penalidades que variam desde a correção do erro até multas substanciais que podem chegar a até R$ 50 milhões. Portanto, a importância de garantir a proteção e o descarte adequado de informações pessoais não pode ser subestimada.

Publicado em Deixe um comentário

PROTEÇÃO DE MARCAS E NOTORIEDADE: APPLE X GRADIENTE NO STF

Na edição do dia 26 de outubro da coluna “Seu Direito Digital” no Olhar Digital, um advogado e colunista abordou o interessante caso “Gradiente vs Apple”. Em suma, a empresa brasileira alega ter solicitado o registro da marca iPhone junto ao INPI (Instituto Nacional da Propriedade Industrial) em 2000, antes da atuação da Apple no mercado de telefonia celular.

A questão se tornou objeto de discussão no Supremo Tribunal Federal, e o julgamento virtual atualmente se inclina a favor da Apple, com uma votação de cinco a três a favor da gigante norte-americana. A Procuradoria-Geral da República (PGR) também se manifestou em apoio à Apple, argumentando que, embora a Gradiente possa reivindicar direitos de marca anteriores no Brasil, a notoriedade da marca pertence à Apple, e uma decisão em contrário poderia gerar confusão entre os consumidores e causar prejuízos.

Além disso, o colunista abordou uma dúvida levantada por um leitor relacionada ao processo nos Estados Unidos contra a Meta, a empresa por trás das redes sociais Instagram e Facebook. O processo alegava que essas plataformas eram viciantes para crianças. Em relação à legislação brasileira sobre o assunto, Leandro explicou que o Brasil não possui uma legislação específica para tratar desse tema, mas há órgãos e leis que podem ser aplicados.

A Lei Geral de Proteção de Dados, o Marco Civil da Internet, o Código de Defesa do Consumidor e o Estatuto da Criança e do Adolescente (ECA) são instrumentos legais que regulam questões relacionadas à proteção de dados e atividades envolvendo menores. Embora não haja uma lei específica sobre o vício em redes sociais para crianças, essas legislações podem ser aplicadas para abordar preocupações nesse contexto.

Publicado em Deixe um comentário

DECISÃO DO STJ: RESPONSABILIDADE DOS BANCOS NA PROTEÇÃO DE DADOS PESSOAIS

A inadequada manipulação de informações pessoais vinculadas a transações e serviços bancários é considerada uma violação na prestação do serviço, pois é responsabilidade das instituições financeiras garantir a confidencialidade desses dados sensíveis. Recentemente, a 3ª Turma do Superior Tribunal de Justiça emitiu uma decisão favorável em um recurso especial, no qual uma cliente caiu no “golpe do boleto” devido ao vazamento de seus dados por parte do banco.

A jurisprudência estabelece diretrizes para determinar quando os bancos podem ser responsabilizados por golpes de engenharia social, usando como base a Lei Geral de Proteção de Dados (LGPD).

Em termos gerais, a responsabilidade das instituições financeiras depende do tipo de informação em posse dos criminosos. Se forem dados genéricos que poderiam ser obtidos de outras fontes, mesmo que sejam considerados sensíveis, não haverá uma conexão causal. Isso ocorre quando os fraudadores utilizam informações como nome, sobrenome, estado civil, profissão, endereço, telefone, origem racial ou étnica, crença religiosa, orientação política, filiação a sindicatos, informações de saúde ou dados biométricos, por exemplo.

No entanto, os bancos podem ser responsabilizados quando os dados usados pelos criminosos estão relacionados às operações financeiras. Geralmente, essas informações são exclusivamente tratadas pelas instituições, que têm o dever de armazená-las com segurança.

A ministra relatora afirmou que “dados pessoais vinculados a operações e serviços bancários são sigilosos, e é responsabilidade das instituições financeiras garantir seu tratamento seguro. O armazenamento inadequado dessas informações, que permite que terceiros tenham acesso a elas e causem prejuízos aos consumidores, constitui uma falha na prestação do serviço”.

No caso específico que foi julgado, uma mulher contratou um financiamento de veículo em uma financeira e optou por quitar a dívida antecipadamente. Ela seguiu as instruções do site da instituição e enviou um e-mail solicitando informações sobre o contrato e o valor devido. Poucos dias depois, uma funcionária da financeira entrou em contato via WhatsApp, informando que havia 32 parcelas em aberto e enviando um boleto de R$ 19,2 mil. A cliente efetuou o pagamento, mas posteriormente percebeu que havia sido vítima de fraude.

O tribunal de primeira instância considerou a dívida quitada, mas o Tribunal de Justiça de São Paulo (TJ-SP) revogou a sentença, argumentando que a fraude ocorreu devido à falta de cautela da consumidora. Alguns indícios incluíam a troca de mensagens informais via WhatsApp e inconsistências no boleto, como o banco e o beneficiário indicados, que eram diferentes dos do contrato de financiamento, além de um número incorreto do documento.

Não era razoável esperar que a cliente percebesse essas discrepâncias, uma vez que a pessoa que a contatou em nome da financeira possuía informações confidenciais sobre ela. Os fraudadores tinham conhecimento de que a mulher era cliente da empresa, que havia enviado um e-mail para quitar a dívida e que tinham informações sobre o financiamento contratado. Essas informações são sigilosas e deveriam ser protegidas pela instituição financeira.

Portanto, se esses dados chegaram ao conhecimento dos criminosos, a responsabilidade da financeira não pode ser descartada devido ao tratamento inadequado dessas informações, o que facilitou a fraude.

Publicado em Deixe um comentário

VIOLAÇÕES À PRIVACIDADE DOS CONSUMIDORES EM FARMÁCIAS: UMA ANÁLISE DO DECON

No período de 10 e 11 de julho do corrente ano, a equipe do Departamento de Proteção e Defesa do Consumidor (Decon) promoveu uma operação de fiscalização que envolveu a visita a 11 farmácias. Durante essa diligência, constatou-se que oito desses estabelecimentos estavam solicitando informações pessoais dos clientes de maneira inadequada, não fornecendo de forma clara, precisa e ostensiva as informações relacionadas ao tratamento desses dados.

O Decon entende que essa conduta viola a Lei Geral de Proteção de Dados Pessoais e desrespeita os direitos dos consumidores estabelecidos no Código de Defesa do Consumidor (CDC). Nos locais autuados, observou-se que a solicitação de dados pessoais estava geralmente associada a programas de fidelidade e descontos. Para aderir a esses benefícios, os consumidores eram obrigados a fornecer seus dados pessoais, em especial o CPF.

Entretanto, no momento da coleta dessas informações pelos atendentes, os consumidores não eram devidamente informados sobre como esses dados seriam tratados. O Decon, portanto, tomará as medidas necessárias para investigar a extensão desse tratamento de dados e possíveis compartilhamentos indevidos das informações pessoais coletadas.

As empresas autuadas receberam intimações referentes a essa decisão no dia 19 deste mês. A partir dessa data, inicia-se o prazo para o pagamento da multa ou para a apresentação de recurso à Junta Recursal do Decon (Jurdecon).

Publicado em Deixe um comentário

DPIA NA LGPD: O PAPEL FUNDAMENTAL DO RELATÓRIO DE IMPACTO NA LGPD

No contexto da Lei Geral de Proteção de Dados (LGPD), o Relatório de Impacto à Proteção de Dados (RIPD), conhecido como DPIA (Data Protection Impact Assessment), emerge como um documento importante. Este relatório descreve os processos de tratamento de dados pessoais que podem representar um alto risco para a garantia dos princípios fundamentais de proteção de dados. Embora não seja obrigatório para todas as empresas, a elaboração do RIPD revela-se uma ferramenta altamente benéfica na adaptação das organizações à LGPD e na promoção de uma cultura corporativa alinhada às exigências atuais do mercado, especialmente no que diz respeito à proteção de dados sensíveis.

Além de fomentar a transparência das empresas com os titulares dos dados, o RIPD oferece uma preparação essencial para eventuais incidentes de segurança. Isso é possível por meio de um procedimento pré-estabelecido de mitigação de danos, delineado no relatório. O DPIA deve ser elaborado pelo controlador, ou seja, a entidade responsável pelas decisões referentes ao tratamento de dados pessoais, desde a coleta até a eliminação.

É importante ressaltar que a Agência Nacional de Proteção de Dados (ANPD) pode exigir o RIPD em situações específicas, como operações de tratamento voltadas para segurança pública, defesa nacional, segurança do Estado ou investigação e repressão de infrações penais. Isso se aplica também quando o tratamento se fundamenta no interesse legítimo, abrangendo agentes do Poder Público e controladores em geral. Além dessas situações, o DPIA pode ser requerido para cumprir o princípio da responsabilização e prestação de contas, garantindo segurança e prevenção por meio da implementação de um programa de governança em privacidade.

Até o momento, a LGPD e os regulamentos da ANPD não estabelecem requisitos essenciais para a elaboração e conteúdo obrigatório do RIPD. Nesse sentido, recomenda-se a elaboração do DPIA antes do início do tratamento de dados pessoais, permitindo a antecipada avaliação dos riscos associados a esse tratamento. Essa abordagem oferece ao controlador a capacidade de identificar a probabilidade de cada fator de risco e seu impacto nas liberdades e direitos fundamentais dos titulares, possibilitando a implementação de medidas de mitigação específicas para cada cenário.

Caso o tratamento já tenha iniciado sem a elaboração do DPIA, é altamente recomendado que o mesmo seja elaborado assim que for identificado um tratamento de alto risco para os princípios gerais de proteção de dados e as liberdades civis e direitos fundamentais dos titulares de dados. Embora a ANPD ainda não tenha fornecido orientações específicas sobre o conteúdo mínimo do RIPD, é possível basear-se nas recomendações do Grupo de Trabalho Artigo 29 da União Europeia, um órgão consultivo especializado em proteção de dados pessoais. Esse grupo indica que o RIPD deve conter uma descrição sistemática das operações de tratamento previstas, o objetivo do tratamento e uma avaliação detalhada da necessidade, proporcionalidade e das medidas previstas em relação aos riscos associados, garantias, medidas de segurança e procedimentos para garantir a conformidade com a legislação de proteção de dados. O RIPD deve ser suficientemente detalhado para garantir uma compreensão ampla do modo de tratamento de dados e seus possíveis riscos, tanto para o controlador quanto para a ANPD.