Publicado em Deixe um comentário

DECISÃO DO TJRJ SOBRE BLOQUEIO INJUSTIFICADO DE CONTA EM PLATAFORMA DIGITAL

O Tribunal de Justiça do Rio de Janeiro (TJRJ) recentemente analisou um caso envolvendo a exclusão de uma conta em uma plataforma digital, em que o usuário alegou ter sido bloqueado sem justificativa válida. A plataforma defendeu a medida, citando violações aos seus termos de uso e diretrizes comunitárias, mas não conseguiu apresentar provas específicas dessas violações. As alegações foram consideradas genéricas e carentes de fundamentação detalhada.

A Câmara do TJRJ concluiu que o bloqueio da conta foi injustificado, resultando em danos morais ao usuário, que foi indenizado de forma adequada. Entretanto, o autor não conseguiu demonstrar a existência de danos materiais causados pelo bloqueio. Os recursos apresentados pela plataforma foram rejeitados, reforçando a importância de uma justificativa clara e específica ao excluir contas de usuários.

Esta decisão sublinha a necessidade das plataformas digitais de fornecerem fundamentações detalhadas e específicas ao realizar ações punitivas contra usuários, assegurando que tais medidas sejam justificadas e transparentes.

Publicado em Deixe um comentário

BIG TECHS FIRMAM ACORDO PARA SEGURANÇA DA INTELIGÊNCIA ARTIFICIAL

Acordo Global de Segurança para Inteligência Artificial

Recentemente, líderes das maiores empresas de tecnologia do mundo se reuniram na Cúpula de Segurança da IA em Seul para discutir um importante acordo internacional. A cúpula reuniu empresas de destaque como a Microsoft, Amazon e OpenAI, com o objetivo de formular diretrizes que garantam a segurança no desenvolvimento e uso da inteligência artificial.

Cooperação Global pela Segurança da IA

O pacto firmado durante a cúpula conta com o apoio de grandes potências globais, incluindo Estados Unidos, China, Canadá, Reino Unido, França, Coreia do Sul e Emirados Árabes Unidos. Este acordo busca estabelecer práticas seguras para o desenvolvimento das tecnologias de IA mais avançadas, criando um ambiente onde a inovação tecnológica não comprometa a segurança global.

Estrutura de Segurança e Linhas Vermelhas

Entre as principais medidas do acordo está a criação de frameworks de segurança para desenvolvedores de IA. Estes frameworks são essenciais para medir e enfrentar desafios, estabelecendo “linhas vermelhas” para riscos considerados intoleráveis, como ciberataques automatizados e a produção de armas biológicas. A ideia é que estas diretrizes fortaleçam a segurança contra as ameaças mais graves que podem surgir com o avanço da IA.

Mecanismo de Interrupção de Emergência

Uma das propostas mais discutidas durante a cúpula foi a criação de um “botão de pânico”. Este mecanismo permitirá a interrupção instantânea do desenvolvimento de modelos de IA caso os riscos associados não sejam mitigados de maneira eficaz. Esta medida visa garantir que, em situações de emergência, as empresas possam rapidamente cessar operações potencialmente perigosas.

Transparência e Prestação de Contas

Além das medidas de segurança, o acordo enfatiza a necessidade de transparência e prestação de contas por parte das empresas que desenvolvem IA. A transparência é vista como um pilar fundamental para a construção de confiança entre desenvolvedores, reguladores e o público em geral.

O acordo firmado na Cúpula de Segurança da IA marca a primeira vez que lideranças de diferentes partes do mundo concordam com princípios comuns de segurança para a inteligência artificial. Este marco histórico reflete um esforço conjunto para garantir que o desenvolvimento da IA siga diretrizes seguras e responsáveis, prevenindo possíveis abusos e promovendo um futuro mais seguro para todos.

Assim, a colaboração internacional e o compromisso das big techs em seguir práticas seguras no desenvolvimento da IA representam um passo significativo para a construção de um ambiente tecnológico mais seguro e confiável.

Publicado em Deixe um comentário

RELATÓRIO DA UNIÃO EUROPEIA QUESTIONA A PRECISÃO DOS DADOS DO CHATGPT

A equipe de defesa da privacidade da União Europeia (UE) avaliou que os esforços da OpenAI para reduzir o número de informações falsas geradas pelo ChatGPT ainda não são suficientes para cumprir as rigorosas políticas de dados da UE.

Conforme detalhado em um relatório publicado no site da equipe, as medidas adotadas para aumentar a transparência, apesar de úteis para evitar interpretações errôneas dos resultados do ChatGPT, ainda não atendem plenamente ao critério de precisão de dados exigido pela legislação europeia.

No ano passado, conforme noticiado pela Reuters, autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões específicas relacionadas ao ChatGPT. Essa ação foi motivada por preocupações levantadas por reguladores nacionais sobre o uso crescente deste serviço de inteligência artificial.

O relatório aponta que algumas investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membros ainda estão em andamento. Portanto, os resultados apresentados devem ser entendidos como observações preliminares comuns a essas autoridades. A exatidão dos dados é uma das principais diretrizes da regulamentação de proteção de dados da UE.

“Devido à natureza probabilística do sistema, a metodologia atual de treinamento pode gerar informações tendenciosas ou fictícias,” destaca o relatório. “Além disso, os usuários finais podem interpretar os resultados gerados pelo ChatGPT como fatos precisos, especialmente quando se referem a dados sobre indivíduos, sem verificar a veracidade dessas informações.”

Esse levantamento sublinha a importância de medidas adicionais para garantir que as saídas do ChatGPT não apenas evitem erros interpretativos, mas também cumpram os elevados padrões de precisão de dados exigidos pela UE.

Publicado em Deixe um comentário

COMO A BLOCKCHAIN ESTÁ TRANSFORMANDO VIDEOGAMES E CASSINOS ONLINE

Blockchain e a Revolução na Indústria dos Jogos

A blockchain, conhecida por transformar transações online em processos altamente seguros e transparentes, está expandindo sua influência para a indústria dos jogos. Originalmente associada ao Bitcoin e outras criptomoedas, essa tecnologia oferece muito mais do que apenas transações financeiras seguras.

A aplicação da blockchain no setor de jogos não é novidade. Muitos cassinos online já utilizam essa tecnologia e aceitam criptomoedas como método de pagamento. Esses cassinos oferecem um ambiente de jogo mais seguro e transparente, permitindo a verificação independente de cada aposta e resultado, sem a necessidade de uma terceira parte. Isso garante operações livres de fraudes e manipulações.

No universo dos videogames, a blockchain está revolucionando a gestão e validação de propriedade de itens digitais, como skins, armas e personagens. Jogos como “The Sandbox” e “Decentraland” introduzem um novo nível de negociação e garantia de itens, utilizando tokens não fungíveis (NFTs) para assegurar que cada item seja único e de propriedade incontestável do jogador.

“The Sandbox” exemplifica essa inovação com sua ferramenta VoxEdit, que permite a criação e animação de objetos em 3D dentro do metaverso. O jogo também incorpora um sistema econômico onde terrenos virtuais (LANDS) podem ser comprados, vendidos e alugados, tudo gerenciado por meio de tokens SAND. Esse ecossistema beneficia diretamente criadores e jogadores, promovendo um ciclo de criação, consumo e comercialização de ativos digitais.

Decentraland, por sua vez, possibilita a compra e venda de terrenos digitais e promove interações sociais e comerciais complexas dentro de seu metaverso, utilizando a criptomoeda MANA. Essa moeda serve tanto para transações quanto para governança dentro do jogo.

O Brasil, líder em receita de jogos na América Latina e ocupando a 13ª posição mundial, gera aproximadamente R$ 12 bilhões anualmente no mercado de games. Grandes empresas, como a Magazine Luiza, estão investindo pesado nesse setor, expandindo suas operações e adquirindo plataformas de tecnologia e games, como a compra do site Kabum em 2021.

A capacidade de atrair investimentos e a busca constante por inovação tecnológica posicionam o Brasil favoravelmente para explorar e implementar blockchain em videogames. No entanto, a influência da blockchain vai além dos jogos. Setores como logística, saúde e imobiliário já estão integrando essa tecnologia para melhorar serviços, aumentar a confiança do consumidor e reduzir custos operacionais.

Na logística, a blockchain facilita a rastreabilidade e autenticidade dos produtos ao longo da cadeia de suprimentos. Na saúde, melhora a segurança do paciente e reduz a incidência de produtos falsificados ao rastrear medicamentos e dispositivos médicos. No setor imobiliário, permite a tokenização de propriedades, facilitando investimentos fracionados e transações sem intermediários, reduzindo custos e burocracia.

Apesar de promissora, a tecnologia enfrenta desafios, especialmente em escalabilidade e regulação. A velocidade de transação ainda é um obstáculo para jogos de alta intensidade e plataformas de cassino com milhares de transações por minuto. Soluções como “rollups” e “sharding” estão sendo desenvolvidas para mitigar esses problemas, processando dados de transações fora da cadeia principal e dividindo a blockchain em partes para distribuir a carga de processamento.

Com a contínua evolução tecnológica, a blockchain está preparada para atender às demandas de setores que processam um alto volume de transações, como os jogos online, prometendo um futuro de inovações e segurança.

Publicado em Deixe um comentário

ANPD ABRE CONSULTA SOBRE TRATAMENTO DE DADOS DE CRIANÇAS E ADOLESCENTES

A Autoridade Nacional de Proteção de Dados (ANPD) iniciou uma Tomada de Subsídios referente ao Tratamento de Dados de Crianças e Adolescentes, com o propósito de fundamentar a criação de um projeto regulatório específico para essa faixa etária. A iniciativa está aberta por 30 dias na Plataforma Participa+Brasil, permitindo contribuições de indivíduos, órgãos públicos e organizações da sociedade civil.

Ao término do período de consulta, a Coordenação-Geral de Normatização (CGN) da ANPD analisará as sugestões recebidas e conduzirá uma Análise de Impacto Regulatório (AIR), que servirá de base para a formulação da solução regulatória mais apropriada.

A abrangência da Tomada de Subsídios é significativa, abordando temas como o melhor interesse do menor, consentimento fornecido por pais e responsáveis, coleta de dados por meio de jogos e aplicações de internet, e a transparência nas operações de tratamento de dados.

O tratamento de dados de crianças e adolescentes é uma questão central tanto para o Poder Público quanto para diversas organizações defensoras de direitos. Embora a Lei Geral de Proteção de Dados (LGPD) trate do assunto, há necessidade de análises regulatórias adicionais. É essencial considerar o desenvolvimento infantil e os riscos associados ao ambiente digital.

Em iniciativas anteriores, a ANPD já explorou o tema, como na Consulta Pública de setembro de 2022, que resultou no Enunciado CD/ANPD nº 01/2023, uniformizando a interpretação das hipóteses legais aplicáveis ao tratamento de dados de menores. Além disso, a Autoridade publicou um guia orientativo sobre o legítimo interesse, esclarecendo sua aplicação no contexto de dados de crianças e adolescentes.

Vale destacar que a proteção de dados pessoais de menores é uma prioridade contínua para a ANPD, sendo uma preocupação transversal que permeia todas as suas ações regulatórias. A Tomada de Subsídios é apenas um passo nesse processo abrangente de proteção e garantia de direitos.

Publicado em Deixe um comentário

RELATÓRIO DA UNIÃO EUROPEIA APONTA INSUFICIÊNCIAS NA TRANSPARÊNCIA DO CHATGPT

Uma equipe do órgão de defesa da privacidade da União Europeia (UE) divulgou um relatório indicando que os esforços da OpenAI para diminuir o número de resultados factualmente incorretos do ChatGPT ainda não são suficientes para atender às rigorosas políticas de dados da UE.

O relatório aponta que, embora as iniciativas para aumentar a transparência sejam positivas para evitar interpretações errôneas dos resultados do ChatGPT, essas medidas não bastam para garantir a precisão dos dados, conforme exigido pelas normas da UE.

No ano passado, as autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões relacionadas ao ChatGPT, após preocupações levantadas por reguladores nacionais sobre o serviço de inteligência artificial amplamente utilizado. Segundo o relatório, investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membro ainda estão em andamento, e, portanto, os resultados completos não podem ser divulgados. Assim, os pontos destacados no relatório devem ser vistos como observações comuns entre as autoridades nacionais.

Uma regra fundamental de proteção de dados na UE é a exatidão. No entanto, o relatório enfatiza que, devido à natureza probabilística do ChatGPT, o modelo pode gerar informações tendenciosas ou fabricadas. Além disso, os resultados fornecidos pelo ChatGPT podem ser interpretados pelos usuários como fatos precisos, sem considerar a veracidade das informações.

É importante ressaltar a necessidade contínua de melhorar os mecanismos de precisão no ChatGPT para que se alinhem plenamente com os rigorosos padrões de proteção de dados da UE, destacando os desafios e a complexidade envolvidas na gestão da precisão em sistemas de inteligência artificial.

Publicado em Deixe um comentário

COLORADO LIDERA INICIATIVA PIONEIRA NA REGULAÇÃO DE IA PARA EMPRESAS PRIVADAS

O estado do Colorado está prestes a se destacar como o primeiro nos Estados Unidos a impor restrições abrangentes ao uso de inteligência artificial (IA) por empresas privadas. A aguardada lei de proteção ao consumidor para inteligência artificial, SB24-205, foi recentemente encaminhada ao governador para assinatura e, se aprovada, entrará em vigor em 1º de fevereiro de 2026. Esta legislação inovadora busca proteger os cidadãos contra a discriminação algorítmica, exigindo que tanto desenvolvedores quanto implementadores de sistemas de IA de alto risco adotem práticas diligentes e responsáveis.

Definição de Sistemas de IA de Alto Risco

No contexto do SB24-205, sistemas de IA de alto risco são definidos como aqueles que, quando implementados, podem afetar negativamente a segurança ou os direitos fundamentais, influenciando substancialmente decisões consequentes. Estes sistemas necessitam de rigorosas medidas de segurança da informação para evitar seu uso indevido, já que podem representar riscos significativos tanto para os titulares dos dados quanto para a reputação das empresas que os utilizam.

Obrigações dos Desenvolvedores

De acordo com a nova lei, desenvolvedores de sistemas de IA de alto risco deverão:

  1. Divulgar Informações Cruciais: Fornecer documentação detalhada aos implementadores sobre o uso pretendido do sistema, riscos conhecidos ou previsíveis, um resumo dos dados utilizados para treinamento, possíveis vieses e medidas de mitigação de riscos.
  2. Declaração Pública: Emitir uma declaração pública resumindo os tipos de sistemas de alto risco desenvolvidos e disponíveis para os implementadores.
  3. Notificação de Discriminação: Informar o procurador-geral e os implementadores conhecidos sobre qualquer discriminação algorítmica descoberta, seja por autoavaliação ou aviso do implementador, dentro de 90 dias.

Obrigações dos Implementadores

Implementadores de sistemas de IA de alto risco devem:

  1. Política de Gestão de Riscos: Estabelecer uma política que governe o uso de IA de alto risco, especificando processos e pessoal responsáveis por identificar e mitigar a discriminação algorítmica.
  2. Avaliação de Impacto: Concluir uma avaliação de impacto para mitigar possíveis abusos antes que os consumidores usem seus produtos.
  3. Notificação ao Consumidor: Informar os consumidores sobre itens especificados se o sistema de IA de alto risco tomar uma decisão consequente.
  4. Direito de Exclusão: Se o implementador for um controlador sob a Lei de Privacidade do Colorado (CPA), deve informar o consumidor sobre o direito de optar por não ser perfilado em decisões totalmente automatizadas.
  5. Correção de Dados: Permitir que os consumidores corrijam dados pessoais incorretos processados pelo sistema ao tomar uma decisão consequente.
  6. Revisão Humana: Oferecer aos consumidores a oportunidade de apelar, através de revisão humana, uma decisão consequente adversa decorrente da implementação do sistema, se tecnicamente viável.
  7. Detecção de Conteúdo Sintético: Garantir que os usuários possam detectar qualquer conteúdo sintético gerado e informar aos consumidores que estão interagindo com um sistema de IA.

Cláusula de Porto Seguro

A lei inclui uma cláusula de porto seguro, fornecendo uma defesa afirmativa (sob a lei do Colorado em um tribunal do Colorado) para desenvolvedores ou implementadores que:

  1. Descubram e corrijam uma violação por meio de testes internos ou equipes de segurança.
  2. Cumprem com o framework de gestão de riscos de IA do Instituto Nacional de Padrões e Tecnologia (NIST) ou outro framework de gestão de riscos reconhecido nacional ou internacionalmente.

Impacto e Implicações Futuras

A iniciativa do Colorado marca um avanço significativo na regulamentação do uso de IA, destacando a importância de práticas responsáveis e transparentes no desenvolvimento e implementação dessas tecnologias. Ao estabelecer regras claras e rigorosas para evitar a discriminação algorítmica, a legislação visa proteger os consumidores de decisões potencialmente prejudiciais tomadas por sistemas de IA.

Conforme a tecnologia continua a avançar rapidamente, outras jurisdições podem observar atentamente a abordagem pioneira do Colorado, adotando medidas semelhantes para garantir que a inteligência artificial seja desenvolvida e utilizada de maneira ética e justa. A promulgação desta lei coloca o Colorado na vanguarda da regulamentação de IA e serve como um modelo para equilibrar a inovação tecnológica com a proteção dos direitos dos consumidores.

Publicado em Deixe um comentário

SEC IMPÕE MULTA DE US$ 10 MILHÕES À ICE POR FALHAS NA GESTÃO DE VIOLAÇÃO CIBERNÉTICA

Em uma ação marcante, a Comissão de Valores Mobiliários dos Estados Unidos (SEC) aplicou uma multa de US$ 10 milhões à Intercontinental Exchange (ICE) nesta quarta-feira. A penalidade resulta de deficiências na gestão de uma violação de segurança cibernética que ocorreu em abril de 2021, afetando várias subsidiárias, incluindo a icônica Bolsa de Nova York (NYSE).

A SEC revelou que a ICE e suas nove subsidiárias não reportaram adequadamente uma significativa invasão cibernética, que comprometeu a segurança dos seus sistemas através de uma VPN vulnerável. Terceiros alertaram a ICE sobre a vulnerabilidade que permitiu acesso não autorizado à rede corporativa.

Embora a ICE estivesse ciente do acesso indevido, houve uma demora de vários dias para notificar o departamento de compliance de suas subsidiárias. Esse atraso crítico impediu uma avaliação imediata e correta da intrusão, além de retardar o contato necessário com a SEC, conforme exigido pelos regulamentos.

A SEC destacou que a falha da ICE em comunicar rapidamente a violação resultou na incapacidade das subsidiárias de avaliar e reportar adequadamente a invasão. Em resposta a essas violações regulatórias, a SEC impôs a multa, com a ICE reconhecendo sua participação nos erros cometidos.

As subsidiárias afetadas incluem a Archipelago Trading Services, NYSE American, NYSE Arca, ICE Clear Credit, ICE Clear Europe, NYSE Chicago, NYSE National, e a Securities Industry Automation Corporation.

Esta penalidade representa um impacto financeiro significativo para a ICE e suas subsidiárias e coloca em questão a confiabilidade das suas medidas de segurança cibernética e da rapidez na resposta a incidentes futuros. Este caso sublinha a necessidade de infraestruturas de segurança robustas e de uma política de compliance que possa agir rapidamente para proteger informações e ativos corporativos.

A ação da SEC contra a ICE reforça a importância da transparência e da agilidade na gestão de crises cibernéticas. As empresas, especialmente as que operam em setores sensíveis como o financeiro, devem manter um alto nível de vigilância e atualizar constantemente suas práticas de segurança para combater as ameaças cibernéticas em rápida evolução.

O cenário financeiro global, cada vez mais interconectado, exige que as empresas invistam continuamente em segurança cibernética e em sistemas de detecção e resposta ágeis. A proteção contra invasores e a conformidade regulatória são essenciais para salvaguardar os interesses corporativos e dos clientes globalmente.

Publicado em Deixe um comentário

SEGURANÇA DE DADOS EM FOCO NA ERA DA LGPD

Em 2015, o vazamento de dados do site Ashley Madison, conhecido por facilitar relacionamentos extraconjugais, expôs a fragilidade das empresas na proteção de informações sensíveis de seus usuários. Caso esse incidente ocorresse hoje, a LGPD (Lei Geral de Proteção de Dados) transformaria completamente a abordagem e a resposta a essa situação, tanto em relação aos direitos dos titulares dos dados quanto às responsabilidades das empresas envolvidas.

A LGPD impõe que as empresas adotem medidas de segurança rigorosas para proteger os dados pessoais. No caso de Ashley Madison, a ausência dessas medidas resultou em consequências devastadoras para milhões de usuários. Sob a vigência da LGPD, a empresa seria legalmente obrigada a implementar práticas robustas de proteção de dados e a demonstrar conformidade contínua com essas práticas.

Os titulares dos dados têm direitos claramente definidos pela LGPD. Eles podem exigir transparência no uso de seus dados, correção de informações incorretas, exclusão de dados desnecessários ou tratados de forma inadequada, e portabilidade de seus dados para outros fornecedores. Esses direitos fortalecem os usuários e impõem uma maior responsabilidade sobre as empresas.

A LGPD também estabelece que, em caso de vazamento, as empresas devem notificar imediatamente a ANPD (Autoridade Nacional de Proteção de Dados) e os titulares dos dados afetados. Além disso, as empresas podem enfrentar multas significativas e outras sanções administrativas. No contexto do Ashley Madison, isso resultaria em maior responsabilização e incentivos para a adoção de medidas preventivas.

O incidente do Ashley Madison serve como um alerta sobre a importância da proteção de dados e da conformidade com a legislação vigente. A LGPD não só protege os direitos dos titulares, mas também promove uma cultura de transparência e responsabilidade dentro das organizações. Empresas que lidam com dados pessoais devem tratar a segurança da informação como uma prioridade estratégica, evitando consequências legais e danos à reputação.

A reflexão sobre o caso Ashley Madison, à luz da LGPD, destaca a evolução necessária nas práticas de segurança da informação. As empresas precisam estar atentas e comprometidas com a proteção de dados, reconhecendo que a negligência pode ter impactos devastadores para seus usuários e para sua própria sobrevivência no mercado.

Publicado em Deixe um comentário

ENTENDA AS NOVAS DIRETRIZES E DESAFIOS COM O GUIA DA ANPD

Recentemente, a Autoridade Nacional de Proteção de Dados (ANPD) lançou o “Guia Orientativo – Hipóteses legais de tratamento de dados pessoais – Legítimo Interesse”, que aprofunda o entendimento sobre a aplicação da Lei Geral de Proteção de Dados Pessoais (LGPD). Este guia detalha o legítimo interesse (LI), uma base legal que autoriza o tratamento de dados pessoais (não sensíveis) para atender interesses legítimos do controlador ou de terceiros, desde que esses interesses não violem os direitos e liberdades fundamentais dos titulares dos dados.

O guia apresenta interpretações da ANPD sobre o uso do LI, incluindo exemplos práticos e um modelo de teste de balanceamento. Este teste é crucial para que as empresas possam demonstrar um equilíbrio adequado entre os interesses envolvidos, garantindo que o tratamento dos dados seja proporcional e seguro.

A adoção da base do legítimo interesse representa um desafio para as empresas, que precisam realizar o teste de balanceamento para assegurar a proporcionalidade e a segurança no tratamento dos dados pessoais. Apesar de a minuta inicial do documento sugerir a obrigatoriedade do registro do teste, a versão final do guia não confirma essa exigência, mas indica que o registro contribui para a transparência e a prestação de contas, além de permitir a avaliação da conformidade pela ANPD.

O guia ressalta que os controladores devem avaliar os riscos e a necessidade de registrar o teste de balanceamento caso a caso, sendo obrigatório apenas no tratamento de dados de crianças e adolescentes baseado no legítimo interesse.

O documento também detalha os passos que o agente de tratamento deve seguir, desde a identificação da natureza dos dados até a avaliação dos interesses do controlador ou de terceiros. A ANPD considera a coletividade como um terceiro relevante, permitindo a aplicação do conceito de legítimo interesse em situações que beneficiem a sociedade como um todo, desde que respeitados os preceitos legais.

Para que o legítimo interesse seja válido, o controlador deve identificar e justificar o interesse, garantindo sua compatibilidade com as regras jurídicas, evitando situações especulativas ou futuras, e vinculando-o a finalidades legítimas e explícitas. O guia exemplifica a aplicação do legítimo interesse, permitindo que instituições de ensino enviem promoções aos seus alunos e professores, desde que observadas as disposições legais.

Apesar da clareza do guia, a aplicação do legítimo interesse é passível de questionamento, tanto pela ANPD quanto pelos titulares dos dados. Portanto, é essencial que os controladores sigam rigorosamente as orientações do guia, assegurando transparência e mecanismos que permitam aos titulares exercerem seus direitos.

O “Guia Orientativo – Hipóteses legais de tratamento de dados pessoais – Legítimo Interesse” da ANPD é um marco importante na regulamentação do tratamento de dados pessoais no Brasil, trazendo clareza e novos desafios para as empresas na implementação da LGPD.

Publicado em Deixe um comentário

RISCOS E IMPLICAÇÕES DO TRATAMENTO DE DADOS MÉDICOS

A proteção de dados pessoais é um tema central quando se fala em prescrição médica, especialmente porque as informações contidas nesses documentos são consideradas dados pessoais sensíveis, conforme a Lei Geral de Proteção de Dados (LGPD), Lei Nº 13.709/18. A recente revelação de que a indústria farmacêutica monitora receitas médicas sem consentimento coloca em evidência uma possível violação sistemática do direito à proteção de dados dos médicos.

Conforme noticiado, o procedimento envolve a captura e comercialização de dados de receitas médicas pelas indústrias farmacêuticas. Quando uma receita é registrada no sistema da farmácia, empresas especializadas acessam esses registros, processam as informações e as vendem para as farmacêuticas. Com esses dados, é possível traçar um perfil dos médicos e influenciá-los a prescrever os medicamentos produzidos por essas indústrias. Esse ciclo se repete quando a prescrição influenciada é registrada na farmácia, que é remunerada pelo fornecimento dos dados. Estima-se que pelo menos 250 milhões de receitas sejam processadas anualmente desta forma.

Esse tipo de atividade representa um significativo tratamento de dados pessoais. Segundo a LGPD, dado pessoal é qualquer informação relacionada a uma pessoa identificada ou identificável. Assim, o medicamento prescrito em uma receita médica torna-se um dado pessoal quando associado ao nome e CRM do médico.

As operações de coleta, armazenamento, compartilhamento, classificação e criação de perfis de médicos devem estar em conformidade com a LGPD, ou seja, baseadas em uma das hipóteses legais para o tratamento de dados pessoais, com finalidades legítimas e informadas aos titulares dos dados. Os dados coletados devem ser adequados, necessários e relevantes para as finalidades especificadas, e as operações devem ser transparentes, evitando discriminações e garantindo a prestação de contas.

Os médicos devem ser informados sobre seus direitos garantidos pela LGPD, incluindo o livre acesso aos dados, a forma de tratamento, a duração desse tratamento, a identidade do responsável pelo tratamento, o uso compartilhado dos dados, e a finalidade do compartilhamento. Eles têm o direito de solicitar às farmácias, laboratórios ou empresas intermediárias uma declaração completa que indique a origem dos dados, os critérios utilizados e as finalidades do tratamento.

Além disso, o uso posterior dos dados pessoais para fins diferentes da finalidade original não é permitido sem a devida conformidade com a LGPD. A finalidade original das informações constantes da prescrição é a aquisição do medicamento pelo paciente na farmácia, e qualquer uso diverso disso deve ser devidamente justificado e conforme a lei.

No que diz respeito aos compartilhamentos, tanto farmácias quanto empresas intermediárias e indústrias farmacêuticas devem ser capazes de justificar a base legal para o tratamento de dados e garantir que esse tratamento seja legítimo, específico e informado aos titulares dos dados.

Essa atividade de tratamento de dados é de alto risco devido ao volume e à escala dos dados pessoais envolvidos, ao monitoramento dos titulares e à tomada de decisões automatizadas para criar perfis de médicos. O objetivo final de influenciar as prescrições médicas é particularmente problemático, pois pode levar a decisões que não refletem a melhor opção de tratamento para o paciente, mas sim a influência comercial sobre o médico.

Segmentar médicos por especialidade e média de preço dos medicamentos que prescrevem, e usar essas informações para abordagens comerciais, pode comprometer a autonomia dos médicos e representar uma significativa limitação do exercício de direitos. Isso caracteriza infrações graves à LGPD, especialmente quando há intenção de vantagem econômica, ausência de base legal para o tratamento de dados, e tratamento com efeitos discriminatórios.

O direito à proteção de dados inclui a liberdade e a autonomia na tomada de decisões, e o princípio da transparência é fundamental para equilibrar a relação entre agentes de tratamento e titulares dos dados. Influenciar decisões de maneira furtiva, sem o conhecimento do titular, contraria os princípios de boa fé e lealdade.

O princípio da transparência, vinculado aos princípios de boa fé e “accountability”, deve ser observado durante todo o ciclo de vida do tratamento de dados. Ele garante que o titular dos dados esteja ciente do uso de suas informações e possibilita o controle sobre o uso dos dados, bem como a responsabilização dos agentes de tratamento em casos de abuso ou uso ilícito. A proteção de dados não é apenas uma questão de conformidade legal, mas um imperativo ético para assegurar a confiança e a integridade na relação entre médicos, pacientes e a indústria farmacêutica.

Publicado em Deixe um comentário

A REVOLUÇÃO DO BLOCKCHAIN NO SETOR JURÍDICO

A tecnologia blockchain tem provocado transformações significativas em diversas áreas, e o setor jurídico não é uma exceção. Este impacto tem gerado tanto desafios quanto oportunidades, demandando uma adaptação constante por parte dos escritórios de advocacia.

Blockchain: Transparência e Segurança Inovadoras

O blockchain é celebrado por sua capacidade de criar registros imutáveis e transparentes. No âmbito do direito digital, isso se traduz em contratos inteligentes e registros armazenados de forma segura e eficiente, estabelecendo uma base sólida para transações legais.

Desafios Jurídicos do Blockchain

Apesar dos seus benefícios, a incorporação do blockchain no campo jurídico apresenta desafios significativos. A natureza descentralizada e global dessa tecnologia levanta questões complexas de jurisdição, complicando a aplicação das leis tradicionais em um ambiente sem fronteiras físicas.

Contratos Inteligentes e a Execução Automatizada

Os contratos inteligentes, baseados em blockchain, prometem a execução automática de acordos legais, eliminando intermediários e aumentando a eficiência. Contudo, é crucial compreender profundamente as implicações legais desses contratos, especialmente em casos de disputas. Profissionais do direito tributário, por exemplo, precisam estar preparados para interpretar e aplicar leis fiscais em cenários envolvendo contratos inteligentes, considerando as complexidades dos modelos descentralizados.

Rastreabilidade e Prova Digital

A rastreabilidade inerente ao blockchain é uma ferramenta valiosa na coleta de evidências digitais. Advogados podem se beneficiar dessa característica ao lidar com casos que envolvem transações eletrônicas e disputas que requerem provas digitais robustas.

Privacidade e Conformidade

A transparência do blockchain pode entrar em conflito com as preocupações de privacidade e conformidade regulatória, como as estipuladas pelo Regulamento Geral de Proteção de Dados (GDPR). Encontrar um equilíbrio entre transparência e proteção de privacidade é um desafio contínuo que os advogados devem enfrentar ao aconselhar seus clientes.

Oportunidades para Advogados na Era do Blockchain

A tecnologia blockchain abre novas oportunidades para a prática jurídica. Advogados podem se especializar em assessorar empresas na implementação segura dessa tecnologia, desenvolver políticas legais adaptadas ao blockchain e oferecer orientação estratégica sobre conformidade regulatória.

Quer saber mais sobre como essas práticas podem beneficiar sua empresa? Entre em contato conosco!

Com a orientação adequada, você pode transformar a sua empresa e aproveitar as oportunidades que a tecnologia blockchain oferece.