Publicado em Deixe um comentário

CONVERGÊNCIA ENTRE LGPD E NORMAS ISO PARA A SEGURANÇA DA INFORMAÇÃO

No atual cenário tecnológico, onde a digitalização avança a passos largos, a privacidade e a segurança de dados pessoais surgem como pilares essenciais. A coleta, o processamento e o armazenamento de informações pessoais em plataformas online exigem uma abordagem robusta e regulamentada para assegurar a proteção desses dados. Nesse contexto, a Lei Geral de Proteção de Dados Pessoais (LGPD), sob o número 13.709/18, destaca-se como um marco legal, impondo aos responsáveis pelo tratamento de dados a obrigação de adotar medidas de segurança eficazes contra acessos indevidos e outras ameaças.

A norma ISO 27017, publicada em 2016 e dedicada à segurança da informação especificamente em ambientes de nuvem, oferece diretrizes detalhadas para reforçar a proteção de dados pessoais. Essa norma amplia os princípios da ISO 27001, adaptando-os aos desafios particulares da computação em nuvem, e fornece um conjunto de controles específicos para a gestão de informações sensíveis armazenadas nesses serviços.

A sinergia entre a LGPD e a ISO 27017 é evidente, pois ambas direcionam esforços para garantir a integridade, a confidencialidade e a disponibilidade dos dados pessoais. Eles compartilham o objetivo de proteger as informações contra violações, promovendo a adoção de práticas de segurança robustas, o respeito pela privacidade dos titulares dos dados e a transparência no tratamento dessas informações.

Além disso, a LGPD incentiva a criação de políticas de governança e boas práticas que abrangem desde a organização dos processos de tratamento até a resposta a incidentes, passando pela educação e pela conscientização sobre a importância da proteção de dados. Esse enfoque proativo é complementado pela ISO 27017, que especifica controles para gerenciar riscos associados à computação em nuvem, incluindo a seleção cuidadosa de fornecedores e a implementação de técnicas avançadas de segurança, como a criptografia e o backup regular de dados.

A adesão conjunta à LGPD e à ISO 27017 não só assegura o cumprimento das obrigações legais, mas também fortalece as medidas de segurança na nuvem, melhorando a postura geral de segurança das organizações. Isso reduz significativamente o risco de incidentes de segurança e vazamentos de dados, ao mesmo tempo em que eleva a confiança dos usuários e das partes interessadas na capacidade da organização de proteger as informações pessoais.

Em um mundo cada vez mais conectado e dependente de soluções em nuvem, a conscientização sobre a importância da segurança de dados e a implementação de padrões reconhecidos internacionalmente, como a ISO 27017, são fundamentais. Tais práticas não apenas cumprem com as exigências legais, mas também promovem uma cultura de segurança e privacidade, essenciais para a sustentabilidade das atividades empresariais na era digital.

A integração da LGPD com a ISO 27017 representa uma abordagem holística para enfrentar os desafios da proteção de dados na nuvem, enfatizando a importância de medidas preventivas e a construção de um ambiente digital seguro e confiável para todos os envolvidos.

Publicado em Deixe um comentário

A ESTRATÉGIA DA UNIÃO EUROPEIA PARA A GOVERNANÇA DA INTELIGÊNCIA ARTIFICIAL

A recente aprovação unânime do texto final da primeira lei específica para Inteligência Artificial (IA) pelos países-membros da União Europeia (UE) em 2 de fevereiro marca um momento histórico na regulamentação tecnológica global. Este consenso solidifica o AI Act, uma legislação inovadora que visa governar o desenvolvimento e uso da IA dentro do bloco. Este ato legislativo, que se destina a entrar em vigor brevemente após sua publicação oficial, é o resultado de um processo deliberativo que começou em 2018, culminando em um acordo decisivo que posiciona a UE como a primeira potência econômica a estabelecer um quadro regulatório abrangente para esta tecnologia disruptiva.

O AI Act não é apenas um conjunto de regras; é uma visão estratégica da UE para promover a inovação responsável dentro do seu mercado interno. A designação iminente do AI Office pela Comissão Europeia como entidade reguladora central reflete uma abordagem calculada para balancear o rigor regulatório com o fomento ao desenvolvimento tecnológico. Esta estrutura regulatória visa não apenas gerenciar os riscos associados à IA, mas também estimular o crescimento de startups no campo da IA generativa, apontando para um futuro onde a Europa não apenas regula mas também lidera no desenvolvimento ético e inovador da IA.

O AI Act delineia um conceito abrangente de IA, baseando-se na definição da Organização para a Cooperação e Desenvolvimento Econômico (OCDE). Sob esta legislação, os sistemas de IA são entendidos como entidades mecanizadas capazes de realizar tarefas que vão desde inferências simples a recomendações complexas, abrangendo modelos de aprendizado de máquina de grande escala. A legislação enfatiza a necessidade de transparência e supervisão, especialmente para sistemas classificados como de alto risco, onde a clareza sobre a tomada de decisões e os impactos ao longo do ciclo de vida é fundamental.

O AI Act também aborda a diversidade de aplicações de IA, diferenciando entre usos de baixo e alto risco, e estabelecendo requisitos proporcionais de transparência e conformidade. Enquanto sistemas de baixo risco, como chatbots, enfrentam requisitos de transparência mais leves, os de alto risco estão sujeitos a uma supervisão rigorosa, refletindo um compromisso com a proteção da saúde pública, segurança e direitos fundamentais.

A legislação impõe restrições significativas a práticas potencialmente invasivas ou discriminatórias, incluindo o uso de reconhecimento facial em tempo real em espaços públicos e a categorização biométrica para inferir dados sensíveis. Estas medidas visam preservar a dignidade humana e evitar abusos que poderiam levar a um futuro distópico.

No campo dos direitos autorais, o AI Act é pioneiro ao exigir que os desenvolvedores de modelos de linguagem obtenham autorização para o uso de dados protegidos, promovendo uma cultura de transparência e respeito pela propriedade intelectual. Este aspecto da legislação não apenas protege os criadores, mas também encoraja uma abordagem mais ética e consciente no desenvolvimento de tecnologias de IA.

A adoção do AI Act pela UE é um passo na direção de uma governança global da IA que equilibra inovação e ética. Este marco regulatório não só estabelece a UE como um líder na formulação de políticas de IA, mas também desafia outras regiões, incluindo o Brasil, a considerar suas próprias abordagens regulatórias. O Brasil, com sua posição de mercado consumidor e seu potencial de desenvolvimento, enfrenta o desafio de navegar neste novo ambiente regulatório, equilibrando a necessidade de proteger direitos com o impulso para a inovação.

A legislação da UE sobre IA representa um equilíbrio entre a proteção contra os riscos e o apoio à inovação, estabelecendo um precedente para a regulamentação global da IA. Enquanto o mundo avança na adoção e desenvolvimento da IA, a abordagem da UE oferece insights valiosos sobre como governar esta tecnologia emergente de maneira responsável e eficaz.

Publicado em Deixe um comentário

SUPREMO TRIBUNAL EXIGE NORMAS PARA FERRAMENTAS DE MONITORAMENTO SECRETO

O Supremo Tribunal Federal, em uma ação que reflete a tensão entre as necessidades de investigação do Estado e os direitos fundamentais dos cidadãos, estabeleceu um prazo de dez dias para que o legislativo forneça detalhes acerca da regulamentação do uso de ferramentas de vigilância eletrônica – especificamente, softwares capazes de monitorar secretamente dispositivos pessoais como celulares e tablets.

Esta ação tem por objetivo fornecer ao relator da corte as informações necessárias para uma análise sobre a ausência de regulamentação específica para o uso de tecnologias de infiltração digital por parte de órgãos e agentes públicos. A situação contrasta com a lentidão legislativa em adaptar-se às novas realidades, deixando lacunas em matéria de proteção à privacidade e aos dados pessoais dos cidadãos.

O pedido central dessa iniciativa jurídica é compelir o Congresso a estabelecer, dentro de um prazo considerado razoável, uma normativa clara e efetiva que regule essas práticas, abordando diretamente a necessidade de salvaguardar os direitos à intimidade, à vida privada e à proteção do sigilo das comunicações e dos dados pessoais. Tais direitos já são parcialmente protegidos por legislações existentes, como o Marco Civil da Internet e a Lei Geral de Proteção de Dados Pessoais (LGPD), mas ainda carecem de diretrizes específicas quando se trata de infiltração virtual remota por entidades governamentais.

Além da solicitação de informações ao legislativo, foram definidos prazos adicionais para que tanto a Advocacia-Geral da União (AGU) quanto a Procuradoria-Geral da República (PGR) apresentem suas manifestações, reiterando a importância de uma deliberação rápida e fundamentada sobre a questão. Este caso, tratado sob um procedimento especial previsto na legislação das ações diretas de inconstitucionalidade, sinaliza a urgência e a relevância de atualizar o arcabouço legal para endereçar os desafios impostos pela era digital, enfatizando a primazia dos direitos fundamentais em um contexto de crescente vigilância tecnológica.

Publicado em Deixe um comentário

DEEPFAKE ENGANA FUNCIONÁRIO EM TRANSAÇÃO MILIONÁRIA

Em um caso recente de fraude financeira, um funcionário de uma empresa multinacional foi induzido a transferir US$ 25 milhões (cerca de R$ 124 milhões) para criminosos. Estes utilizaram tecnologia deepfake para simular a aparência e a voz do CFO da empresa, bem como de outros membros da equipe, durante uma videoconferência. Este incidente foi investigado pela polícia de Hong Kong, que forneceu detalhes sobre o modus operandi dos fraudadores.

O empregado foi inicialmente abordado por meio de uma comunicação que levantou suspeitas de ser uma tentativa de phishing, mencionando a necessidade de uma transação confidencial. No entanto, a realização de uma videoconferência com a presença de “colegas” simulados por inteligência artificial convenceu o indivíduo da legitimidade do pedido. O golpe veio à tona apenas após o funcionário confirmar a transação com a matriz da empresa.

Agora os golpes financeiros incorporam tecnologias como deepfake para aumentar a credibilidade de suas fraudes. Durante uma coletiva de imprensa, foi mencionado que a polícia de Hong Kong efetuou seis prisões relacionadas a fraudes envolvendo tecnologia deepfake, indicando uma tendência no uso de ferramentas de inteligência artificial para fins criminosos.