Publicado em Deixe um comentário

DIREITOS E REGULAMENTAÇÃO NA ERA DA INTELIGÊNCIA ARTIFICIAL: UMA ANÁLISE DO PL 2.338/2023

Um dos temas que frequentemente suscita dúvidas e, por vezes, preocupações, é a contratação pela internet. Isso se deve à complexidade inerente aos negócios digitais, seus riscos e aos elementos ocultos por trás das transações eletrônicas. No entanto, é inegável que esses negócios fazem parte do nosso cotidiano e se tornaram inevitáveis. Contratos de consumo e contratos em geral alimentam uma infinidade de transações diárias, envolvendo compras e vendas, aluguéis, contratação de serviços e até mesmo novas maneiras de celebrar contratos tradicionais por meio eletrônico, com assinaturas digitais. Isso é facilitado pela recente Lei dos Cartórios (Lei 14.382/2022), conhecida como Lei do Sistema Eletrônico de Registros Públicos (SERP).

Nesse cenário, é importante notar que muitas dessas negociações não são assinadas por pessoas físicas em ambos os lados, mas sim por robôs com conhecimento e informações sobre a vida e dados da outra parte contratante. Diante disso, surgiu o Projeto de Lei 2.338/2023, com o objetivo de estabelecer normas gerais nacionais para o desenvolvimento, implementação e uso responsável de sistemas de Inteligência Artificial (IA) no Brasil. O propósito principal é proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis em benefício das pessoas, da democracia e do desenvolvimento científico e tecnológico.

Este projeto de lei é notável em termos de qualidade e técnica, pois foi iniciado pelo Ato n.º 4/2022 do Presidente do Senado Federal, que nomeou uma Comissão de Juristas para elaborar uma minuta de substitutivo para outros projetos de lei relacionados à regulamentação da IA.

Neste texto, focaremos nos artigos 7º e 8º do projeto, que fazem parte da Seção II intitulada “Dos direitos associados à informação e compreensão das decisões tomadas por sistemas de Inteligência Artificial.” Esses artigos visam abordar a necessidade de fornecer informações claras e adequadas aos contratantes antes de celebrar contratos ou usar sistemas de IA. Estas informações devem incluir:

  1. O caráter automatizado das interações e decisões que afetam as pessoas.
  2. Uma descrição geral do sistema, tipos de decisões que ele pode tomar e suas consequências.
  3. A identificação dos operadores do sistema de IA e as medidas de governança adotadas no seu desenvolvimento e uso.
  4. O papel do sistema de IA e das pessoas envolvidas nas decisões.
  5. As categorias de dados pessoais utilizados pelo sistema de IA.
  6. Medidas de segurança, não discriminação e confiabilidade, incluindo precisão e cobertura.
  7. Outras informações especificadas em regulamentos.

Além disso, o projeto enfatiza a importância de fornecer informações de forma acessível ao público, usando ícones ou símbolos facilmente reconhecíveis, especialmente quando se trata do caráter automatizado das interações.

O projeto também destaca a necessidade de informar claramente as pessoas expostas a sistemas de reconhecimento de emoções ou categorização biométrica, com ênfase na compreensão desses sistemas, especialmente para pessoas vulneráveis, como crianças, adolescentes, idosos e pessoas com deficiência.

Essas disposições visam concretizar os princípios do projeto, incluindo transparência, explicabilidade, inteligibilidade e auditabilidade. O direito à compreensão dos sistemas de IA se alinha com o direito de acesso estabelecido na Lei Geral de Proteção de Dados (LGPD), permitindo que as pessoas obtenham informações relevantes sobre o tratamento de seus dados pessoais.

A questão da explicabilidade é desafiadora, uma vez que a complexidade dos algoritmos de IA torna difícil para indivíduos leigos compreender completamente seu funcionamento. No entanto, a exigência é mais sobre tornar a informação transparente, inteligível e auditável, possibilitando que as pessoas compreendam o impacto das decisões tomadas por sistemas de IA.

Uma solução interessante pode ser a implementação de práticas de auditoria e regras para tornar os sistemas de IA mais transparentes. Não significa necessariamente entender todos os detalhes dos algoritmos, mas sim garantir que as informações sejam acessíveis a todos, não apenas àqueles com conhecimento técnico em IA.

Em última análise, a regulamentação da IA é essencial para proteger os direitos fundamentais das pessoas. A regulamentação é dinamicamente ajustada de acordo com os riscos potenciais associados à tecnologia. Medidas de governança, categorização de riscos e avaliação de impacto algorítmico são essenciais para garantir a conformidade com as disposições do projeto.

Além disso, à medida que a Comissão de Juristas trabalha na revisão do Código Civil, é apropriado considerar a inclusão de princípios relacionados à IA, como a explicabilidade, para fortalecer a confiabilidade e a transparência dos contratos eletrônicos que envolvem sistemas de IA. A proteção dos direitos associados à informação e compreensão das decisões tomadas pela IA é fundamental e deve ser incorporada nas regulamentações e práticas de negócios.

Publicado em Deixe um comentário

TECNOLOGIA E DIREITO: A TRANSFORMAÇÃO DO MERCADO DE ATIVOS JUDICIAIS

Na atualidade, a convergência entre a tecnologia e o setor jurídico tem se destacado como uma parceria eficaz na otimização dos processos e na melhoria das análises no mercado de compra e venda de ativos judiciais. Ao unir o poder das ferramentas computacionais com a perícia humana no campo do direito, as empresas especializadas em direitos creditórios estão aprimorando a qualidade dos serviços prestados, proporcionando transações mais seguras e justas para todos os envolvidos.

Desde o primeiro contato com os clientes, é notável a presença da tecnologia. A robotização, combinada com aplicativos de mensagens e websites, agiliza a identificação e direcionamento dos casos para os especialistas humanos. Os chatbots, robôs de atendimento, também desempenham um papel essencial na assistência aos clientes, respondendo a dúvidas e contribuindo para a fidelização, disponíveis instantaneamente quando necessário.

Além disso, atividades como análise do histórico processual, triagem de documentos, cálculo de valores relacionados aos processos e acompanhamento de prazos podem ser realizadas de forma mais rápida e precisa com o auxílio de sistemas automatizados. Isso economiza tempo e reduz erros, particularmente comuns em tarefas repetitivas e detalhistas.

Outro aspecto relevante é o uso da Jurimetria, uma disciplina relativamente recente no campo jurídico. A Jurimetria, como definida pela Associação Brasileira de Jurimetria (ABJ), utiliza métodos estatísticos para investigar o funcionamento da ordem jurídica. Por meio dessa disciplina e de várias tecnologias, é possível identificar padrões e tendências em decisões judiciais. Essas ferramentas, ao analisar uma grande quantidade de casos, oferecem dados sobre a probabilidade de sucesso em determinadas ações judiciais.

Consequentemente, as empresas especializadas em direitos creditórios podem fundamentar suas estratégias de compra e venda de ativos judiciais em informações concretas, elevando a precisão e reduzindo os riscos das transações, ao mesmo tempo em que se aproximam mais da realidade dos casos em análise e das necessidades dos clientes interessados em ceder créditos.

Contudo, é importante destacar que o uso da tecnologia não substitui a experiência humana no campo do direito; eles são complementares. A análise de ativos judiciais envolve nuances, atenção a detalhes e consideração de fatores que somente um profissional jurídico com conhecimento e experiência pode compreender adequadamente.

A interação entre as tecnologias disponíveis e o conhecimento dos profissionais jurídicos possibilita avaliações mais precisas dos casos apresentados pelos clientes, considerando elementos subjetivos e particularidades dos processos. As novas ferramentas de apoio permitem que os especialistas se concentrem em questões estratégicas, avaliando riscos e oportunidades de maneira mais eficaz.

No campo de compra e venda de ativos judiciais, as empresas especializadas estão adotando a tecnologia como uma estratégia inteligente para otimizar processos e garantir análises mais precisas, trazendo benefícios tanto para cedentes quanto para cessionários, sem a necessidade de sensacionalismo.

Publicado em Deixe um comentário

DECATHLON E BLUENOVE AFETADAS POR VAZAMENTO DE DADOS: PROTEGENDO A PRIVACIDADE DOS FUNCIONÁRIOS

No dia 7 de setembro de 2023, veio à tona a notícia de um significativo vazamento de dados que afetou cerca de 8.000 funcionários da Decathlon, uma gigante do setor de artigos esportivos. A descoberta desse vazamento ocorreu por meio de um post em um fórum ilegal da chamada deep web.

O vazamento em questão incluiu um banco de dados considerável, com um tamanho de 61 MB, que alegadamente estava vinculado à Decathlon. Dentro desse banco de dados, estavam informações pessoais sensíveis, como nomes completos, nomes de usuário, números de telefone, endereços de e-mail e até detalhes sobre os países e cidades de residência dos funcionários afetados. Além disso, informações ainda mais sensíveis, como tokens de autenticação e até mesmo fotografias, também foram comprometidas.

A gravidade do vazamento de dados não se limitou apenas à Decathlon, pois também impactou outra empresa, a Bluenove, especializada em tecnologia e consultoria. A Bluenove confirmou que cópias duplicadas desse banco de dados comprometido estão circulando em fóruns da deep web, o que amplia ainda mais a preocupação em relação à segurança dos dados.

É importante destacar que a autenticidade do banco de dados recentemente compartilhado foi confirmada por meio de verificações adicionais. No entanto, vale mencionar que as amostras dos dados do vazamento original não estão mais disponíveis, devido a políticas de retenção ou outras circunstâncias.

Este incidente ilustra mais uma vez a crescente importância da segurança de dados e da necessidade de empresas e organizações tomarem medidas rigorosas para proteger as informações pessoais de seus funcionários e clientes. Além disso, a disseminação desses dados sensíveis na deep web ressalta os desafios crescentes em lidar com ameaças cibernéticas e a importância de ações proativas para prevenir vazamentos de dados.

Publicado em Deixe um comentário

BIOMETRIA FACIAL: ENTRE A MODERNIZAÇÃO E A PROTEÇÃO DA PRIVACIDADE EM GRANDES EVENTOS

O Projeto de Lei nº 2.745/2023, recentemente aprovado pela Comissão de Segurança Pública da Câmara dos Deputados, traça diretrizes necessárias para a implementação de sistemas de reconhecimento facial em estádios de futebol. Este avanço na tecnologia biométrica está transformando a forma como abordamos segurança e controle de acesso, não apenas em eventos esportivos, mas também em diversos setores, incluindo condomínios.

De acordo com o texto aprovado, a adoção de sistemas de reconhecimento facial nos estádios será opcional, ficando a cargo das entidades públicas e privadas responsáveis pelo evento a decisão de utilizá-lo. Importante destacar que o tratamento e o compartilhamento dos dados biométricos devem estar em conformidade com a Lei Geral de Proteção de Dados (LGPD). Além disso, o uso de reconhecimento facial não será permitido em áreas onde a privacidade dos torcedores ou jogadores deve ser preservada, como banheiros, vestiários e refeitórios.

Sob a perspectiva da Lei de Proteção de Dados Pessoais (LPDG), é essencial compreender a implementação dessa tecnologia e o tratamento das informações dos indivíduos. Há um debate em curso, especialmente sobre a possibilidade de substituição completa de métodos tradicionais.

Tomando como exemplo o Allianz Parque, o registro facial se tornou obrigatório para a compra de ingressos e acesso ao estádio, inclusive para crianças e adolescentes, eliminando a opção de compra física. O Idec (Instituto de Defesa do Consumidor) argumenta que é desproporcional impor o uso exclusivo de dados biométricos como meio de acesso, defendendo a disponibilização de alternativas.

A agilidade na entrada em eventos esportivos e condomínios é uma das principais vantagens do reconhecimento facial, além do combate ao cambismo e o aumento da segurança, particularmente na identificação de responsáveis por atos de vandalismo e crimes. Entretanto, questões éticas e relacionadas à proteção de dados pessoais surgem, dado que os dados biométricos são considerados sensíveis, exigindo o consentimento livre e expresso dos usuários.

Um ponto importante a ser considerado é que os algoritmos de inteligência artificial não possuem sensibilidade humana e podem aprender de maneira equivocada a partir de dados mal coletados ou mal interpretados. Isso pode levar a análises preconceituosas ou imprecisas, ressaltando a importância de garantir que suspeitos não sejam apontados unicamente com base em características físicas.

Embora a tecnologia prometa modernizar e aprimorar o acesso em estádios de futebol, eventos esportivos e condomínios, as organizações responsáveis devem assegurar que as informações faciais coletadas sejam tratadas de maneira ética e segura. O consentimento explícito das pessoas, a transparência sobre o uso dos dados e a consideração de alternativas para aqueles que não desejam compartilhar seus dados são passos essenciais para garantir que a tecnologia beneficie a todos, sem comprometer a privacidade e a segurança.

Publicado em Deixe um comentário

CLONAGEM DE VOZ POR IA: PROTEGENDO A INTEGRIDADE ELEITORAL E A INFORMAÇÃO PÚBLICA

Com o avanço acelerado da inteligência artificial na geração de áudios, a clonagem de voz tornou-se uma prática comum na indústria do entretenimento, sendo utilizada para dublagens e criação de canções com a voz de atores e artistas já falecidos. Contudo, esse avanço também levanta preocupações, pois o uso indevido da IA para criação de deepfakes de voz pode resultar em ações de desinformação alarmantes. É possível enganar eleitores, criar conflitos políticos e ampliar o espaço para teorias da conspiração.

Recentemente, vimos casos em alguns países onde deepfakes foram utilizados para clonar a voz de líderes políticos. Na Eslováquia, por exemplo, dias antes de uma eleição nacional, um clipe de áudio falsificado de Michal Šimečka, líder do Partido Progressista, circulou descrevendo um esquema de fraude nas eleições por meio do suborno de membros da população cigana. Similarmente, no Reino Unido, um vídeo falso do líder do Partido Trabalhista, Keir Starmer, foi compartilhado, no qual ele proferia ofensas contra seus próprios funcionários.

Esses clipes foram prontamente desmentidos por verificadores de fatos, que os identificaram como prováveis falsificações geradas por softwares de IA. No entanto, é preocupante observar que muitas publicações nas redes sociais continuam a afirmar a veracidade desses clipes, enganando ainda mais os usuários. O Facebook, por exemplo, colocou um selo de advertência em uma das publicações, mas não a removeu, enquanto o vídeo de Starmer não recebeu qualquer tipo de advertência.

Com várias eleições programadas para ocorrer na Europa nos próximos meses, incluindo em países como Polônia, Holanda e Lituânia, Thierry Breton, comissário da União Europeia, enviou uma carta a Mark Zuckerberg, CEO da Meta, pressionando para que medidas sejam adotadas para conter a proliferação de deepfakes nas redes sociais.

Nos Estados Unidos, a preocupação com deepfakes também é evidente, especialmente visando as eleições de 2024. Um vídeo falso do ex-presidente Barack Obama surgiu no TikTok, no qual ele endossava uma teoria da conspiração sobre a morte repentina de seu ex-chefe de cozinha, conforme reportado pelo The New York Times. Esse vídeo foi compartilhado por uma das 17 contas do TikTok que promovem informações falsas por meio de áudios, de acordo com um relatório da NewsGuard, empresa especializada em monitorar desinformação online.

Os deepfakes de voz apresentam uma peculiaridade preocupante: são mais difíceis de serem identificados como falsos, se comparados a imagens ou vídeos gerados por IA. Isso os torna eficazes para enganar os usuários e disseminar desinformação. Diante dessa ameaça, a Comissão Eleitoral Federal (FEC) dos Estados Unidos iniciou uma consulta pública para regular conteúdos gerados artificialmente, especialmente no contexto de anúncios políticos, visando garantir a integridade e transparência nas eleições presidenciais de 2024.

Publicado em Deixe um comentário

RESILIÊNCIA DIGITAL NO VAREJO: ESTRATÉGIAS ESSENCIAIS CONTRA ATAQUES CIBERNÉTICOS

A crescente digitalização do mundo moderno representa uma notável transformação em vários setores, e o varejo não é exceção. Essa mudança trouxe consigo uma série de benefícios, mas também aumentou a necessidade de proteção contra os crescentes ataques cibernéticos, que podem ter um impacto devastador nas empresas do setor. À medida que o varejo, tanto físico quanto online, avança na digitalização de suas operações, integra sistemas complexos e coleta uma vasta quantidade de dados dos clientes, a importância de adotar medidas para garantir a segurança dessa infraestrutura e preservar a privacidade dos dados se torna cada vez mais evidente.

Estudos indicam que o varejo é um dos alvos mais visados pelos hackers, pois informações como dados de cartões de crédito e outras informações bancárias são altamente valorizadas por cibercriminosos. Os ataques de phishing, que buscam enganar os funcionários para obter acesso a informações sensíveis, são particularmente comuns. Além disso, ataques de ransomware, nos quais os sistemas da empresa são sequestrados e os dados são criptografados, exigindo um resgate para sua liberação, estão no topo da lista de riscos que podem paralisar as operações. Os sistemas de ponto de venda (POS) também são frequentemente alvos de hackers, que exploram brechas nos leitores de cartão para acessar informações confidenciais.

Nesse cenário desafiador, é fundamental adotar várias iniciativas para reduzir as chances de ataques cibernéticos. A implementação de práticas de segurança robustas, como a criptografia, desempenha um papel importante para garantir que informações valiosas não caiam nas mãos erradas. Além disso, soluções de segurança, como firewalls de última geração, oferecem proteção ao realizar controles que impedem invasões na rede do varejo e estabelecem políticas de acesso para aplicativos e usuários. A segmentação de rede, o monitoramento de tráfego suspeito e a atualização regular dos sistemas também são iniciativas necessárias para proteger esses pontos críticos.

Para acompanhar a expansão dos negócios e a criação de filiais, é essencial investir em comunicação segura entre a matriz e as lojas, por meio de redes definidas por software (SD-WAN). Essas redes integram diversos recursos de segurança avançada em uma única solução, como filtro de conteúdo web, proteção avançada contra ameaças e sistema de prevenção de intrusão.

A entrada em vigor da LGPD representou uma mudança significativa na maneira como os varejistas lidam com os dados pessoais de seus clientes. Para cumprir essa legislação e evitar penalidades, é necessário que o setor adote políticas de segurança sólidas e promova a conscientização e o treinamento dos colaboradores sobre como lidar com a segurança cibernética. Funcionários bem treinados são essenciais para reconhecer diferentes tipos de ataques, aplicar práticas seguras em suas atividades e iniciar protocolos predefinidos caso suspeitem de uma invasão nos sistemas.

Dada a crescente magnitude das ameaças cibernéticas, ter um plano de resposta a incidentes cibernéticos bem definido é de extrema importância. Esse plano deve conter um conjunto estruturado de procedimentos e diretrizes que a empresa deve seguir para identificar e gerenciar incidentes, minimizando os danos causados por eles. A partir desse plano, podem ser implementadas iniciativas para recuperar os sistemas e dados afetados rapidamente, permitindo que as operações voltem à normalidade o mais breve possível.

Além de se preparar para os desafios atuais, as organizações precisam estar atentas às tendências emergentes em cibersegurança. O campo da cibersegurança está em constante evolução, e o varejo deve estar vigilante quanto a essas mudanças. A evolução das soluções de segurança é uma resposta direta à crescente complexidade e amplitude das ameaças cibernéticas, bem como ao rápido crescimento dos negócios. Esse cenário de constante evolução não mostra sinais de desaceleração.

Em um mundo cada vez mais interconectado, a segurança cibernética transcende a esfera técnica e se torna uma estratégia fundamental para proteger a reputação da empresa e a confiança dos clientes. A implementação de medidas eficazes fortalece não apenas a proteção dos dados, mas também a resiliência da organização diante das ameaças em constante expansão e cada vez mais sofisticadas.

Casos recentes de sérios ataques cibernéticos a redes varejistas resultaram em prejuízos financeiros significativos, deixando claro que a cibersegurança não deve ser negligenciada pelo setor. Ao adotar as melhores práticas e tecnologias disponíveis, mantendo políticas e sistemas atualizados, o varejo está investindo não apenas em um presente mais seguro, mas também no futuro sustentável de seus negócios.

Publicado em Deixe um comentário

VALIDRIVE: DETECTANDO FRAUDES EM PENDRIVES E GARANTINDO A CAPACIDADE REAL

Adquirir um pendrive de procedência incerta pode ser uma experiência frustrante. Além de desperdiçar dinheiro em um produto possivelmente falsificado, também se depara com um dispositivo de transferência lenta e uma capacidade de armazenamento interno inferior ao anunciado. Pensando nisso, um novo programa para computador foi projetado, focado em verificar a autenticidade do espaço de armazenamento dos dispositivos USB.

O software chamado ValiDrive foi desenvolvido para usuários do Windows e realiza uma verificação rápida em qualquer dispositivo de armazenamento USB conectado ao computador. Ele determina se a capacidade de memória interna corresponde ao espaço disponível indicado na embalagem ou nas propriedades do aparelho. Em poucos segundos, o ValiDrive permite verificar se um pendrive anunciado com 512 GB de espaço realmente oferece essa capacidade para armazenamento de arquivos, ou se possui consideravelmente menos.

Dispositivos USB falsificados, muitas vezes imitando marcas reconhecidas, frequentemente alegam ter uma capacidade maior do que a real para atrair consumidores desavisados. Essa discrepância é identificada pelo programa, que gera um mapa colorido indicando a capacidade verdadeira (em verde) e possíveis fraudes, onde o espaço indicado como livre não existe (em vermelho).

Os sistemas operacionais geralmente não detectam essa artimanha, pois não verificam se os dados transferidos foram realmente armazenados no dispositivo falso, que alega possuir um tamanho específico. Portanto, é possível acreditar que arquivos e backups foram guardados adequadamente, quando na realidade não foram.

Além da análise de capacidade, o ValiDrive fornece um relatório detalhado sobre a velocidade de transferência do USB e o tempo gasto em cada sessão de leitura e gravação de dados. Isso é essencial, pois a velocidade de transferência é uma especificação técnica que também pode ser alvo de fraude, pois depende da geração da conectividade do produto. Este programa oferece aos consumidores uma ferramenta valiosa para garantir a autenticidade e a eficiência dos dispositivos USB que adquirem.

Publicado em Deixe um comentário

BADBOX: A EPIDEMIA GLOBAL DE MALWARE QUE AFETOU MILHARES DE DISPOSITIVOS ANDROID

Especialistas em segurança cibernética recentemente identificaram uma extensa rede de malware, denominada BADBOX, que se espalhou para mais de 74 mil dispositivos Android em várias partes do mundo. A focalização dessa rede de malware recaiu especialmente em dispositivos de entretenimento, como as conhecidas TV Boxes.

Descobriu-se que os malwares estavam pré-instalados nos dispositivos durante a fabricação, sendo mais predominantes nos produtos de fabricantes chineses. A infecção ocorria por meio de aplicativos maliciosos que ativavam anúncios de forma oculta, gerando cliques e engajamento sem o conhecimento do usuário, enquanto os criminosos lucravam financeiramente com essa fraude.

A campanha de malware BADBOX se disseminou por pelo menos 227 países, incluindo o Brasil, aproveitando-se do baixo custo das set-top boxes e da ampla disponibilidade desses dispositivos em grandes varejistas globais. No Brasil, modelos populares dessas TV Boxes foram afetados, como T95, T95Z, T95MAX, X88, Q9, X12PLUS e MXQ Pro 5G.

Um dos principais elementos de ameaça dentro da BADBOX era um malware conhecido como Triada, ativo desde 2016 e capaz de infectar todos os componentes de um dispositivo Android. O Triada facilitava o download de módulos voltados para golpes publicitários, os quais eram exibidos no navegador nativo dos dispositivos, sobrepondo-se à interface de forma imperceptível para o usuário.

Outra ameaça, chamada Peachpit, era ativada durante o uso do aparelho, gerando mais de quatro trilhões de requisições de anúncios por dia, através de 39 aplicativos contaminados. Embora também tenham sido encontrados softwares perigosos para o iOS, o impacto da campanha de malware nessa plataforma era consideravelmente menor devido às restrições do sistema operacional.

Apesar do foco da BADBOX ser direcionado a fraudes publicitárias, os malwares responsáveis pela infecção tinham funcionalidades adicionais, possibilitando a instalação de novos vírus pelos criminosos.

Além disso, os dispositivos contaminados podiam ser utilizados em campanhas de disseminação de spam, criação de contas falsas em serviços de e-mail e mensagens, ou até mesmo roubo de dados, tudo sem o conhecimento do usuário.

No momento da divulgação da informação pela Human Security, os servidores responsáveis pelo Peachpit já não estavam mais ativos, indicando possivelmente o término da onda de ataques ou a reconfiguração da campanha de malware para futuras ações.

Para combater essa ameaça, os pesquisadores contataram os fabricantes de dispositivos, informando sobre a presença do malware em seus produtos. Uma empresa não especificada lançou atualizações que impediam o funcionamento dos malwares em todos os seus aparelhos, e correções foram aplicadas em alguns dos aplicativos contaminados.

Publicado em Deixe um comentário

LGPD NO BRASIL: DESAFIOS E REFLEXÕES CINCO ANOS APÓS SUA IMPLEMENTAÇÃO

Cinco anos após a implementação da Lei Geral de Proteção de Dados (LGPD) no Brasil, a situação da segurança da informação nas empresas ainda deixa muito a desejar. A adesão à LGPD por parte das empresas brasileiras é uma incógnita, com números divergentes entre 20% e 50%. Isso revela que a segurança da informação continua sendo um ponto fraco para a maioria das organizações no país.

Com base em um estudo do Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação no Brasil (Cetic.br) publicado em agosto de 2022, apenas 32% das empresas têm uma política de privacidade que esclarece como é feito o tratamento dos dados. Apenas 30% realizam testes de segurança contra vazamentos de dados, e míseros 17% designaram um encarregado de dados, mesmo sendo uma obrigação dispensada para empresas menores.

A LGPD foi criada para garantir o direito dos cidadãos à privacidade e proteção de seus dados pessoais, evitando o uso indevido dessas informações pelas empresas. No entanto, para proteger os dados, as empresas precisam também proteger o ambiente tecnológico e físico onde essas informações são armazenadas.

Considerando uma mediana entre 20% e 50%, podemos concluir que apenas cerca de 35% das empresas contam com sistemas para proteção de dados. Nesse aspecto, a segurança da informação mostrou pouca evolução em cinco anos.

A teoria da segurança da informação nas organizações contrasta com a prática. Embora as empresas apresentem um discurso inovador e correto sobre segurança da informação, a realidade não reflete esse discurso. A segurança da informação ainda é afetada pela volatilidade econômica e pelo uso de soluções inadequadas para combater as ameaças atuais.

Os números de ataques a empresas no Brasil continuam crescendo. Um relatório da Check Point Research referente ao primeiro semestre de 2023 revelou um aumento de 8% nas atividades criminosas. A inteligência artificial e a engenharia social estão sendo cada vez mais utilizadas para realizar ataques complexos, como phishing e ransomware.

Além disso, o uso indevido da inteligência artificial está em ascensão, com ferramentas de IA generativa sendo empregadas para criar e-mails de phishing, malwares e códigos de ransomware.

Embora o cenário macroeconômico do Brasil possa contribuir para essa realidade, é fundamental reconhecer que a segurança da informação não é uma prioridade para a maioria das empresas, como evidenciado pela baixa adesão à LGPD.

Adotar a LGPD vai além de cumprir formalidades, como ter um link para a Política de Privacidade no site. Requer controles de acesso eficazes, visibilidade e proteção de dados físicos e digitais, além do investimento em tecnologias baseadas em inteligência artificial e aprendizado de máquina para combater um cenário de ameaças em constante evolução.

No primeiro semestre de 2023, o Brasil enfrentou cerca de 23 bilhões de tentativas de ataques. É fundamental que, nos próximos cinco anos, haja um aumento significativo no número de empresas que adotaram a regulamentação, em paralelo à redução dos ataques cibernéticos.

Publicado em Deixe um comentário

INOVAÇÃO JURÍDICA: INTELIGÊNCIA ARTIFICIAL NO JUDICIÁRIO BRASILEIRO

Nos meandros do Judiciário brasileiro, uma nova força está emergindo, personificada por nomes como Victor, Expedito, Rafa, Poti, Athos, Clara, Bem-Te-Vi e VictorIA. Estes são os modelos de Inteligência Artificial concebidos para acelerar a tramitação de processos, cortar custos e encurtar prazos. Atualmente, mais de uma centena desses “robôs” trabalham na Justiça brasileira.

Os números apresentam o tamanho do desafio: em 2022, o Judiciário brasileiro enfrentava cem milhões de processos com apenas 17 mil juízes. Isso implicaria em uma análise de seis mil demandas por juiz ao longo de um ano, segundo dados do Conselho Nacional de Justiça (CNJ). Ademais, muitos processos, ao atingirem instâncias superiores, poderiam facilmente ultrapassar mil páginas. Portanto, a integração de máquinas se mostra como uma solução importante para mitigar essa lentidão.

Nos tribunais, esses robôs já desempenham tarefas rotineiras, conseguindo identificar e agrupar temas em processos, executar atividades cartorárias corriqueiras, além de sugerir andamentos e próximos passos para acelerar as ações. A IA identifica e gerencia demandas padronizadas, como a revisão ágil de pedidos de alvarás de soltura.

Esses modelos também são treinados para comparar processos com outras ações que já tiveram decisões ou desfechos em outros Tribunais, auxiliando os magistrados a fundamentarem suas decisões em precedentes relevantes. Um levantamento do CNJ revelou que, em 2022, existiam 111 projetos de Inteligência Artificial em desenvolvimento em 53 Tribunais em todo o país.

A IA no Judiciário deve ser encarada como uma tecnologia de apoio, uma extensão da inteligência humana, e não como uma substituição. Ele ressalta a importância de que todo processo de tomada de decisão esteja sob o controle do usuário.

Para os pesquisadores, além de conferir agilidade, a IA pode elevar a qualidade da Justiça e uniformizar as decisões dos Tribunais.

Os robôs são fundamentais nas análises de documentos jurídicos, triagem de processos e petições, especialmente diante do elevado volume de ações. No âmbito das decisões judiciais, podem auxiliar na identificação de precedentes e comparação de decisões semelhantes. Essa abordagem promete reduzir o tempo gasto em tarefas administrativas e aprimorar a qualidade das decisões judiciais, ancoradas em pesquisas mais robustas.

Apesar dos avanços, surgem preocupações sobre o uso, as aplicações e os limites da Inteligência Artificial no âmbito judicial. O CNJ tem estabelecido resoluções para impor limites e garantir transparência. Por exemplo, máquinas não podem emitir decisões em processos judiciais ou sugerir a dosimetria de penas em casos criminais. Áreas mais sensíveis do Direito, como processos criminais, direito de família e proteção à criança e ao adolescente, demandam cuidado especial na aplicação da Inteligência Artificial. O equilíbrio entre a tecnologia e a sensibilidade do Direito é um desafio que requer contínua reflexão e aprimoramento.

Publicado em Deixe um comentário

ALERTA DE SEGURANÇA: INIMIGOS DO REINO UNIDO INTENSIFICAM ATAQUES CIBERNÉTICOS

Os ataques cibernéticos contra alvos sensíveis do Reino Unido estão crescendo em intensidade, marcando uma nova fase de conflitos globais, de acordo com especialistas em segurança.

Isso vem à tona após hackers russos supostamente terem obtido informações altamente confidenciais sobre alguns dos locais militares mais sensíveis do país, incluindo a base do submarino nuclear HMNB Clyde, na costa oeste da Escócia, e o laboratório de armas químicas de Porton Down.

No mês passado, um ataque “potencialmente altamente prejudicial” conduzido pelo grupo de hackers LockBit, com conhecidos vínculos russos, resultou no vazamento de milhares de páginas de dados na dark web depois de um ataque à empresa de segurança privada Zaun, que fornece cercas de segurança para instalações ligadas ao Ministério da Defesa, descrevendo o incidente como um “ataque cibernético sofisticado”.

Especialistas em segurança cibernética alertam que os inimigos do Reino Unido estão adotando abordagens cada vez mais agressivas nesse âmbito. Eles destacam a necessidade de regulamentação mais eficaz das empresas terceirizadas que possuem dados críticos sobre infraestrutura militar.

A preocupação é que a segurança cibernética insuficiente represente um ponto de vulnerabilidade significativo, especialmente em um contexto global tenso. A proteção eficaz contra ataques cibernéticos é vista como vital para a segurança nacional. Esse incidente também levanta questões sobre a segurança dos sistemas de computadores e dados em locais sensíveis do país.

No entanto, é importante destacar que o governo ainda não forneceu comentários detalhados sobre a situação, mantendo sua postura de não discutir questões de segurança. As empresas afetadas estão colaborando com as investigações e adotando medidas para reforçar suas defesas contra futuros ataques.

Publicado em Deixe um comentário

INOVAÇÃO RESPONSÁVEL EM IA: ANPD CONVIDA A SOCIEDADE PARA CONSULTA SOBRE SANDBOX REGULATÓRIO

A Autoridade Nacional de Proteção de Dados (ANPD) iniciou uma consulta pública sobre seu programa piloto de sandbox regulatório, um ambiente controlado para testar tecnologias relacionadas à inteligência artificial (IA). A intenção é que, através das inovações testadas nesse ambiente, boas práticas possam ser implementadas para garantir conformidade com as normas de proteção de dados pessoais.

O programa piloto é parte de uma iniciativa mais ampla para lidar com as implicações da inteligência artificial e a proteção de dados. A ANPD busca promover a inovação responsável em IA e aumentar a transparência algorítmica.

Este projeto é baseado em um estudo técnico da ANPD, chamado “Sandbox regulatório de inteligência artificial e proteção de dados no Brasil”, que apresenta como os sandboxes regulatórios podem ser efetivamente utilizados por Autoridades de Proteção de Dados para regular tecnologias emergentes. A ANPD está colaborando com o Banco de Desenvolvimento da América Latina e do Caribe (CAF) nesse processo, compartilhando conhecimentos para o desenvolvimento desses ambientes regulatórios.

A consulta à sociedade, que está aberta até 1º de novembro de 2023, tem como objetivo coletar informações e dados relevantes para moldar o sandbox regulatório. Essa é uma maneira de incluir uma variedade de perspectivas e entender como a regulamentação futura pode afetar diferentes partes interessadas no contexto da inteligência artificial e proteção de dados. A transparência e a inclusão estão no centro deste processo, com todas as contribuições disponíveis para consulta.