Publicado em Deixe um comentário

VOCÊ ESTÁ SEGURO ONLINE? UMA JORNADA INTERATIVA NA PROTEÇÃO CONTRA IMAGENS FALSAS DE IA

A crescente incidência de crimes cibernéticos envolvendo a utilização de Inteligência Artificial (IA) para a criação de imagens falsas de nudez, comumente conhecidas como “deep nudes”, tem se tornado uma preocupação significativa no mundo jurídico e tecnológico. Essas práticas representam uma grave violação da privacidade e dignidade das vítimas, muitas das quais são mulheres e jovens, destacando a necessidade urgente de uma abordagem mais robusta na legislação e na educação digital.

Especialistas em Direito e Tecnologia têm enfatizado a importância de leis específicas para lidar com esses crimes, apontando para as limitações das legislações atuais em combater efetivamente tais práticas. Embora existam normativas, como as que permitem a remoção de conteúdo ofensivo da internet e estabelecem a responsabilidade das plataformas digitais, elas muitas vezes não são suficientes para abordar integralmente a questão.

A necessidade de legislações específicas que tratem de crimes envolvendo IA, como a criação de deep nudes, é um tópico em discussão. A ideia é que novas leis possam desincentivar tais práticas e oferecer um caminho mais claro para a responsabilização dos infratores. A abordagem proposta enfatiza um equilíbrio entre os direitos individuais e os riscos associados ao uso da tecnologia, sugerindo o uso de “sandboxes” regulatórios para um desenvolvimento e teste seguros de novas tecnologias.

Os desafios no julgamento desses crimes são amplificados pela complexa natureza da internet, que muitas vezes envolve dados armazenados em múltiplas jurisdições internacionais. Isso ressalta a importância de convenções internacionais que tratam de crimes cibernéticos e a cooperação jurídica internacional em casos envolvendo provas eletrônicas.

Para proteger-se contra esses crimes, é recomendado ter cautela com a exposição nas redes sociais e estar consciente dos riscos associados ao uso da internet. A educação, tanto em ambientes escolares quanto familiares, é fundamental para informar as novas gerações sobre os perigos potenciais do mundo digital. Além disso, destaca-se a importância de profissionais do Direito estarem bem informados e capacitados para lidar com questões de Direito e Tecnologia, entendendo a aplicação de leis relevantes como o Marco Civil da Internet e a Lei Geral de Proteção de Dados.

A reflexão sobre o impacto da IA no mercado de trabalho e na sociedade como um todo é um tópico relevante. Enquanto a IA tem o potencial de aumentar a eficiência em certos trabalhos, também existe a preocupação com o desemprego em massa em setores mais suscetíveis à automação. A supervisão humana e a crítica são vistas como componentes essenciais no processo de integração da IA, enfatizando a necessidade de uma aplicação ética e regulamentada da tecnologia.

Publicado em Deixe um comentário

INTELIGÊNCIA ARTIFICIAL E DIREITO: ENFRENTANDO A ONDA DE CRIMES DIGITAIS NO BRASIL

O recente incidente de montagens digitais envolvendo alunas de uma escola no Rio de Janeiro, onde suas imagens foram alteradas para parecerem nuas, levanta preocupações significativas sobre os perigos associados ao uso indevido da inteligência artificial em crimes cibernéticos. A polícia está investigando a divulgação dessas imagens forjadas, e embora a legislação específica sobre o uso de IA ainda esteja em desenvolvimento, um projeto de lei está atualmente em audiência pública para abordar essa questão.

Os crimes cometidos com o auxílio dessas tecnologias serão enquadrados nas leis existentes, como o Estatuto da Criança e do Adolescente e o Código Penal.

A advogada Andrea Augé, com vasta experiência em Direito Digital e Crimes na Internet, enfatiza a importância de ferramentas de proteção para minimizar os danos às vítimas em tais situações.

O cerne do problema não reside nas ferramentas tecnológicas em si, mas no seu uso mal-intencionado para cometer crimes ou atos infracionais. Consequentemente, ele defende a regulamentação das plataformas de redes sociais, que frequentemente se tornam veículos para a disseminação desses conteúdos prejudiciais.

É fundamental o monitoramento e a orientação por parte dos pais ou responsáveis para prevenir tais incidentes.

Um relatório alarmante de uma empresa de segurança na internet revelou que, somente em 2020, aproximadamente 100 mil mulheres foram vítimas de alterações digitais em um popular aplicativo de mensagens, que modificavam suas imagens para aparecerem nuas. Este caso sublinha a urgência de uma ação legislativa e conscientização pública para combater a crescente onda de crimes digitais facilitados pela inteligência artificial.

Publicado em Deixe um comentário

REVOLUÇÃO DIGITAL NAS PMES: O IMPACTO E OS DESAFIOS DA IMPLEMENTAÇÃO DA INTELIGÊNCIA ARTIFICIAL

A inteligência artificial (IA) está emergindo como um diferencial potencial para as pequenas e médias empresas (PMEs), oferecendo promessas de eficiência aprimorada e redução de custos, enquanto ao mesmo tempo intensifica a competição no mercado. À medida que as PMEs ponderam sobre a adoção dessa tecnologia avançada, é fundamental que elas compreendam tanto as oportunidades quanto as responsabilidades inerentes.

A IA está cada vez mais inserida em nosso dia a dia, revolucionando a maneira como as empresas operam. Ela automatiza processos rotineiros, melhora a tomada de decisões por meio da análise de dados, fornece atendimento ao cliente através de chatbots e assistentes virtuais, otimiza operações, personaliza o marketing e reforça a detecção de fraudes e segurança. Os benefícios podem ser substanciais, especialmente para PMEs que buscam se diferenciar e crescer em um mercado competitivo.

No entanto, a integração da IA nos negócios não é um caminho sem obstáculos. Requer planejamento estratégico, investimento em novas tecnologias e colaboração com especialistas. Além disso, existem desafios legais consideráveis, particularmente no que diz respeito à privacidade e proteção de dados. A Lei Geral de Proteção de Dados Pessoais (LGPD) do Brasil, por exemplo, estabelece diretrizes claras para a manipulação de dados pessoais, aplicando-se a todas as empresas que operam no país.

Problemas de propriedade intelectual, privacidade de dados, discriminação algorítmica, responsabilidade legal e regulamentações setoriais específicas são aspectos que as PMEs devem abordar com cuidado. A utilização de IA para o gerenciamento de dados pessoais tem suas complexidades, dada a sensibilidade e o risco associado à divulgação ou uso indevido de informações protegidas por lei.

As PMEs devem estar vigilantes e conformes com suas obrigações legais relacionadas à proteção de dados, o que inclui implementar medidas de segurança robustas para prevenir acessos não autorizados e vazamentos de informações. As implicações legais do uso de IA também se estendem à responsabilidade por decisões automatizadas, um território ainda nebuloso em termos de legislação.

As decisões baseadas em IA podem ter consequências significativas para indivíduos ou grupos, e a atribuição de responsabilidade por essas decisões é uma área de intenso debate jurídico. As PMEs precisam estar cientes de que a responsabilidade pode recair tanto sobre a empresa usuária quanto sobre as próprias ferramentas de IA.

Para mitigar riscos e danos, as PMEs devem adotar práticas de governança em IA, como treinamento de funcionários e auditorias regulares, garantindo que as ferramentas de IA estejam alinhadas com as regulamentações aplicáveis. A transparência e a ética no uso da IA são fundamentais para manter a confiança do público e evitar repercussões financeiras ou danos à reputação.

Em resumo, a adoção da IA pode ser uma força transformadora para as PMEs, mas deve ser abordada com diligência e consciência das responsabilidades legais. A tecnologia avança rapidamente, e para que as PMEs mantenham sua relevância e lucratividade em um mundo globalizado, elas devem buscar soluções eficientes e custo-efetivas, sempre ancoradas no compromisso com a proteção dos negócios e dos direitos dos titulares de dados.

Publicado em Deixe um comentário

CERTIFICAÇÃO DIGITAL: A CHAVE PARA A CONFORMIDADE COM A LGPD NA SAÚDE

A entrada em vigor da LGPD no Brasil em setembro de 2020 marcou um ponto importante na área da saúde, trazendo consigo desafios complexos e oportunidades promissoras, especialmente quando se trata da gestão de informações sensíveis de pacientes. Nesse contexto, destacam-se tendências essenciais que têm ganhado relevância, notadamente a integração da inteligência artificial e a ampla adoção da computação em nuvem.

O Cenário da LGPD na Área da Saúde A área da saúde lida com informações altamente sensíveis, abrangendo dados clínicos, genômicos e pessoais dos pacientes. A LGPD estabelece um conjunto rigoroso de regras para garantir a proteção e a privacidade desses dados, com requisitos que impactam diretamente a coleta, o armazenamento e o compartilhamento de informações médicas.

O Papel Fundamental da Inteligência Artificial A aplicação da inteligência artificial no campo da saúde é ampla e multifacetada. Da análise de imagens médicas à geração de diagnósticos e tratamentos personalizados, a IA desempenha um papel fundamental. No contexto da LGPD, a IA pode ser empregada para automatizar a anonimização de dados sensíveis, assegurando que a identidade dos pacientes seja preservada em informações clínicas compartilhadas.

Além disso, a IA desempenha um papel crítico na detecção de violações de segurança de dados. Algoritmos de aprendizado de máquina podem monitorar o tráfego de informações em tempo real, identificando atividades suspeitas e notificando imediatamente as equipes de segurança, contribuindo para o cumprimento da LGPD.

A Computação em Nuvem e sua Relevância para a LGPD A adoção da computação em nuvem está se destacando devido à sua capacidade de reforçar a segurança e a conformidade com a LGPD. A migração de sistemas e dados para ambientes de nuvem permite que as instituições de saúde estabeleçam backups regulares, redundância e criptografia robusta, elementos cruciais para a proteção de informações sensíveis.

A computação em nuvem também oferece escalabilidade e flexibilidade, características essenciais no contexto da saúde, onde o volume de dados continua a crescer exponencialmente. A capacidade de ajustar os recursos conforme a demanda pode ser uma vantagem para as instituições que buscam manter a conformidade com a LGPD.

Desafios e Considerações Éticas A LGPD trouxe mudanças significativas na maneira como a área da saúde lida com dados sensíveis dos pacientes, impondo padrões mais rígidos de proteção e privacidade. A integração da inteligência artificial e da computação em nuvem emerge como uma tendência crucial para atender a essas regulamentações e aprimorar a qualidade do atendimento.

No entanto, é fundamental destacar que, ao adotar essas tecnologias, as instituições de saúde devem fazê-lo de maneira ética e transparente, respeitando estritamente os direitos dos pacientes. A conformidade com a LGPD na área da saúde vai além do cumprimento da lei; também se trata de construir confiança e garantir a segurança dos pacientes, estabelecendo uma base sólida para o futuro da assistência médica no Brasil.

Publicado em Deixe um comentário

DIREITOS E REGULAMENTAÇÃO NA ERA DA INTELIGÊNCIA ARTIFICIAL: UMA ANÁLISE DO PL 2.338/2023

Um dos temas que frequentemente suscita dúvidas e, por vezes, preocupações, é a contratação pela internet. Isso se deve à complexidade inerente aos negócios digitais, seus riscos e aos elementos ocultos por trás das transações eletrônicas. No entanto, é inegável que esses negócios fazem parte do nosso cotidiano e se tornaram inevitáveis. Contratos de consumo e contratos em geral alimentam uma infinidade de transações diárias, envolvendo compras e vendas, aluguéis, contratação de serviços e até mesmo novas maneiras de celebrar contratos tradicionais por meio eletrônico, com assinaturas digitais. Isso é facilitado pela recente Lei dos Cartórios (Lei 14.382/2022), conhecida como Lei do Sistema Eletrônico de Registros Públicos (SERP).

Nesse cenário, é importante notar que muitas dessas negociações não são assinadas por pessoas físicas em ambos os lados, mas sim por robôs com conhecimento e informações sobre a vida e dados da outra parte contratante. Diante disso, surgiu o Projeto de Lei 2.338/2023, com o objetivo de estabelecer normas gerais nacionais para o desenvolvimento, implementação e uso responsável de sistemas de Inteligência Artificial (IA) no Brasil. O propósito principal é proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis em benefício das pessoas, da democracia e do desenvolvimento científico e tecnológico.

Este projeto de lei é notável em termos de qualidade e técnica, pois foi iniciado pelo Ato n.º 4/2022 do Presidente do Senado Federal, que nomeou uma Comissão de Juristas para elaborar uma minuta de substitutivo para outros projetos de lei relacionados à regulamentação da IA.

Neste texto, focaremos nos artigos 7º e 8º do projeto, que fazem parte da Seção II intitulada “Dos direitos associados à informação e compreensão das decisões tomadas por sistemas de Inteligência Artificial.” Esses artigos visam abordar a necessidade de fornecer informações claras e adequadas aos contratantes antes de celebrar contratos ou usar sistemas de IA. Estas informações devem incluir:

  1. O caráter automatizado das interações e decisões que afetam as pessoas.
  2. Uma descrição geral do sistema, tipos de decisões que ele pode tomar e suas consequências.
  3. A identificação dos operadores do sistema de IA e as medidas de governança adotadas no seu desenvolvimento e uso.
  4. O papel do sistema de IA e das pessoas envolvidas nas decisões.
  5. As categorias de dados pessoais utilizados pelo sistema de IA.
  6. Medidas de segurança, não discriminação e confiabilidade, incluindo precisão e cobertura.
  7. Outras informações especificadas em regulamentos.

Além disso, o projeto enfatiza a importância de fornecer informações de forma acessível ao público, usando ícones ou símbolos facilmente reconhecíveis, especialmente quando se trata do caráter automatizado das interações.

O projeto também destaca a necessidade de informar claramente as pessoas expostas a sistemas de reconhecimento de emoções ou categorização biométrica, com ênfase na compreensão desses sistemas, especialmente para pessoas vulneráveis, como crianças, adolescentes, idosos e pessoas com deficiência.

Essas disposições visam concretizar os princípios do projeto, incluindo transparência, explicabilidade, inteligibilidade e auditabilidade. O direito à compreensão dos sistemas de IA se alinha com o direito de acesso estabelecido na Lei Geral de Proteção de Dados (LGPD), permitindo que as pessoas obtenham informações relevantes sobre o tratamento de seus dados pessoais.

A questão da explicabilidade é desafiadora, uma vez que a complexidade dos algoritmos de IA torna difícil para indivíduos leigos compreender completamente seu funcionamento. No entanto, a exigência é mais sobre tornar a informação transparente, inteligível e auditável, possibilitando que as pessoas compreendam o impacto das decisões tomadas por sistemas de IA.

Uma solução interessante pode ser a implementação de práticas de auditoria e regras para tornar os sistemas de IA mais transparentes. Não significa necessariamente entender todos os detalhes dos algoritmos, mas sim garantir que as informações sejam acessíveis a todos, não apenas àqueles com conhecimento técnico em IA.

Em última análise, a regulamentação da IA é essencial para proteger os direitos fundamentais das pessoas. A regulamentação é dinamicamente ajustada de acordo com os riscos potenciais associados à tecnologia. Medidas de governança, categorização de riscos e avaliação de impacto algorítmico são essenciais para garantir a conformidade com as disposições do projeto.

Além disso, à medida que a Comissão de Juristas trabalha na revisão do Código Civil, é apropriado considerar a inclusão de princípios relacionados à IA, como a explicabilidade, para fortalecer a confiabilidade e a transparência dos contratos eletrônicos que envolvem sistemas de IA. A proteção dos direitos associados à informação e compreensão das decisões tomadas pela IA é fundamental e deve ser incorporada nas regulamentações e práticas de negócios.

Publicado em Deixe um comentário

PROTEÇÃO DE DIREITOS AUTORAIS NA ERA DA IA: EQUILÍBRIO ENTRE INOVAÇÃO E CRIATIVIDADE HUMANA

A ascensão da inteligência artificial generativa é, inegavelmente, um divisor de águas no cenário global. À medida que testemunhamos a criação de materiais surpreendentemente realistas gerados por IA, surgem debates cruciais sobre a aplicação de direitos autorais a essas obras.

Um caso que reflete esse embate é o da obra “A Recent Entrance to Paradise”, produzida por uma ferramenta de IA e submetida para registro em agosto de 2023. O veredito do juiz, considerando que uma IA não pode ser reconhecida como autora de uma obra, gerou intensos debates.

No entanto, nos Estados Unidos, o Escritório de Direitos Autorais (US Copyright Office) adotou uma abordagem mais flexível. Eles reconhecem a possibilidade de registrar obras criadas por IA quando há intervenção humana significativa no processo criativo. Isso abre uma perspectiva interessante: arte, música e outras criações geradas com o auxílio da IA podem ser elegíveis para registro de direitos autorais, desde que haja um componente humano substancial.

E no Brasil, a situação não difere muito. Do ponto de vista da legislação, a proteção autoral não pode ser conferida a uma IA. A Lei nº 9.610/98 protege obras intelectuais que se originam das “criações do espírito”, o que, por definição, exclui sistemas de inteligência artificial desprovidos de espírito. Além disso, a lei define o autor como uma “pessoa física criadora de obra literária, artística ou científica”, excluindo, assim, as obras criadas por IA.

Entretanto, a discussão persiste sobre a possibilidade de proteção quando uma quantidade significativa de conteúdo protegido por direito autoral é incorporada na produção de material pela IA. Por exemplo, o uso de IA para criar representações de personagens famosos de desenhos animados ou para gerar imagens que envolvam celebridades levanta preocupações legítimas sobre a imunidade da proteção de direitos autorais.

O Projeto de Lei apresentado pelo deputado Aureo Ribeiro (PL1473/23) no Brasil busca exigir que empresas que operam sistemas de IA forneçam ferramentas que permitam aos autores restringir o uso de suas criações por algoritmos. No entanto, a implementação prática desses controles permanece incerta devido à natureza complexa e opaca das IAs, frequentemente chamadas de “caixas-pretas”, e à imensa quantidade de dados necessária para treiná-las.

Nesse contexto, a sociedade enfrenta o desafio de equilibrar a preservação da originalidade e propriedade intelectual com a inovação trazida pela inteligência artificial. A questão central que permanece é: como conciliar a proteção de direitos autorais com a natureza dinâmica e desafiadora da IA? A solução, em última instância, reside em encontrar abordagens éticas e legais que garantam uma compensação justa aos criadores, ao mesmo tempo em que promovem o desenvolvimento tecnológico.

O futuro da proteção de direitos autorais no contexto da IA dependerá da capacidade da sociedade e da legislação se adaptarem em sintonia com os avanços tecnológicos, alcançando um equilíbrio que estimule a inovação responsável e reconheça as contribuições humanas para a criação artística.

Publicado em Deixe um comentário

A ASCENSÃO DA INTELIGÊNCIA ARTIFICIAL NAS ELEIÇÕES BRASILEIRAS: BENEFÍCIOS E DESAFIOS

Nos últimos anos, a Inteligência Artificial (IA) emergiu como uma ferramenta de grande poder e impacto em diversos setores. Sua promessa de revolucionar a forma como vivemos, trabalhamos e nos relacionamos é inegável. Nesse contexto, torna-se evidente que a inteligência artificial está transformando substancialmente a condução das campanhas políticas e a interação dos eleitores com os candidatos, estando destinada a desempenhar um papel crucial nas eleições de 2024.

As redes sociais desempenham um papel de destaque nas últimas eleições no Brasil, impulsionadas por algoritmos sofisticados e a capacidade de análise de grandes volumes de dados, habilitados pela inteligência artificial. Essa revolução está alterando a maneira de conduzir campanhas políticas, exigindo profissionais altamente capacitados que compreendam profundamente o funcionamento dessa nova ferramenta.

Uma das áreas mais impactadas pela inteligência artificial é a segmentação de eleitores. Através da análise de dados demográficos, comportamentais e históricos, os partidos políticos agora podem direcionar suas mensagens de forma altamente precisa, adaptando-as aos interesses específicos de diversos grupos de eleitores. Esse enfoque personalizado gera campanhas mais atraentes e persuasivas.

Entre as diversas aplicações da inteligência artificial em campanhas eleitorais, a análise de dados do eleitorado se destaca. Essa análise permite uma compreensão profunda dos perfis e preferências dos eleitores, possibilitando a identificação de tendências e interesses da sociedade. Isso, por sua vez, ajuda a traçar estratégias de campanha mais eficazes, sempre alinhadas com as principais demandas da população.

Entretanto, é fundamental ressaltar os desafios éticos e de privacidade que surgem com o uso da inteligência artificial nas eleições. O acesso a grandes volumes de dados deve respeitar as regulamentações legais, em conformidade com a Lei Federal nº 13.709/2018 (Lei Geral de Proteção de Dados – LGPD). O manuseio de informações requer cuidados rigorosos para garantir a proteção da privacidade dos eleitores e prevenir abusos que possam comprometer a integridade do processo eleitoral.

O uso da inteligência artificial nas eleições tem gerado debates intensos, preocupando especialistas e as autoridades eleitorais. A fiscalização adequada dessa nova ferramenta é um desafio adicional. A coleta e o processamento de dados exigem supervisão criteriosa para garantir a privacidade dos cidadãos e a transparência do processo. Vale destacar que o uso indevido dessas tecnologias pode configurar abuso de poder, resultando na cassação do registro ou diploma dos candidatos beneficiados por tais práticas.

Portanto, é inegável a presença crescente da inteligência artificial nas eleições brasileiras, trazendo consigo tanto benefícios quanto desafios. É essencial estabelecer um equilíbrio entre a exploração das vantagens tecnológicas e a proteção dos valores democráticos fundamentais, bem como o cumprimento da legislação eleitoral. A fiscalização contínua e efetiva é crucial para assegurar que a inteligência artificial continue aprimorando o processo eleitoral no Brasil e que seu uso seja pautado na ética, no respeito à democracia e no fomento ao debate de ideias.

Publicado em Deixe um comentário

ANPD PROPÕE MODELO INSTITUCIONAL PARA REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL NO BRASIL

A Autoridade Nacional de Proteção de Dados (ANPD) anunciou hoje, 24 de outubro, sua segunda análise (Nota Técnica nº 16/2023/CGTP/ANPD) referente ao Projeto de Lei nº 2338/2023, que trata da regulamentação do uso de inteligência artificial (IA) no Brasil. Este documento apresenta contribuições significativas para a modificação do projeto de lei, propõe um novo modelo institucional, destaca sete áreas cruciais de intersecção entre o projeto de lei e a Lei Geral de Proteção de Dados Pessoais (LGPD) e faz uma comparação com as práticas regulatórias de autoridades internacionais.

A análise da ANPD propõe a criação de um modelo institucional para a regulamentação de sistemas de IA composto por quatro instâncias complementares, com a Autoridade Nacional desempenhando o papel central na regulamentação desse tema. O modelo sugerido pela ANPD inclui uma atuação coordenada entre órgãos do Poder Executivo, órgãos reguladores setoriais, bem como a criação de um Conselho Consultivo, semelhante ao Conselho Nacional de Proteção de Dados e da Privacidade (CNPD), destinado exclusivamente à regulamentação do uso de IA no país.

Conforme indicado no documento, experiências internacionais demonstram que uma abordagem centralizada, sob a égide de uma única autoridade, oferece benefícios indiscutíveis na formulação de normas, como evidenciado nas experiências da União Europeia, França, Holanda e outros países.

Além disso, o documento realça a proposta de que a competência para elaborar, gerenciar, atualizar e implementar a Estratégia Brasileira de Inteligência Artificial (EBIA) seja atribuída ao Poder Executivo, em vez da autoridade competente, como previsto na redação atual do projeto de lei. De acordo com a nota técnica, a ANPD terá a responsabilidade de contribuir, no âmbito de suas atribuições, para o processo de elaboração e implementação da EBIA.

Durante uma audiência pública realizada no Senado Federal, na Comissão Temporária Interna sobre Inteligência Artificial no Brasil, a Diretora Miriam Wimmer defendeu a ideia de uma autoridade central com uma abordagem regulatória mais centralizada, que atue como uma fonte clara e consistente de orientação para todos os setores e partes envolvidas, eliminando ambiguidades e interpretações divergentes que podem resultar em incertezas legais. A Diretora destacou a capacidade da ANPD de adotar uma abordagem transversal e enfatizou que qualquer expansão de competências depende do fortalecimento institucional da ANPD, incluindo independência técnica, autonomia administrativa e decisória, de acordo com o modelo das agências reguladoras previsto na lei das agências.

Miriam também mencionou a criação de um Fórum de Órgãos Reguladores Setoriais, com o objetivo de facilitar a colaboração entre a autoridade central e os órgãos reguladores setoriais na regulamentação do tema.

A nota técnica propõe alterações legislativas nos artigos 32 a 35 do Capítulo VIII do Projeto de Lei nº 2338, que trata da supervisão e fiscalização. No entanto, ressalta que outras modificações podem ser necessárias e que a ANPD está à disposição do Congresso Nacional para discutir as propostas sugeridas.

A contribuição da ANPD tem como objetivo enfatizar o papel ativo da Autoridade no debate sobre a regulamentação da IA e garantir que a futura lei esteja em conformidade com os princípios e diretrizes estabelecidos pela LGPD.

Publicado em Deixe um comentário

O FUTURO DO DIREITO: ADAPTAÇÃO DIGITAL E O PAPEL DOS PROFISSIONAIS JURÍDICOS

A automatização de tarefas nos departamentos jurídicos é uma tendência inegável que ganha destaque no cenário profissional. De acordo com um estudo realizado pelo Gartner no âmbito da pesquisa “Future of Legal,” espera-se que até 2024, metade das atividades relacionadas às principais transações corporativas estejam automatizadas. Esse avanço não surpreende, considerando o ritmo acelerado da transformação digital em diversas áreas, inclusive no mundo do direito.

Já presenciamos escritórios jurídicos operando em ambientes digitais, a assinatura eletrônica de contratos, chatbots auxiliando com dúvidas comuns dos clientes e a visualização em tempo real de processos legais e atividades jurídicas. Isso são apenas alguns exemplos das inovações que estão impulsionando o crescente mercado das LegalTechs ou LawTechs, empresas que exploram tecnologias no campo jurídico.

Para se destacar no ambiente profissional, é fundamental para os profissionais, incluindo aqueles no campo jurídico, a habilidade de combinar a eficiência das soluções tecnológicas, muitas das quais são equipadas com inteligência artificial, com a qualidade de sua atuação diária.

O contexto econômico, as mudanças no mercado de trabalho e a evolução tecnológica demandam dos profissionais uma postura mais estratégica e inovadora. É necessário adotar uma mentalidade digital, identificando oportunidades de otimização por meio de softwares e encarando a tecnologia como uma aliada, não como uma ameaça. Além disso, a compreensão do Direito Digital e do Compliance continua sendo fundamental. Empresas e profissionais precisam se reinventar em resposta a essas mudanças.

Cada profissional jurídico deve se esforçar para demonstrar seu valor, mostrando sua contribuição única como ser humano em garantir a segurança e eficiência dos processos, mesmo quando a tecnologia está envolvida. Conscientizar-se sobre as habilidades técnicas e comportamentais que precisam ser desenvolvidas e implementar um plano de aprimoramento é essencial.

Conhecer profundamente o negócio do cliente ou da empresa em que se atua, para além das questões jurídicas, é uma estratégia que agrega valor ao trabalho jurídico. Essa capacidade de oferecer orientação alinhada às necessidades do negócio é um ponto onde a tecnologia provavelmente levará mais tempo para superar os seres humanos.

Em resumo, diante do cenário de constante transformação no mercado de trabalho, a curiosidade diante das novidades é fundamental. Novas regras estão sendo criadas constantemente para lidar com os contextos em evolução. A experimentação e a capacidade de adaptação são essenciais para prosperar, uma vez que o mundo corporativo não para de se transformar.

A Bold HRO, uma consultoria especializada em recrutamento e desenvolvimento organizacional, desempenha um papel crucial em ajudar as empresas a atingirem seus objetivos, especialmente no mercado jurídico, onde lidera o ranking de recrutamento especializado, de acordo com a Leaders League. A empresa se destaca ao oferecer soluções personalizadas para contratação e desenvolvimento de talentos.

Publicado em Deixe um comentário

BIOMETRIA FACIAL: ENTRE A MODERNIZAÇÃO E A PROTEÇÃO DA PRIVACIDADE EM GRANDES EVENTOS

O Projeto de Lei nº 2.745/2023, recentemente aprovado pela Comissão de Segurança Pública da Câmara dos Deputados, traça diretrizes necessárias para a implementação de sistemas de reconhecimento facial em estádios de futebol. Este avanço na tecnologia biométrica está transformando a forma como abordamos segurança e controle de acesso, não apenas em eventos esportivos, mas também em diversos setores, incluindo condomínios.

De acordo com o texto aprovado, a adoção de sistemas de reconhecimento facial nos estádios será opcional, ficando a cargo das entidades públicas e privadas responsáveis pelo evento a decisão de utilizá-lo. Importante destacar que o tratamento e o compartilhamento dos dados biométricos devem estar em conformidade com a Lei Geral de Proteção de Dados (LGPD). Além disso, o uso de reconhecimento facial não será permitido em áreas onde a privacidade dos torcedores ou jogadores deve ser preservada, como banheiros, vestiários e refeitórios.

Sob a perspectiva da Lei de Proteção de Dados Pessoais (LPDG), é essencial compreender a implementação dessa tecnologia e o tratamento das informações dos indivíduos. Há um debate em curso, especialmente sobre a possibilidade de substituição completa de métodos tradicionais.

Tomando como exemplo o Allianz Parque, o registro facial se tornou obrigatório para a compra de ingressos e acesso ao estádio, inclusive para crianças e adolescentes, eliminando a opção de compra física. O Idec (Instituto de Defesa do Consumidor) argumenta que é desproporcional impor o uso exclusivo de dados biométricos como meio de acesso, defendendo a disponibilização de alternativas.

A agilidade na entrada em eventos esportivos e condomínios é uma das principais vantagens do reconhecimento facial, além do combate ao cambismo e o aumento da segurança, particularmente na identificação de responsáveis por atos de vandalismo e crimes. Entretanto, questões éticas e relacionadas à proteção de dados pessoais surgem, dado que os dados biométricos são considerados sensíveis, exigindo o consentimento livre e expresso dos usuários.

Um ponto importante a ser considerado é que os algoritmos de inteligência artificial não possuem sensibilidade humana e podem aprender de maneira equivocada a partir de dados mal coletados ou mal interpretados. Isso pode levar a análises preconceituosas ou imprecisas, ressaltando a importância de garantir que suspeitos não sejam apontados unicamente com base em características físicas.

Embora a tecnologia prometa modernizar e aprimorar o acesso em estádios de futebol, eventos esportivos e condomínios, as organizações responsáveis devem assegurar que as informações faciais coletadas sejam tratadas de maneira ética e segura. O consentimento explícito das pessoas, a transparência sobre o uso dos dados e a consideração de alternativas para aqueles que não desejam compartilhar seus dados são passos essenciais para garantir que a tecnologia beneficie a todos, sem comprometer a privacidade e a segurança.

Publicado em Deixe um comentário

CLONAGEM DE VOZ POR IA: PROTEGENDO A INTEGRIDADE ELEITORAL E A INFORMAÇÃO PÚBLICA

Com o avanço acelerado da inteligência artificial na geração de áudios, a clonagem de voz tornou-se uma prática comum na indústria do entretenimento, sendo utilizada para dublagens e criação de canções com a voz de atores e artistas já falecidos. Contudo, esse avanço também levanta preocupações, pois o uso indevido da IA para criação de deepfakes de voz pode resultar em ações de desinformação alarmantes. É possível enganar eleitores, criar conflitos políticos e ampliar o espaço para teorias da conspiração.

Recentemente, vimos casos em alguns países onde deepfakes foram utilizados para clonar a voz de líderes políticos. Na Eslováquia, por exemplo, dias antes de uma eleição nacional, um clipe de áudio falsificado de Michal Šimečka, líder do Partido Progressista, circulou descrevendo um esquema de fraude nas eleições por meio do suborno de membros da população cigana. Similarmente, no Reino Unido, um vídeo falso do líder do Partido Trabalhista, Keir Starmer, foi compartilhado, no qual ele proferia ofensas contra seus próprios funcionários.

Esses clipes foram prontamente desmentidos por verificadores de fatos, que os identificaram como prováveis falsificações geradas por softwares de IA. No entanto, é preocupante observar que muitas publicações nas redes sociais continuam a afirmar a veracidade desses clipes, enganando ainda mais os usuários. O Facebook, por exemplo, colocou um selo de advertência em uma das publicações, mas não a removeu, enquanto o vídeo de Starmer não recebeu qualquer tipo de advertência.

Com várias eleições programadas para ocorrer na Europa nos próximos meses, incluindo em países como Polônia, Holanda e Lituânia, Thierry Breton, comissário da União Europeia, enviou uma carta a Mark Zuckerberg, CEO da Meta, pressionando para que medidas sejam adotadas para conter a proliferação de deepfakes nas redes sociais.

Nos Estados Unidos, a preocupação com deepfakes também é evidente, especialmente visando as eleições de 2024. Um vídeo falso do ex-presidente Barack Obama surgiu no TikTok, no qual ele endossava uma teoria da conspiração sobre a morte repentina de seu ex-chefe de cozinha, conforme reportado pelo The New York Times. Esse vídeo foi compartilhado por uma das 17 contas do TikTok que promovem informações falsas por meio de áudios, de acordo com um relatório da NewsGuard, empresa especializada em monitorar desinformação online.

Os deepfakes de voz apresentam uma peculiaridade preocupante: são mais difíceis de serem identificados como falsos, se comparados a imagens ou vídeos gerados por IA. Isso os torna eficazes para enganar os usuários e disseminar desinformação. Diante dessa ameaça, a Comissão Eleitoral Federal (FEC) dos Estados Unidos iniciou uma consulta pública para regular conteúdos gerados artificialmente, especialmente no contexto de anúncios políticos, visando garantir a integridade e transparência nas eleições presidenciais de 2024.

Publicado em Deixe um comentário

LGPD NO BRASIL: DESAFIOS E REFLEXÕES CINCO ANOS APÓS SUA IMPLEMENTAÇÃO

Cinco anos após a implementação da Lei Geral de Proteção de Dados (LGPD) no Brasil, a situação da segurança da informação nas empresas ainda deixa muito a desejar. A adesão à LGPD por parte das empresas brasileiras é uma incógnita, com números divergentes entre 20% e 50%. Isso revela que a segurança da informação continua sendo um ponto fraco para a maioria das organizações no país.

Com base em um estudo do Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação no Brasil (Cetic.br) publicado em agosto de 2022, apenas 32% das empresas têm uma política de privacidade que esclarece como é feito o tratamento dos dados. Apenas 30% realizam testes de segurança contra vazamentos de dados, e míseros 17% designaram um encarregado de dados, mesmo sendo uma obrigação dispensada para empresas menores.

A LGPD foi criada para garantir o direito dos cidadãos à privacidade e proteção de seus dados pessoais, evitando o uso indevido dessas informações pelas empresas. No entanto, para proteger os dados, as empresas precisam também proteger o ambiente tecnológico e físico onde essas informações são armazenadas.

Considerando uma mediana entre 20% e 50%, podemos concluir que apenas cerca de 35% das empresas contam com sistemas para proteção de dados. Nesse aspecto, a segurança da informação mostrou pouca evolução em cinco anos.

A teoria da segurança da informação nas organizações contrasta com a prática. Embora as empresas apresentem um discurso inovador e correto sobre segurança da informação, a realidade não reflete esse discurso. A segurança da informação ainda é afetada pela volatilidade econômica e pelo uso de soluções inadequadas para combater as ameaças atuais.

Os números de ataques a empresas no Brasil continuam crescendo. Um relatório da Check Point Research referente ao primeiro semestre de 2023 revelou um aumento de 8% nas atividades criminosas. A inteligência artificial e a engenharia social estão sendo cada vez mais utilizadas para realizar ataques complexos, como phishing e ransomware.

Além disso, o uso indevido da inteligência artificial está em ascensão, com ferramentas de IA generativa sendo empregadas para criar e-mails de phishing, malwares e códigos de ransomware.

Embora o cenário macroeconômico do Brasil possa contribuir para essa realidade, é fundamental reconhecer que a segurança da informação não é uma prioridade para a maioria das empresas, como evidenciado pela baixa adesão à LGPD.

Adotar a LGPD vai além de cumprir formalidades, como ter um link para a Política de Privacidade no site. Requer controles de acesso eficazes, visibilidade e proteção de dados físicos e digitais, além do investimento em tecnologias baseadas em inteligência artificial e aprendizado de máquina para combater um cenário de ameaças em constante evolução.

No primeiro semestre de 2023, o Brasil enfrentou cerca de 23 bilhões de tentativas de ataques. É fundamental que, nos próximos cinco anos, haja um aumento significativo no número de empresas que adotaram a regulamentação, em paralelo à redução dos ataques cibernéticos.