Publicado em Deixe um comentário

TECNOLOGIA INCLUSIVA E ÉTICA: COMO EMPRESAS PODEM GARANTIR TRANSPARÊNCIA, INCLUSÃO E CONFORMIDADE

No universo dinâmico da tecnologia, as inovações avançam rapidamente, e os profissionais de direito trabalham continuamente para acompanhar esse ritmo. As equipes jurídicas nas grandes plataformas digitais têm expandido suas responsabilidades: além das funções tradicionais de compliance, estão cada vez mais envolvidas com políticas para desenvolvedores, moderação de conteúdo, acessibilidade e iniciativas de impacto social. Esse movimento busca equilibrar inovação com responsabilidade, um desafio especialmente crítico com o crescimento da inteligência artificial (IA).

Desde o lançamento de assistentes de IA em 2021, o setor de desenvolvimento de software vive uma transformação acelerada que trouxe à tona questões legais complexas. No campo dos direitos autorais, por exemplo, a IA representa uma ferramenta poderosa, mas levanta desafios únicos. Enquanto produtos criados inteiramente por IA enfrentam questões de proteção autoral, obras que combinam IA com direção humana continuam a ser reconhecidas e protegidas pelo direito.

A regulamentação da IA, sobretudo no que tange à propriedade intelectual e à responsabilidade sobre dados, é um tema que exige acompanhamento constante. Na Europa, por exemplo, iniciativas como o AI Act buscam garantir que o peso regulatório recaia sobre produtos comerciais e não sobre o código aberto, permitindo que este último siga como um motor de inovação sem ser sufocado por normas incompatíveis com sua natureza colaborativa.

Em relação à adoção da IA de forma ética e transparente, há uma recomendação clara para líderes empresariais: priorizar a transparência ao escolher parceiros tecnológicos. A transparência em práticas de IA, privacidade e segurança de dados é um sinal de responsabilidade que CIOs e CEOs devem buscar em seus fornecedores. Além disso, questionar sobre práticas de conformidade regulatória e responsabilidade em IA ajuda as empresas a estarem alinhadas com as exigências legais e éticas emergentes.

Um outro aspecto que exige atenção é a mitigação de vieses e erros, as chamadas “alucinações” de IA – respostas incorretas que podem prejudicar a qualidade do desenvolvimento de software. A formação de equipes diversas tem se mostrado um caminho para minimizar esses riscos, pois a diversidade traz múltiplas perspectivas que reduzem vieses. Em ambientes digitais, é essencial que se mantenham boas práticas tradicionais de desenvolvimento, agora incorporadas ao uso da IA, o que implica um controle rigoroso de qualidade e segurança.

Com o avanço das tecnologias de IA, países como o Brasil têm uma grande oportunidade: investir na capacitação de sua força de trabalho para que o desenvolvimento econômico acompanhe a transformação digital. Nesse cenário, a acessibilidade é um aspecto essencial. Para ampliar o alcance das ferramentas digitais, garantir que elas sejam inclusivas é crucial – especialmente para pessoas com deficiência. Ferramentas acessíveis ajudam a construir um futuro no qual todos podem contribuir, independentemente de limitações físicas.

Assim, ao adotar soluções tecnológicas, as empresas devem assegurar que seus fornecedores sigam boas práticas de acessibilidade. Esse cuidado é um pilar para que a tecnologia seja realmente um instrumento de empoderamento, eliminando barreiras ao invés de criá-las e promovendo um ambiente onde a inclusão seja garantida para todos.

Publicado em Deixe um comentário

RECONHECIMENTO FACIAL: COMBATE ÀS FRAUDES E A NECESSIDADE DE SOLUÇÕES MAIS SEGURAS

O reconhecimento facial, uma tecnologia amplamente utilizada para autenticação em diversos setores, está sob crescente ameaça devido ao aumento das fraudes por técnicas de spoofing. Criminosos têm demonstrado habilidades cada vez mais sofisticadas para enganar sistemas que, até recentemente, eram considerados altamente seguros. Estima-se que o mercado global de reconhecimento facial atinja US$ 13,87 bilhões até 2028, mas o crescimento dessa indústria traz consigo desafios significativos, especialmente no que diz respeito à segurança e confiabilidade dos sistemas.

As fraudes em reconhecimento facial são facilitadas por técnicas avançadas de spoofing, que manipulam sistemas por meio de fotos, vídeos ou até máscaras 3D. A atratividade de usar o próprio rosto como uma senha, embora conveniente, apresenta riscos consideráveis. Isso ocorre porque o rosto é uma característica invariável e, muitas vezes, pública, o que facilita a coleta de dados pelos fraudadores. A segurança dos sistemas de reconhecimento facial depende, portanto, tanto da robustez do dispositivo utilizado quanto da qualidade do algoritmo implementado.

Nesse contexto, a cibersegurança se torna um tema central. Com os crimes cibernéticos projetados para custar ao mundo cerca de US$ 10,5 trilhões por ano até 2025, a necessidade de identificar e mitigar fraudes em sistemas de reconhecimento facial é mais urgente do que nunca. As soluções para combater essas fraudes incluem treinamentos contínuos dos modelos de IA e investimentos em produtos de biometria de alta qualidade. No entanto, a pressa em lançar novos produtos pode levar a falhas, resultando em sistemas que não são suficientemente testados ou que possuem vieses prejudiciais.

Pesquisas, como a realizada pelo MIT em 2020, destacam a importância de um desenvolvimento cuidadoso e inclusivo desses sistemas. A pesquisa mostrou que sistemas de reconhecimento facial apresentavam taxas de erro significativamente mais altas ao identificar pessoas de diferentes etnias, com uma discrepância alarmante: taxas de erro de até 35% para mulheres de pele escura, em comparação com menos de 1% para homens de pele clara. Isso evidencia a necessidade de mais pesquisas e investimentos em soluções robustas para garantir a proteção de dados e a integridade dos sistemas.

Em um ambiente digital cada vez mais interconectado, a segurança de dados e a confiança nas tecnologias emergentes são prioridades que exigem atenção contínua. A evolução dos métodos de autenticação e a melhoria dos algoritmos são essenciais para enfrentar os desafios impostos pelas fraudes e garantir a segurança dos usuários.

Publicado em Deixe um comentário

A ASCENSÃO DA IA GENERATIVA: DESAFIOS E OPORTUNIDADES NA ERA DIGITAL

A Revolução da Inteligência Artificial

A Inteligência Artificial (IA) é, sem dúvida, o termo que mais ressoa atualmente, marcando presença nas discussões cotidianas e transformando operações empresariais. Longe de ser uma moda passageira, a IA está aqui para ficar, e uma de suas vertentes mais discutidas é a Inteligência Artificial Generativa (IAG). Essa tecnologia, que já impacta profundamente diversos setores, merece uma análise criteriosa sobre seus benefícios, desafios e implicações para o futuro.

O Que é Inteligência Artificial Generativa?

A IAG é uma forma avançada de IA capaz de criar novos conteúdos, como textos, imagens e músicas, a partir de um vasto conjunto de dados em que foi treinada. A popularização dessa tecnologia se deu, em grande parte, por sua aproximação com o uso cotidiano, tornando-se mais acessível e intuitiva para o público em geral. Ao interagir com essas IAs por meio de comandos específicos, conhecidos como prompts, os usuários conseguem gerar respostas e conteúdos personalizados, revolucionando a forma como criamos e consumimos informações.

O Papel Essencial do Humano na Jornada da IAG

Embora a IAG esteja ganhando destaque, é crucial lembrar que o elemento humano continua sendo indispensável nessa jornada. Cabe a nós garantir que essa ferramenta poderosa seja utilizada de maneira ética e responsável. A tecnologia, por si só, é neutra; são as decisões humanas que determinarão se seu impacto será positivo ou negativo. Assim, é fundamental que a sociedade se mobilize para proteger-se contra o uso indevido da IAG, ao mesmo tempo em que se aproveita de suas incríveis potencialidades.

Aplicações Cotidianas da IAG: Inovação ao Alcance de Todos

No cotidiano, a IAG já se faz presente de maneiras surpreendentes. Desde a criação de conteúdo criativo, como poemas e histórias, até a tradução de idiomas e a geração de textos com correção gramatical, essas ferramentas estão facilitando a vida de milhões de pessoas. Exemplos notáveis incluem o modelo GPT-3 da OpenAI, que consegue criar textos de alta qualidade, e o Google Translate, que permite a comunicação entre diferentes línguas de forma mais fluida.

IAG no Marketing e Educação: Personalização e Engajamento

O marketing é outro campo onde a IAG está se destacando, oferecendo experiências personalizadas aos usuários com base em seus padrões de navegação e preferências. Isso não só aumenta a relevância do conteúdo, mas também melhora o engajamento dos consumidores. Na educação, a IAG está revolucionando a aprendizagem ao oferecer experiências adaptativas e personalizadas, além de gamificação e tutores virtuais, tornando o processo de ensino mais interativo e eficaz.

Arte, Música e Propriedade Intelectual na Era da IAG

A criação artística também foi transformada pela IAG. Com o uso de tecnologias como Redes Neurais Generativas Adversariais (GANs) e Redes Neurais Autoencoder Variacional (VAEs), artistas e músicos têm explorado novas fronteiras criativas. No entanto, essa inovação traz à tona questões complexas sobre propriedade intelectual e autoria. Quando uma obra é gerada por uma IA, quem deve ser considerado o autor? Esse debate é ainda mais pertinente quando analisamos casos como o uso de imagens de artistas falecidos em campanhas publicitárias, como ocorreu com Elis Regina na propaganda da Volkswagen no Brasil.

O Futuro da IAG: Desafios e Oportunidades

À medida que a IAG continua a evoluir, suas aplicações se expandirão para praticamente todos os aspectos da vida humana. No entanto, com essa expansão, surge a necessidade de desenvolver políticas e regulamentações que garantam o uso ético e seguro dessa tecnologia. Questões como privacidade de dados, segurança, equidade e responsabilidade devem ser tratadas com seriedade para evitar que a IAG amplie desigualdades ou viole direitos fundamentais.

O futuro com IAG é promissor, mas depende de nossa capacidade de moldá-lo de forma que respeite os valores humanos e promova o bem-estar coletivo. É nosso dever, como sociedade, assegurar que a inovação tecnológica continue a servir como uma força para o bem, beneficiando a todos e construindo um futuro mais justo e inclusivo.

Publicado em Deixe um comentário

INCIDENTE DE SEGURANÇA COM CHAVES PIX AFETA COOPERATIVAS FILIADAS À UNICRED

O Banco Central (BC) anunciou em 29 de julho um incidente de segurança envolvendo dados pessoais associados às chaves Pix de três cooperativas filiadas à Unicred do Brasil. A falha ocorreu devido a problemas pontuais nos sistemas da instituição.

Em comunicado ao InfoMoney, a Unicred confirmou o incidente, que ocorreu entre os dias 6 e 7 de julho. A cooperativa destacou que não houve comprometimento de dados sensíveis, classificando o vazamento como um “incidente malicioso de segurança”.

Segundo o BC, não foram expostos dados sensíveis, como senhas, informações de transações financeiras, saldos de contas ou quaisquer outras informações protegidas por sigilo bancário. As informações obtidas são de natureza cadastral e não permitem movimentação de recursos, nem acesso às contas ou a outras informações financeiras.

A Unicred informou que implementou medidas adequadas de contenção imediatamente após a detecção do incidente. As contas potencialmente afetadas foram bloqueadas para investigação interna, com dados de login e senha resetados. Os titulares das contas foram notificados sobre a situação.

O BC assegurou que as pessoas afetadas serão informadas exclusivamente através do aplicativo ou internet banking de sua instituição financeira. A instituição alertou que nem o BC nem as instituições participantes utilizarão outros meios de comunicação, como aplicativos de mensagens, chamadas telefônicas, SMS ou e-mail, para evitar possíveis golpes.

O Banco Central está conduzindo uma investigação detalhada do caso e informou que aplicará medidas sancionatórias conforme a regulamentação vigente.

A Unicred lamentou qualquer inconveniente causado pelo incidente e reafirmou seu compromisso com a segurança e privacidade dos dados dos seus clientes.

Publicado em Deixe um comentário

WHATSAPP E ANPD SÃO ALVOS DE AÇÃO CIVIL PÚBLICA POR MPF E IDEC

Quatro anos após sua criação, a Autoridade Nacional de Proteção de Dados (ANPD) enfrenta um desafio inédito: a sua capacidade de cumprir seu papel institucional está sendo questionada judicialmente. O Ministério Público Federal (MPF) e o Instituto Brasileiro de Defesa do Consumidor (Idec) ajuizaram uma ação civil pública na 2ª Vara Cível Federal de São Paulo, alegando que a ANPD favoreceu uma empresa em detrimento do enforcement regulatório.

Na ação, o MPF e o Idec apontam diversas falhas na política de privacidade do WhatsApp, vigente de 2021 até junho deste ano, e destacam que os termos dessa política configuram violações aos direitos fundamentais dos cidadãos brasileiros, especialmente o direito à informação e ao consentimento informado.

Política de privacidade controversa

O principal argumento é que a política de privacidade do WhatsApp não fornecia informações claras e precisas sobre o tratamento dos dados pessoais dos usuários, violando o direito à informação previsto na Lei Geral de Proteção de Dados (LGPD). Embora a empresa alegue que as conversas são protegidas por criptografia de ponta a ponta, o WhatsApp coleta diversos metadados que revelam informações substanciais sobre o comportamento dos usuários, como localização habitual e preferências pessoais. Essa coleta massiva de metadados configura uma invasão significativa de privacidade, não devidamente esclarecida aos usuários.

Além disso, o MPF e o Idec argumentam que o consentimento obtido dos usuários é viciado, pois a complexidade e a falta de clareza das informações impedem a compreensão plena dos termos. Isso viola os princípios de transparência e consentimento da LGPD. A política é ainda acusada de permitir tratamentos desnecessários de dados pessoais e de aplicar práticas comerciais abusivas, especialmente em comparação com os usuários europeus. Esses problemas configuram uma violação abrangente e sistemática dos direitos dos usuários brasileiros, exigindo uma resposta judicial rigorosa.

Atuação da ANPD sob escrutínio

A ação também critica a atuação da ANPD, acusando a autarquia de falhar na fiscalização do WhatsApp e de adotar uma postura omissa e avessa à accountability pública. Segundo o processo, durante a apuração conduzida pelo MPF e pelo Idec, a ANPD teria negado reiteradas vezes acesso a processos administrativos, sob o argumento de segredos comerciais e industriais. Esta postura de sigilo, paradoxalmente, ocorre em uma investigação sobre a falta de transparência de um dos maiores agentes de tratamento de dados do país.

A ação civil pública busca dois objetivos principais: que o WhatsApp repare os danos causados a seus milhões de usuários no Brasil, suspendendo imediatamente os tratamentos excessivos de dados pessoais, e que a ANPD entregue todos os documentos produzidos durante a apuração sobre a política de privacidade do WhatsApp, justificando cada sigilo atribuído, além de elaborar uma normativa para garantir máxima publicidade às suas futuras investigações.

Este caso marca um momento importante na defesa dos direitos de proteção de dados no Brasil, buscando não apenas reparar danos causados pela política de privacidade do WhatsApp, mas também reforçar a importância de uma fiscalização transparente e responsável pela ANPD. A autarquia e seus diretores, pela primeira vez, enfrentam a responsabilidade judicial por suas ações.

Publicado em Deixe um comentário

RELATÓRIO DA UNIÃO EUROPEIA QUESTIONA A PRECISÃO DOS DADOS DO CHATGPT

A equipe de defesa da privacidade da União Europeia (UE) avaliou que os esforços da OpenAI para reduzir o número de informações falsas geradas pelo ChatGPT ainda não são suficientes para cumprir as rigorosas políticas de dados da UE.

Conforme detalhado em um relatório publicado no site da equipe, as medidas adotadas para aumentar a transparência, apesar de úteis para evitar interpretações errôneas dos resultados do ChatGPT, ainda não atendem plenamente ao critério de precisão de dados exigido pela legislação europeia.

No ano passado, conforme noticiado pela Reuters, autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões específicas relacionadas ao ChatGPT. Essa ação foi motivada por preocupações levantadas por reguladores nacionais sobre o uso crescente deste serviço de inteligência artificial.

O relatório aponta que algumas investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membros ainda estão em andamento. Portanto, os resultados apresentados devem ser entendidos como observações preliminares comuns a essas autoridades. A exatidão dos dados é uma das principais diretrizes da regulamentação de proteção de dados da UE.

“Devido à natureza probabilística do sistema, a metodologia atual de treinamento pode gerar informações tendenciosas ou fictícias,” destaca o relatório. “Além disso, os usuários finais podem interpretar os resultados gerados pelo ChatGPT como fatos precisos, especialmente quando se referem a dados sobre indivíduos, sem verificar a veracidade dessas informações.”

Esse levantamento sublinha a importância de medidas adicionais para garantir que as saídas do ChatGPT não apenas evitem erros interpretativos, mas também cumpram os elevados padrões de precisão de dados exigidos pela UE.

Publicado em Deixe um comentário

INSS REFORÇA POLÍTICAS DE ACESSO PARA PROTEGER DADOS DE BENEFICIÁRIOS

Recentemente, foi identificada uma vulnerabilidade nos sistemas do Instituto Nacional do Seguro Social (INSS), comprometendo a segurança dos dados de milhões de brasileiros. A falha, presente no Sistema Único de Informações de Benefícios (Suibe), permitiu o acesso indevido a informações cadastrais, gerando preocupações entre beneficiários e especialistas em segurança digital.

Detalhes da Exposição de Dados

A falha foi associada à distribuição de senhas para usuários externos sem a devida supervisão ou restrições após o término de suas funções. Historicamente, acessos não eram bloqueados após o desligamento de colaboradores, permitindo que ex-funcionários ou pessoas não autorizadas acessassem o sistema.

Medidas Corretivas Implementadas

Para corrigir essa vulnerabilidade, o INSS realizou mudanças nas políticas de acesso ao Suibe. Agora, o acesso ao sistema requer não apenas uma senha, mas também um certificado digital e criptografia, elevando o nível de segurança.

Ações de Reforço na Segurança

Além de novos métodos de autenticação, a infraestrutura de segurança do Suibe foi revisada e atualizada. O INSS intensificou o monitoramento e a auditoria dos acessos ao sistema para assegurar que eventuais tentativas de violação sejam prontamente identificadas e contidas. Medidas adicionais incluem:

  • Implementação de criptografia para proteger os dados transmitidos.
  • Consideração da autenticação de dois fatores para futuras adições.
  • Revisões periódicas das permissões de acesso para garantir que apenas usuários autorizados tenham acesso ao sistema.

Impacto das Medidas Adotadas

O INSS ainda está investigando se houve extração de dados através do Suibe. No entanto, já foi observada uma diminuição nas reclamações relacionadas a empréstimos consignados não autorizados, indicando que as medidas adotadas estão sendo eficazes na proteção dos dados dos beneficiários.

Compromisso com a Segurança

Este incidente ressalta a importância de vigilância contínua e atualização dos sistemas de segurança, especialmente em instituições que gerenciam grandes volumes de dados pessoais. O INSS reitera seu compromisso com a privacidade e segurança das informações de todos os seus beneficiários, implementando medidas robustas para proteger os dados sensíveis.

Publicado em Deixe um comentário

FIM DOS COOKIES: COMO EMPRESAS BRASILEIRAS PODEM SE BENEFICIAR DA MUDANÇA

Com o adiamento da descontinuação dos cookies de terceiros pelo Google para 2025, a transição para uma publicidade digital mais orientada à privacidade permanece em foco. Esses cookies, que têm sido a base da personalização de anúncios, estão sendo gradualmente eliminados, desafiando os profissionais de marketing a encontrar novas formas de acessar dados detalhados dos usuários.

É importante enfatizar que as empresas brasileiras devem aproveitar esse tempo adicional para otimizar o uso de dados primários e se preparar para um ambiente publicitário sem cookies.

A tendência do mercado brasileiro de adotar uma abordagem de “último minuto” pode, paradoxalmente, ser uma vantagem neste contexto.

O prazo estendido também possibilita mais testes dentro do Privacy Sandbox, uma iniciativa do Google que visa estabelecer novos padrões para a publicidade personalizada. Além disso, permite que os anunciantes se preparem para outras estratégias, como a utilização de dados primários para addressability.

Uma dúvida recorrente entre os profissionais de marketing é sobre a eficácia do Privacy Sandbox. Os resultados não devem ser o único foco. É necessário que mais anunciantes testem o Privacy Sandbox para alcançar a significância estatística necessária para avaliar se as APIs são alternativas viáveis aos cookies de terceiros. Apesar dos desafios, o futuro sem cookies traz consigo enormes oportunidades.

Para navegar nesse novo cenário, é fundamental explorar abordagens alternativas, como e-mails criptografados (hashed e-mails), Retail Media e redes sociais. Preparar-se meticulosamente para o futuro sem cookies permitirá uma estratégia de addressability dinâmica e multifacetada.

Publicado em Deixe um comentário

META UTILIZA DADOS DE USUÁRIOS PARA TREINAR IA, EXCETO NA UNIÃO EUROPEIA

Recentemente, foi revelado que a Meta está utilizando informações de perfis de usuários do Instagram e Facebook para aprimorar seus modelos de Inteligência Artificial (IA). Essa coleta abrange postagens e comentários, que são integrados aos sistemas de IA generativa da empresa. No entanto, contas localizadas na União Europeia estão isentas desse processo devido às rigorosas legislações de privacidade.

Dada a regulamentação de proteção de dados no Reino Unido e na União Europeia, a Meta é obrigada a informar os usuários sobre a coleta e uso de seus dados. Para isso, está enviando e-mails detalhados aos usuários do Instagram e Facebook, esclarecendo as mudanças na Política de Privacidade.

Conforme comunicado pelo portal 9to5Mac, esses e-mails destacam a ampliação das iniciativas de IA da empresa e afirmam que a Meta usará a base legal dos “interesses legítimos” para o uso dos dados dos usuários.

Modelo de e-mail enviado pela Meta:

Atualização da Política de Privacidade com Expansão da IA na Meta

Olá, ,

Estamos nos preparando para expandir nossas experiências de IA na Meta para sua região. A IA na Meta é nossa coleção de recursos e experiências generativas de IA, incluindo Meta AI e ferramentas criativas de IA, juntamente com os modelos que os alimentam.

O que isso significa para você

Para oferecer essas experiências, utilizaremos a base legal dos interesses legítimos para usar suas informações no desenvolvimento e melhoria da IA na Meta. Você tem o direito de se opor a essa utilização. Caso opte pela objeção, ela será aplicada daqui em diante.

Atualizamos nossa Política de Privacidade para refletir essas mudanças. As atualizações entram em vigor em 26 de junho de 2024.

Obrigado, equipe Meta Privacy”

A nova versão da Política de Privacidade, que entrará em vigor no dia 26 de junho, concede aos usuários o direito de recusar o uso de seus dados para o treinamento de IA. O e-mail esclarece que, caso a objeção seja validada, as informações da conta deixarão de ser usadas para esse propósito. No entanto, a aprovação não é garantida, e os usuários devem justificar sua objeção.

O Regulamento Geral de Proteção de Dados (GDPR) da União Europeia proporciona proteções robustas contra o uso impróprio de dados pessoais, permitindo aos usuários solicitar a remoção de suas informações e obter uma cópia dos dados utilizados. A Meta utiliza a base legal dos “interesses legítimos” para processar dados, uma prática que, apesar de autorizada para objetivos empresariais, enfrenta críticas devido à sua interpretação ampla.

Embora a Meta esteja sob críticas, a empresa afirma que processa automaticamente as solicitações de desativação. Usuários relataram nas redes sociais que, após enviarem a recusa, receberam um e-mail confirmando que seu pedido foi aceito e será cumprido.

Publicado em Deixe um comentário

REGULAMENTAÇÃO DA IA: LIÇÕES DA UNIÃO EUROPEIA E PERSPECTIVAS PARA O BRASIL

Em 10 de abril de 2018, vinte e quatro Estados-Membros da União Europeia assinaram um termo de cooperação durante o evento “Digital Day 2018” para tratar da inteligência artificial (IA). Em 25 de abril do mesmo ano, a Comissão Europeia emitiu uma comunicação sobre IA, sugerindo o avanço da capacidade tecnológica e industrial da União Europeia em prol da IA, a preparação para mudanças socioeconômicas decorrentes dessa tecnologia e a criação de um marco regulatório eficaz, baseado em valores democráticos e na proteção dos direitos fundamentais, para garantir o desenvolvimento ético da IA.

A Comissão Europeia solicitou que os Estados-Membros coordenassem planos estratégicos nacionais para a implementação da IA até o final de 2018. Na ocasião, foi criado o Grupo de Peritos de Alto Nível em Inteligência Artificial (AI HLEG), composto por pesquisadores, acadêmicos, representantes da indústria e da sociedade civil. Paralelamente, foi estabelecida a “Aliança Europeia para a IA” para fomentar a participação democrática, incluindo audiências públicas sobre diversos temas relacionados à IA.

Em 18 de dezembro de 2018, o AI HLEG submeteu à consulta pública o primeiro esboço das “Diretrizes Éticas para a Fiabilidade da Inteligência Artificial”. Após debates intensos, a versão final foi apresentada em 8 de abril de 2019, intitulada “Ethics Guidelines for Trustworthy AI”. Este documento delineou quatro princípios éticos fundamentais:

  1. Respeito à autodeterminação humana: A IA deve respeitar os direitos e garantias fundamentais, bem como a democracia.
  2. Prevenção de danos: Devem ser adotadas medidas robustas para evitar danos aos seres humanos.
  3. Justiça: Garantir uma distribuição equitativa dos benefícios e custos, eliminando qualquer tipo de preconceito.
  4. Transparência e clareza: Os sistemas de IA devem ser compreensíveis para os operadores humanos.

Além dos princípios, foram apresentados requisitos para a fiabilidade da IA, abrangendo supervisão humana, robustez técnica, privacidade e proteção de dados, transparência, diversidade, bem-estar social e ambiental, e prestação de contas.

Em 7 de dezembro de 2018, a União Europeia estabeleceu um plano coordenado de medidas para a implementação da IA, incentivando os Estados-Membros a elaborarem planos nacionais até meados de 2019. Posteriormente, em 19 de fevereiro de 2020, a Comissão Europeia lançou o relatório “White Paper on Artificial Intelligence: an European approach to excellence and trust”, reforçando as diretrizes éticas e destacando a necessidade de regulação da responsabilidade civil por danos causados por produtos e serviços de IA. Sugeriu-se a revisão da “Product Liability Directive” de 1985, para abordar as complexidades da IA, como a dificuldade de provar defeitos de programação em tecnologias como carros autônomos.

Na mesma data, a Comissão Europeia aprovou o plano estratégico para os dados, prevendo um aumento significativo no volume de dados na era do Big Data. Este plano destacou a cooperação internacional necessária para a aplicação de medidas regulatórias devido à circulação transfronteiriça de dados.

Nos Estados Unidos, o “Future of AI Act” de 2017 propôs diretrizes éticas para o desenvolvimento de IA, sem abordar diretamente a área da saúde. Documentos recentes, como o “Artificial Intelligence Act” europeu e o “Algorithmic Accountability Act” norte-americano, evitam discutir a terminologia de “inteligência”, preferindo referir-se a “sistemas decisionais automatizados” e reafirmando a importância de parâmetros éticos para o desenvolvimento de algoritmos.

No Brasil, várias iniciativas legislativas buscaram regulamentar a IA, mas com propostas inicialmente superficiais. Em fevereiro de 2022, foi instituída uma comissão de juristas para elaborar um substitutivo sobre IA, resultando no Projeto de Lei nº 2.338/2023. Este projeto, inspirado na abordagem europeia, estratifica soluções conforme o grau de risco de cada atividade de IA.

Desde sua apresentação, o projeto recebeu diversas emendas parlamentares e está sendo analisado pela Comissão Temporária Interna sobre Inteligência Artificial no Brasil, um fórum multissetorial que garante regulamentações abrangentes e eficazes, equilibrando inovação tecnológica e proteção de direitos fundamentais. A versão mais recente, proposta em abril de 2024, reflete uma preocupação com a parametrização ética, alinhando-se aos princípios europeus.

A aprovação do Regulamento Geral Europeu sobre IA representa um marco significativo, baseado em princípios éticos que contribuem para o debate sobre responsabilidade civil. Este esforço europeu, resultado de anos de discussões, serve de exemplo inspirador para outras nações, incluindo o Brasil, onde os trabalhos legislativos sobre IA continuam em andamento, merecendo atenção e acompanhamento cuidadoso.

Publicado em Deixe um comentário

PROTEJA-SE CONTRA GOLPES DIGITAIS: ESTRATÉGIAS PARA UM AMBIENTE ONLINE SEGURO

Em um cenário de avanços tecnológicos constantes, as formas de se tornar vítima de golpes digitais também se diversificam, exigindo atenção redobrada para evitar esses crimes. No último ano, os brasileiros sofreram perdas significativas, estimadas em R$ 1,1 bilhão, de acordo com um estudo recente. Um método eficaz para aumentar a conscientização e a proteção é compartilhar informações sobre como evitar ser alvo de fraudes digitais. A educação digital é um dos principais objetivos da Semana Mundial da Internet Segura, celebrada anualmente em fevereiro.

A prevenção é essencial para um ambiente online mais seguro. Além das soluções tecnológicas, é crucial educar digitalmente a população. Os golpistas geralmente criam histórias convincentes para ganhar a confiança de suas vítimas sem revelar suas intenções maliciosas.

Os fraudadores operam principalmente através da engenharia social, conquistando a confiança das vítimas para obter dados e valores, frequentemente solicitando a migração para plataformas menos seguras. Educar a população sobre o funcionamento do ambiente online e sobre como se proteger contra golpes é o primeiro passo para reduzir essas fraudes.

Em 2023, os golpes mais comuns incluíram falso pagamento (30,5%), invasão de conta (25,6%) e coleta de dados (17,8%). Os casos de falso pagamento e invasão de conta aumentaram 19% e 51%, respectivamente, em comparação a 2022.

Para prevenir golpes de falso pagamento, é essencial entregar o produto apenas após a confirmação do depósito em sua conta bancária ou carteira digital. Mantenha as negociações pelos chats das plataformas e evite usar aplicativos de mensagens. Para evitar invasões de conta, não repita senhas em diferentes sites e utilize senhas fortes, com uma combinação de letras, números e caracteres especiais. Troque as senhas periodicamente e fique atento aos alertas de tentativas de login suspeitas.

Proteja seus dados pessoais, como números de documentos, evitando compartilhá-los com terceiros. Desconfie de links enviados para preenchimento de vagas de emprego que não estejam em páginas oficiais. Sempre mantenha as conversas pelas plataformas seguras, que possuem ferramentas para promover a privacidade dos dados. Assim como você não daria acesso aos seus documentos a qualquer pessoa no mundo físico, adote a mesma cautela no mundo virtual.

Publicado em Deixe um comentário

LIMINARES PROTEGEM PRIVACIDADE DE DADOS TRABALHISTAS EM DROGARIAS

Recentemente, duas grandes redes de drogarias obtiveram decisões judiciais que as eximem de fornecer ao governo informações trabalhistas e salariais dos funcionários para o Portal Emprega Brasil. Elas também não precisarão publicar o relatório de transparência salarial elaborado pelo Ministério do Trabalho e Emprego (MTE) em seus sites e redes sociais. Essas exigências, estabelecidas pela nova lei de igualdade salarial, foram questionadas pelas empresas, que obtiveram liminares favoráveis em tribunais federais do Rio de Janeiro e São Paulo.

A Lei 14.611/23, sancionada em julho do ano passado, visa promover a igualdade salarial e de critérios remuneratórios entre homens e mulheres, além de garantir a transparência na remuneração de profissionais em cargos equivalentes. Posteriormente, o Decreto 11.795/23 e a Portaria MTE 3.714/23 regulamentaram a forma como essa transparência deve ser implementada. De acordo com a legislação, empresas com 100 ou mais empregados devem, semestralmente, confirmar os dados informados pelo eSocial sobre salários e ocupações, fornecendo informações adicionais pelo Portal Emprega Brasil. Essas informações são usadas pelo MTE para elaborar um relatório sobre disparidades de gênero, que deve ser publicado pelas empresas em seus sites e redes sociais.

Contudo, as redes de drogarias argumentaram que tais exigências criam novas obrigações não previstas pela lei original, violando princípios constitucionais como o direito à privacidade, intimidade e livre concorrência. As juízas que concederam as liminares concordaram com esses argumentos. Em sua decisão, a juíza da 26ª Vara Federal do Rio de Janeiro ressaltou que a fiscalização da igualdade salarial poderia ser realizada através de bancos de dados mais precisos e sigilosos, como o eSocial, FGTS e CNIS, sem a necessidade de publicização de dados sensíveis em redes sociais e sites empresariais.

A decisão também apontou que a exigência de publicação de dados poderia contradizer a garantia de anonimato e sigilo prevista na Lei Geral de Proteção de Dados (LGPD). A juíza da 26ª Vara Cível Federal de São Paulo, ao deferir a tutela antecipada, destacou que a portaria do MTE extrapolou os limites estabelecidos pela lei, impondo obrigações adicionais que não possuem respaldo legal.

Essas decisões abriram precedentes para que outras empresas busquem apoio jurídico contra o envio dessas informações e a subsequente publicação dos relatórios. Argumenta-se que a exposição das políticas salariais e remunerações pode impactar negativamente a livre concorrência, a liberdade econômica e o direito à imagem das empresas, além de comprometer a privacidade dos trabalhadores.

Embora a importância da isonomia salarial entre homens e mulheres não esteja em debate, as inconstitucionalidades e ilegalidades identificadas no Decreto 11.795/23 e na Portaria MTE 3.714/23 levantam preocupações legítimas. A maneira como o MTE pretende utilizar e publicizar os dados das empresas pode gerar relatórios que não refletem com precisão a realidade remuneratória, potencialmente prejudicando a imagem e a competitividade das companhias envolvidas.

Portanto, é importante que a implementação de medidas de transparência salarial seja equilibrada com a proteção dos direitos à privacidade e à livre concorrência, garantindo que as empresas não sejam penalizadas indevidamente por práticas que, na verdade, podem estar em total conformidade com a lei e a Constituição.