Publicado em Deixe um comentário

UNIÃO EUROPEIA IMPÕE UMA ALTA MULTA AO LINKEDIN POR INFRAÇÕES AO GDPR

O LinkedIn foi recentemente condenado a pagar uma multa significativa de 310 milhões de euros (aproximadamente R$ 1,9 bilhão) por violação à legislação de privacidade e proteção de dados da União Europeia. A decisão foi tomada após uma investigação iniciada em 2018 pela Comissão Irlandesa de Proteção de Dados (IDPC), que analisou como a plataforma de rede social processava os dados pessoais de seus usuários.

A denúncia inicial, feita por uma organização francesa de direitos digitais, apontava irregularidades na forma como o LinkedIn solicitava o consentimento dos usuários. Especificamente, as autoridades irlandesas concluíram que a plataforma não informava adequadamente os usuários ao coletar dados de terceiros para fins de análise comportamental e publicidade direcionada, o que configuraria violação ao Regulamento Geral de Proteção de Dados (GDPR).

Além da penalidade financeira, a empresa recebeu um prazo de três meses para ajustar suas práticas aos padrões exigidos pela regulamentação europeia. Em resposta, um representante do LinkedIn afirmou que a empresa não considera que suas práticas violavam o GDPR, mas que está empenhada em aprimorar seus métodos de publicidade e realizar as mudanças solicitadas dentro do prazo estipulado pela IDPC.

Esse caso serve como um importante lembrete da rigidez da legislação europeia de proteção de dados e da crescente vigilância sobre as práticas de coleta e processamento de dados das grandes plataformas digitais.

Publicado em Deixe um comentário

A SUPREMA ARTE DE RELATIVIZAR DIREITOS FUNDAMENTAIS

A recente decisão do Supremo Tribunal Federal (STF), que julgou constitucional o acesso a dados cadastrais por parte de autoridades policiais e do Ministério Público sem a necessidade de autorização judicial, marca um ponto crítico na fragilização das garantias constitucionais de privacidade e proteção de dados pessoais. Com esse entendimento, o STF não só relativiza direitos fundamentais, como também negligência os precedentes que a própria Corte havia estabelecido em julgamentos anteriores. Sob a justificativa de combater crimes como a lavagem de dinheiro, a Corte colocou em risco uma das maiores conquistas da Constituição de 1988: a proteção da intimidade e dos dados pessoais como direitos inalienáveis.

O Contexto da ADI 4906 e o Perigo do Acesso Indiscriminado

A Ação Direta de Inconstitucionalidade (ADI) 4906 foi protocolada em 01 de fevereiro de 2013 pela Associação Brasileira de Concessionárias de Serviço Telefônico Fixo Comutado (ABRAFIX), que questionava a constitucionalidade do art. 17-B da Lei nº 9.613/1998. Esse dispositivo permite que autoridades policiais e o Ministério Público requisitem, sem necessidade de ordem judicial, dados cadastrais básicos (qualificação pessoal, filiação e endereço) de pessoas investigadas por crimes graves, como a lavagem de dinheiro.

Desde o início, a ação trazia à tona um debate profundo sobre a necessidade de equilibrar os poderes investigativos do Estado e a proteção dos direitos individuais, em especial, a privacidade. Em 03 de fevereiro de 2014, o Supremo admitiu a Associação Nacional dos Delegados de Polícia Federal (ADPF) como amicus curiae, permitindo que ela sustentasse seus argumentos a favor da manutenção da norma que possibilitava o acesso irrestrito aos dados cadastrais.

Contudo, o verdadeiro choque veio com a suspensão do julgamento em 05 de julho de 2023. Com votos de ministros como Gilmar Mendes, Edson Fachin, Dias Toffoli e Rosa Weber, que defendiam a parcial procedência da ação, limitando o acesso aos dados estritamente necessários — qualificação pessoal, filiação e endereço — o julgamento foi suspenso para aguardar o voto do novo ministro. A decisão final, proferida em 11 de setembro de 2024, foi um golpe na proteção dos direitos fundamentais, uma vez que a maioria dos ministros julgou improcedente o pedido da ação e manteve a constitucionalidade do dispositivo, permitindo o acesso aos dados sem supervisão judicial.

Incoerência Constitucional: Uma Contradição com Precedentes Recentes

Um dos pontos mais críticos dessa decisão é a incoerência com precedentes anteriormente firmados pelo próprio STF. Em 2020, a Corte suspendeu a Medida Provisória 954/20, que previa o compartilhamento de dados de usuários de telecomunicações com o IBGE para fins estatísticos durante a pandemia de COVID-19. Na ocasião, a Corte foi rigorosa ao destacar que o compartilhamento de dados sem salvaguardas adequadas violaria os direitos à privacidade e à proteção de dados. O então ministro Alexandre de Moraes foi enfático ao apontar a violação da intimidade e vida privada, estabelecendo que a relativização de direitos fundamentais deve seguir estritos princípios de razoabilidade e proporcionalidade.

Por que, então, o STF seguiu caminho diferente na ADI 4906? É grave subestimar a relevância dos dados cadastrais na era digital. O acesso indiscriminado a informações como nome, endereço e filiação pode ser o ponto de partida para práticas de vigilância estatal indevida, abrindo brechas para abusos e violando garantias constitucionais.

Autodeterminação Informativa: Um Direito Fundamental Ignorado

Desde a decisão de 2020 sobre a MP 954/20, o STF já havia reconhecido o direito à autodeterminação informativa como um direito fundamental autônomo, derivado dos direitos à privacidade e à dignidade humana, conforme o artigo 5º, incisos X e LXXIX da Constituição. Esse direito se traduz na capacidade do indivíduo de controlar suas próprias informações, decidindo como e por quem elas podem ser acessadas. A autodeterminação informativa é um conceito crucial em um mundo cada vez mais digitalizado, onde o controle sobre dados pessoais é sinônimo de liberdade.

Ao permitir o acesso a dados cadastrais sem a devida autorização judicial, o STF enfraquece a autodeterminação informativa, criando uma perigosa exceção à regra constitucional. Dados cadastrais podem parecer superficiais, mas quando cruzados com outras informações, permitem a construção de perfis detalhados e a vigilância contínua de indivíduos, comprometendo a privacidade e, por extensão, a dignidade humana. É inadmissível que o tribunal ignore essa realidade.

A LGPD e o Marco Civil da Internet: Proteções Ignoradas

A Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet estabelecem proteções rigorosas para o tratamento de dados pessoais. A LGPD, em especial, delineia princípios como finalidade, transparência, necessidade e segurança no tratamento de dados, exigindo que o acesso a informações pessoais tenha uma justificativa legal robusta. O acesso indiscriminado a dados cadastrais, sem supervisão judicial, é um flagrante desrespeito aos princípios da LGPD. A lei foi criada exatamente para evitar que o Estado ou entidades privadas usem dados pessoais de maneira arbitrária ou desproporcional.

O Marco Civil da Internet, por sua vez, reforça a proteção dos dados pessoais, limitando o acesso a essas informações sem autorização judicial. Portanto, ao declarar constitucional o acesso aos dados cadastrais sem supervisão, o STF ignorou esses marcos legais que foram instituídos precisamente para proteger a privacidade dos cidadãos.

O Perigo da Relativização dos Direitos Fundamentais

Relativizar direitos fundamentais em nome da segurança pública é um caminho perigoso. O combate à criminalidade não pode ser utilizado como pretexto para a violação da privacidade dos cidadãos. A Constituição Federal, em seu artigo 5º, inciso XII, protege o sigilo de comunicações e de dados pessoais, e essa proteção não pode ser lida de maneira restritiva. O acesso a dados cadastrais, ainda que não envolvam o conteúdo de comunicações, faz parte da proteção à privacidade e deve ser tratado com o mesmo rigor.

Ao permitir o acesso indiscriminado a essas informações, o STF criou uma brecha perigosa que pode ser explorada para abusos no futuro. A vigilância estatal, por mais justificada que possa parecer em situações excepcionais, deve sempre ser supervisionada pelo Judiciário, que funciona como barreira contra a erosão dos direitos individuais. A decisão da Corte, ao permitir o acesso irrestrito, sem controle judicial, mina essa barreira e enfraquece as garantias fundamentais.

Direito Comparado: Lições Ignoradas pela Corte

Em julgamentos anteriores, o STF fez uso de precedentes do direito comparado para sustentar suas decisões. No caso da MP 954/20, o Tribunal de Justiça da União Europeia e o Tribunal Constitucional Alemão foram amplamente citados para reforçar a importância da proteção de dados e da autodeterminação informativa. Por que esses precedentes foram ignorados na ADI 4906? A decisão da União Europeia no caso Digital Rights Ireland e a lei do censo de 1983 na Alemanha estabeleceram a necessidade de limites claros para o acesso a dados pessoais, exatamente para evitar que o Estado se torne uma ferramenta de vigilância.

O Tribunal Constitucional Alemão, ao reconhecer a autonomia do direito à autodeterminação informativa, destacou que o processamento de dados pessoais deve ser restrito para garantir que o Estado não ultrapasse os limites de sua função. Essas lições deveriam ter servido como guia para o STF, mas a Corte, ao contrário, ignorou as advertências do direito comparado, favorecendo uma postura mais permissiva.

Vigilância Estatal: Um Risco Imediato

O perigo de um Estado vigilante está mais presente do que nunca. O art. 12 da Declaração Universal dos Direitos Humanos, que o Brasil ratificou, proíbe ingerências arbitrárias na vida privada dos cidadãos. A partir do momento em que o Estado tem acesso irrestrito a dados cadastrais sem a necessidade de autorização judicial, cria-se o risco de um aparato de vigilância institucionalizado. Essa realidade é exacerbada em um contexto de avanço tecnológico, no qual informações triviais podem ser facilmente agregadas para revelar aspectos profundos da vida de um indivíduo.

A vigilância estatal constante é uma ameaça não apenas à privacidade, mas à própria liberdade. A história nos ensina, através de exemplos trágicos, que o controle estatal de informações pessoais pode ser usado para abusos e perseguições, como ocorreu na Alemanha nazista. A decisão do STF nos coloca em um caminho preocupante, que deve ser revertido antes que as liberdades individuais sejam completamente corroídas.

O Papel do STF: Guardião ou Flexibilizador dos Direitos Fundamentais?

O STF tem uma responsabilidade sagrada como guardião da Constituição. Seu dever é assegurar que os direitos fundamentais dos cidadãos prevaleçam sobre as pressões do Estado, especialmente em tempos de incerteza e crise. No entanto, ao flexibilizar o acesso a dados pessoais sem supervisão judicial, a Corte corre o risco de se transformar em um facilitador de práticas abusivas, que minam a confiança dos cidadãos no Estado e no Judiciário.

A função do Judiciário não é apenas garantir a aplicação da lei, mas também proteger as liberdades individuais contra a intervenção excessiva do Estado. Ao abdicar desse papel fiscalizador, o STF enfraquece o próprio fundamento da democracia.

Conclusão: A Defesa Intransigente da Privacidade

A decisão do STF de permitir o acesso irrestrito a dados cadastrais sem autorização judicial representa um retrocesso na proteção dos direitos fundamentais. A privacidade não pode ser relativizada em nome de conveniências institucionais ou sob o pretexto de facilitar investigações criminais. O direito à autodeterminação informativa, consagrado pela Constituição, deve ser protegido de maneira rigorosa, sem exceções que comprometam a integridade dos direitos dos cidadãos.

O STF, como guardião da Constituição, tem a responsabilidade de reverter essa decisão e garantir que a privacidade e a proteção de dados pessoais sejam tratadas com a Constitucionalidade que merecem. A privacidade é a base da dignidade humana, e sem ela, a liberdade individual é comprometida.

Que a defesa da privacidade e da proteção de dados seja intransigente, pois não há maior patrimônio em uma democracia do que a garantia de que os direitos fundamentais dos cidadãos sejam preservados e respeitados em sua totalidade.

Publicado em Deixe um comentário

DESAFIOS REGULATÓRIOS NA ERA DIGITAL: REFLEXÕES A PARTIR DA DENÚNCIA SOBRE A APLICAÇÃO TEMU

A denúncia recente recebida pela “Iniciativa CpC: Cidadãos pela Cibersegurança” sobre a aplicação móvel TEMU levanta preocupações significativas em relação à proteção de dados, privacidade digital e à eficácia dos mecanismos regulatórios vigentes.

As práticas relatadas no caso chamam a atenção pela possibilidade de uma aplicação móvel acessar, processar e utilizar dados pessoais de maneira que pode ser considerada invasiva, sem que o usuário tenha um conhecimento claro ou tenha dado consentimento explícito. Este tipo de comportamento pode ser interpretado como uma contravenção ao Regulamento Geral sobre a Proteção de Dados (RGPD) e pode comprometer a confiança dos consumidores nas plataformas digitais, que têm o dever de resguardar a segurança e a privacidade dos seus usuários.

A resposta da Comissão Nacional de Proteção de Dados (CNPD) também merece análise. Ao direcionar o reclamante para a própria empresa acusada de violação de privacidade, a CNPD pode estar deixando de cumprir plenamente sua função de defesa dos direitos dos cidadãos. Tal postura sugere a necessidade de uma revisão dos mecanismos de proteção de dados, especialmente em um cenário digital cada vez mais complexo e globalizado.

O caso expõe dois problemas centrais: o primeiro, relacionado às empresas que podem estar se aproveitando de lacunas na regulamentação para explorar dados dos usuários de maneira inadequada; e o segundo, à estrutura regulatória que, por vezes, não oferece a proteção esperada, deixando os cidadãos em uma posição vulnerável frente a empresas que atuam em diversas jurisdições.

Esses desafios apontam para a necessidade de uma revisão das políticas de proteção de dados e de uma cooperação mais efetiva entre os países da União Europeia. A fragmentação das responsabilidades regulatórias, onde cada país é responsável pelas entidades sediadas em seu território, pode resultar em uma aplicação menos eficaz da legislação, principalmente no caso de grandes empresas tecnológicas que operam em múltiplos países.

Além disso, a exigência de que as queixas sejam apresentadas em inglês a uma entidade estrangeira, como a Data Protection Commission (DPC) na Irlanda, pode representar um obstáculo adicional para muitos cidadãos, dificultando o exercício dos seus direitos. Este é um ponto que o Parlamento Europeu deve considerar com seriedade, assegurando que os cidadãos da UE possam exercer seus direitos de maneira acessível e justa, sem serem prejudicados por barreiras linguísticas ou geográficas.

O caso da TEMU sugere que é necessário um maior rigor na análise das permissões e na transparência da coleta de dados em aplicações móveis, além de uma atenção redobrada para possíveis falhas no sistema de proteção de dados da União Europeia. É importante que a CNPD e outras autoridades competentes adotem uma abordagem mais proativa, garantindo que os direitos dos consumidores sejam devidamente protegidos, sem transferir responsabilidades para os próprios consumidores.

Publicado em Deixe um comentário

REGULAMENTO EUROPEU: ESTABELECENDO PADRÕES PARA UMA IA CONFIÁVEL NA UNIÃO EUROPEIA

O Regulamento (UE) 2024/1689 foi implementado com o intuito de uniformizar as normas referentes à inteligência artificial (IA) em toda a União Europeia, promovendo uma IA que prioriza a confiabilidade e o bem-estar humano. Este regulamento visa proteger a saúde, segurança e direitos fundamentais dos cidadãos, ao mesmo tempo em que incentiva a inovação tecnológica.

Sistemas de IA de Alto Risco

Os sistemas de IA considerados de alto risco são aqueles que podem ter um impacto significativo na saúde, segurança ou direitos fundamentais das pessoas. Exemplos destes sistemas incluem IA utilizada em diagnósticos médicos, processos de recrutamento e vigilância pública.

Requisitos para Sistemas de Alto Risco

Para assegurar que esses sistemas operem de maneira segura e ética, o regulamento estabelece critérios rigorosos a serem seguidos:

  • Transparência: Deve ser claramente informado quando estamos interagindo com uma IA.
  • Segurança: Esses sistemas devem passar por avaliações de conformidade e manter registros detalhados.
  • Ética: É imperativo que os usuários saibam que estão interagindo com uma IA e que seus dados sejam tratados com segurança e responsabilidade.

Garantindo Segurança e Confiabilidade

A transparência é um pilar fundamental para garantir que os dados utilizados pelos sistemas de IA sejam seguros e confiáveis. Essa abordagem visa proteger os direitos de todos os cidadãos, promovendo uma IA ética e centrada no ser humano.

Publicado em Deixe um comentário

RELATÓRIO DA UNIÃO EUROPEIA QUESTIONA A PRECISÃO DOS DADOS DO CHATGPT

A equipe de defesa da privacidade da União Europeia (UE) avaliou que os esforços da OpenAI para reduzir o número de informações falsas geradas pelo ChatGPT ainda não são suficientes para cumprir as rigorosas políticas de dados da UE.

Conforme detalhado em um relatório publicado no site da equipe, as medidas adotadas para aumentar a transparência, apesar de úteis para evitar interpretações errôneas dos resultados do ChatGPT, ainda não atendem plenamente ao critério de precisão de dados exigido pela legislação europeia.

No ano passado, conforme noticiado pela Reuters, autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões específicas relacionadas ao ChatGPT. Essa ação foi motivada por preocupações levantadas por reguladores nacionais sobre o uso crescente deste serviço de inteligência artificial.

O relatório aponta que algumas investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membros ainda estão em andamento. Portanto, os resultados apresentados devem ser entendidos como observações preliminares comuns a essas autoridades. A exatidão dos dados é uma das principais diretrizes da regulamentação de proteção de dados da UE.

“Devido à natureza probabilística do sistema, a metodologia atual de treinamento pode gerar informações tendenciosas ou fictícias,” destaca o relatório. “Além disso, os usuários finais podem interpretar os resultados gerados pelo ChatGPT como fatos precisos, especialmente quando se referem a dados sobre indivíduos, sem verificar a veracidade dessas informações.”

Esse levantamento sublinha a importância de medidas adicionais para garantir que as saídas do ChatGPT não apenas evitem erros interpretativos, mas também cumpram os elevados padrões de precisão de dados exigidos pela UE.

Publicado em Deixe um comentário

META UTILIZA DADOS DE USUÁRIOS PARA TREINAR IA, EXCETO NA UNIÃO EUROPEIA

Recentemente, foi revelado que a Meta está utilizando informações de perfis de usuários do Instagram e Facebook para aprimorar seus modelos de Inteligência Artificial (IA). Essa coleta abrange postagens e comentários, que são integrados aos sistemas de IA generativa da empresa. No entanto, contas localizadas na União Europeia estão isentas desse processo devido às rigorosas legislações de privacidade.

Dada a regulamentação de proteção de dados no Reino Unido e na União Europeia, a Meta é obrigada a informar os usuários sobre a coleta e uso de seus dados. Para isso, está enviando e-mails detalhados aos usuários do Instagram e Facebook, esclarecendo as mudanças na Política de Privacidade.

Conforme comunicado pelo portal 9to5Mac, esses e-mails destacam a ampliação das iniciativas de IA da empresa e afirmam que a Meta usará a base legal dos “interesses legítimos” para o uso dos dados dos usuários.

Modelo de e-mail enviado pela Meta:

Atualização da Política de Privacidade com Expansão da IA na Meta

Olá, ,

Estamos nos preparando para expandir nossas experiências de IA na Meta para sua região. A IA na Meta é nossa coleção de recursos e experiências generativas de IA, incluindo Meta AI e ferramentas criativas de IA, juntamente com os modelos que os alimentam.

O que isso significa para você

Para oferecer essas experiências, utilizaremos a base legal dos interesses legítimos para usar suas informações no desenvolvimento e melhoria da IA na Meta. Você tem o direito de se opor a essa utilização. Caso opte pela objeção, ela será aplicada daqui em diante.

Atualizamos nossa Política de Privacidade para refletir essas mudanças. As atualizações entram em vigor em 26 de junho de 2024.

Obrigado, equipe Meta Privacy”

A nova versão da Política de Privacidade, que entrará em vigor no dia 26 de junho, concede aos usuários o direito de recusar o uso de seus dados para o treinamento de IA. O e-mail esclarece que, caso a objeção seja validada, as informações da conta deixarão de ser usadas para esse propósito. No entanto, a aprovação não é garantida, e os usuários devem justificar sua objeção.

O Regulamento Geral de Proteção de Dados (GDPR) da União Europeia proporciona proteções robustas contra o uso impróprio de dados pessoais, permitindo aos usuários solicitar a remoção de suas informações e obter uma cópia dos dados utilizados. A Meta utiliza a base legal dos “interesses legítimos” para processar dados, uma prática que, apesar de autorizada para objetivos empresariais, enfrenta críticas devido à sua interpretação ampla.

Embora a Meta esteja sob críticas, a empresa afirma que processa automaticamente as solicitações de desativação. Usuários relataram nas redes sociais que, após enviarem a recusa, receberam um e-mail confirmando que seu pedido foi aceito e será cumprido.

Publicado em Deixe um comentário

RELATÓRIO DA UNIÃO EUROPEIA APONTA INSUFICIÊNCIAS NA TRANSPARÊNCIA DO CHATGPT

Uma equipe do órgão de defesa da privacidade da União Europeia (UE) divulgou um relatório indicando que os esforços da OpenAI para diminuir o número de resultados factualmente incorretos do ChatGPT ainda não são suficientes para atender às rigorosas políticas de dados da UE.

O relatório aponta que, embora as iniciativas para aumentar a transparência sejam positivas para evitar interpretações errôneas dos resultados do ChatGPT, essas medidas não bastam para garantir a precisão dos dados, conforme exigido pelas normas da UE.

No ano passado, as autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões relacionadas ao ChatGPT, após preocupações levantadas por reguladores nacionais sobre o serviço de inteligência artificial amplamente utilizado. Segundo o relatório, investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membro ainda estão em andamento, e, portanto, os resultados completos não podem ser divulgados. Assim, os pontos destacados no relatório devem ser vistos como observações comuns entre as autoridades nacionais.

Uma regra fundamental de proteção de dados na UE é a exatidão. No entanto, o relatório enfatiza que, devido à natureza probabilística do ChatGPT, o modelo pode gerar informações tendenciosas ou fabricadas. Além disso, os resultados fornecidos pelo ChatGPT podem ser interpretados pelos usuários como fatos precisos, sem considerar a veracidade das informações.

É importante ressaltar a necessidade contínua de melhorar os mecanismos de precisão no ChatGPT para que se alinhem plenamente com os rigorosos padrões de proteção de dados da UE, destacando os desafios e a complexidade envolvidas na gestão da precisão em sistemas de inteligência artificial.

Publicado em Deixe um comentário

REGULAMENTAÇÃO DA IA: LIÇÕES DA UNIÃO EUROPEIA E PERSPECTIVAS PARA O BRASIL

Em 10 de abril de 2018, vinte e quatro Estados-Membros da União Europeia assinaram um termo de cooperação durante o evento “Digital Day 2018” para tratar da inteligência artificial (IA). Em 25 de abril do mesmo ano, a Comissão Europeia emitiu uma comunicação sobre IA, sugerindo o avanço da capacidade tecnológica e industrial da União Europeia em prol da IA, a preparação para mudanças socioeconômicas decorrentes dessa tecnologia e a criação de um marco regulatório eficaz, baseado em valores democráticos e na proteção dos direitos fundamentais, para garantir o desenvolvimento ético da IA.

A Comissão Europeia solicitou que os Estados-Membros coordenassem planos estratégicos nacionais para a implementação da IA até o final de 2018. Na ocasião, foi criado o Grupo de Peritos de Alto Nível em Inteligência Artificial (AI HLEG), composto por pesquisadores, acadêmicos, representantes da indústria e da sociedade civil. Paralelamente, foi estabelecida a “Aliança Europeia para a IA” para fomentar a participação democrática, incluindo audiências públicas sobre diversos temas relacionados à IA.

Em 18 de dezembro de 2018, o AI HLEG submeteu à consulta pública o primeiro esboço das “Diretrizes Éticas para a Fiabilidade da Inteligência Artificial”. Após debates intensos, a versão final foi apresentada em 8 de abril de 2019, intitulada “Ethics Guidelines for Trustworthy AI”. Este documento delineou quatro princípios éticos fundamentais:

  1. Respeito à autodeterminação humana: A IA deve respeitar os direitos e garantias fundamentais, bem como a democracia.
  2. Prevenção de danos: Devem ser adotadas medidas robustas para evitar danos aos seres humanos.
  3. Justiça: Garantir uma distribuição equitativa dos benefícios e custos, eliminando qualquer tipo de preconceito.
  4. Transparência e clareza: Os sistemas de IA devem ser compreensíveis para os operadores humanos.

Além dos princípios, foram apresentados requisitos para a fiabilidade da IA, abrangendo supervisão humana, robustez técnica, privacidade e proteção de dados, transparência, diversidade, bem-estar social e ambiental, e prestação de contas.

Em 7 de dezembro de 2018, a União Europeia estabeleceu um plano coordenado de medidas para a implementação da IA, incentivando os Estados-Membros a elaborarem planos nacionais até meados de 2019. Posteriormente, em 19 de fevereiro de 2020, a Comissão Europeia lançou o relatório “White Paper on Artificial Intelligence: an European approach to excellence and trust”, reforçando as diretrizes éticas e destacando a necessidade de regulação da responsabilidade civil por danos causados por produtos e serviços de IA. Sugeriu-se a revisão da “Product Liability Directive” de 1985, para abordar as complexidades da IA, como a dificuldade de provar defeitos de programação em tecnologias como carros autônomos.

Na mesma data, a Comissão Europeia aprovou o plano estratégico para os dados, prevendo um aumento significativo no volume de dados na era do Big Data. Este plano destacou a cooperação internacional necessária para a aplicação de medidas regulatórias devido à circulação transfronteiriça de dados.

Nos Estados Unidos, o “Future of AI Act” de 2017 propôs diretrizes éticas para o desenvolvimento de IA, sem abordar diretamente a área da saúde. Documentos recentes, como o “Artificial Intelligence Act” europeu e o “Algorithmic Accountability Act” norte-americano, evitam discutir a terminologia de “inteligência”, preferindo referir-se a “sistemas decisionais automatizados” e reafirmando a importância de parâmetros éticos para o desenvolvimento de algoritmos.

No Brasil, várias iniciativas legislativas buscaram regulamentar a IA, mas com propostas inicialmente superficiais. Em fevereiro de 2022, foi instituída uma comissão de juristas para elaborar um substitutivo sobre IA, resultando no Projeto de Lei nº 2.338/2023. Este projeto, inspirado na abordagem europeia, estratifica soluções conforme o grau de risco de cada atividade de IA.

Desde sua apresentação, o projeto recebeu diversas emendas parlamentares e está sendo analisado pela Comissão Temporária Interna sobre Inteligência Artificial no Brasil, um fórum multissetorial que garante regulamentações abrangentes e eficazes, equilibrando inovação tecnológica e proteção de direitos fundamentais. A versão mais recente, proposta em abril de 2024, reflete uma preocupação com a parametrização ética, alinhando-se aos princípios europeus.

A aprovação do Regulamento Geral Europeu sobre IA representa um marco significativo, baseado em princípios éticos que contribuem para o debate sobre responsabilidade civil. Este esforço europeu, resultado de anos de discussões, serve de exemplo inspirador para outras nações, incluindo o Brasil, onde os trabalhos legislativos sobre IA continuam em andamento, merecendo atenção e acompanhamento cuidadoso.

Publicado em Deixe um comentário

A APROVAÇÃO DA LEGISLAÇÃO SOBRE INTELIGÊNCIA ARTIFICIAL NA UNIÃO EUROPEIA

Recentemente, o Parlamento Europeu aprovou uma legislação destinada a regular o uso da inteligência artificial na União Europeia, marcando um momento histórico no cenário global. Essa é a primeira vez que uma legislação oficial para essa tecnologia é estabelecida em nível mundial, com o objetivo de proteger os direitos fundamentais da sociedade. Essa decisão pode influenciar outras regiões do mundo a seguirem iniciativas semelhantes.

Essa conquista pode ser comparada à aprovação do Regulamento Geral sobre a Proteção de Dados (GDPR) pela União Europeia em 2018, que serviu de inspiração para a criação de legislações semelhantes em outras partes do mundo. No Brasil, por exemplo, há uma crescente discussão sobre a regulamentação do uso da inteligência artificial, com diversos projetos de lei em tramitação no Congresso Nacional.

Para fornecer insights adicionais sobre este tema, especialistas respeitados no campo da privacidade e proteção de dados podem oferecer contribuições valiosas. Esse diálogo é essencial para entender as complexidades e implicações da regulamentação da inteligência artificial, especialmente à luz das experiências anteriores com legislações de proteção de dados.

Publicado em Deixe um comentário

PARLAMENTO EUROPEU ESTABELECE MARCO REGULATÓRIO PARA INTELIGÊNCIA ARTIFICIAL

Na recente aprovação pelo Parlamento Europeu da primeira legislação destinada a regular o uso da inteligência artificial (IA) dentro da União Europeia, testemunhamos um marco significativo no direcionamento das políticas tecnológicas globais. Este desenvolvimento, inédito em sua essência, é impulsionado pela intenção de assegurar que os avanços tecnológicos se alinhem com os direitos fundamentais da sociedade, estabelecendo um precedente que provavelmente inspirará iniciativas regulatórias similares ao redor do mundo.

A nova legislação serve como um paradigma ético e jurídico, visando equilibrar o progresso tecnológico com a proteção dos indivíduos, de maneira similar ao impacto que o Regulamento Geral sobre a Proteção de Dados (GDPR) teve desde sua implementação em 2018 pela União Europeia. O GDPR não apenas reformulou as práticas de privacidade e proteção de dados mas também motivou a criação de legislações correspondentes em diversas jurisdições, demonstrando o potencial de tais regulamentações para modelar padrões globais.

No contexto brasileiro, percebe-se um crescente interesse legislativo pela inteligência artificial, refletido na tramitação de numerosas propostas que buscam estabelecer um marco regulatório para o uso da IA. Esta movimentação evidencia um reconhecimento da necessidade de diretrizes claras para orientar o desenvolvimento tecnológico de forma responsável e alinhada com os interesses da sociedade.

A adoção desta legislação na União Europeia ressalta a importância de um diálogo contínuo e informado sobre as implicações éticas, sociais e legais da inteligência artificial. Ao mesmo tempo, sublinha a urgência em estabelecer frameworks regulatórios que possam não apenas promover a inovação mas também garantir que tal inovação proceda de forma ética e com respeito aos direitos humanos fundamentais. A iniciativa europeia pode, portanto, servir de inspiração para que outras regiões desenvolvam suas próprias abordagens regulatórias, ajustadas às suas realidades específicas e aos desafios apresentados pela IA.

Publicado em Deixe um comentário

A ESTRATÉGIA DA UNIÃO EUROPEIA PARA A GOVERNANÇA DA INTELIGÊNCIA ARTIFICIAL

A recente aprovação unânime do texto final da primeira lei específica para Inteligência Artificial (IA) pelos países-membros da União Europeia (UE) em 2 de fevereiro marca um momento histórico na regulamentação tecnológica global. Este consenso solidifica o AI Act, uma legislação inovadora que visa governar o desenvolvimento e uso da IA dentro do bloco. Este ato legislativo, que se destina a entrar em vigor brevemente após sua publicação oficial, é o resultado de um processo deliberativo que começou em 2018, culminando em um acordo decisivo que posiciona a UE como a primeira potência econômica a estabelecer um quadro regulatório abrangente para esta tecnologia disruptiva.

O AI Act não é apenas um conjunto de regras; é uma visão estratégica da UE para promover a inovação responsável dentro do seu mercado interno. A designação iminente do AI Office pela Comissão Europeia como entidade reguladora central reflete uma abordagem calculada para balancear o rigor regulatório com o fomento ao desenvolvimento tecnológico. Esta estrutura regulatória visa não apenas gerenciar os riscos associados à IA, mas também estimular o crescimento de startups no campo da IA generativa, apontando para um futuro onde a Europa não apenas regula mas também lidera no desenvolvimento ético e inovador da IA.

O AI Act delineia um conceito abrangente de IA, baseando-se na definição da Organização para a Cooperação e Desenvolvimento Econômico (OCDE). Sob esta legislação, os sistemas de IA são entendidos como entidades mecanizadas capazes de realizar tarefas que vão desde inferências simples a recomendações complexas, abrangendo modelos de aprendizado de máquina de grande escala. A legislação enfatiza a necessidade de transparência e supervisão, especialmente para sistemas classificados como de alto risco, onde a clareza sobre a tomada de decisões e os impactos ao longo do ciclo de vida é fundamental.

O AI Act também aborda a diversidade de aplicações de IA, diferenciando entre usos de baixo e alto risco, e estabelecendo requisitos proporcionais de transparência e conformidade. Enquanto sistemas de baixo risco, como chatbots, enfrentam requisitos de transparência mais leves, os de alto risco estão sujeitos a uma supervisão rigorosa, refletindo um compromisso com a proteção da saúde pública, segurança e direitos fundamentais.

A legislação impõe restrições significativas a práticas potencialmente invasivas ou discriminatórias, incluindo o uso de reconhecimento facial em tempo real em espaços públicos e a categorização biométrica para inferir dados sensíveis. Estas medidas visam preservar a dignidade humana e evitar abusos que poderiam levar a um futuro distópico.

No campo dos direitos autorais, o AI Act é pioneiro ao exigir que os desenvolvedores de modelos de linguagem obtenham autorização para o uso de dados protegidos, promovendo uma cultura de transparência e respeito pela propriedade intelectual. Este aspecto da legislação não apenas protege os criadores, mas também encoraja uma abordagem mais ética e consciente no desenvolvimento de tecnologias de IA.

A adoção do AI Act pela UE é um passo na direção de uma governança global da IA que equilibra inovação e ética. Este marco regulatório não só estabelece a UE como um líder na formulação de políticas de IA, mas também desafia outras regiões, incluindo o Brasil, a considerar suas próprias abordagens regulatórias. O Brasil, com sua posição de mercado consumidor e seu potencial de desenvolvimento, enfrenta o desafio de navegar neste novo ambiente regulatório, equilibrando a necessidade de proteger direitos com o impulso para a inovação.

A legislação da UE sobre IA representa um equilíbrio entre a proteção contra os riscos e o apoio à inovação, estabelecendo um precedente para a regulamentação global da IA. Enquanto o mundo avança na adoção e desenvolvimento da IA, a abordagem da UE oferece insights valiosos sobre como governar esta tecnologia emergente de maneira responsável e eficaz.

Publicado em Deixe um comentário

PORSCHE MACAN A COMBUSTÃO DESPEDE-SE NA EUROPA POR CAUSA DA SEGURANÇA CIBERNÉTICA

A Porsche enfrenta um desafio na União Europeia, onde regulamentações de segurança cibernética estão forçando a descontinuação do Macan a combustão. Embora a montadora planeje estender o ciclo de vida do SUV com motores tradicionais, a Europa impõe novos requisitos de cibersegurança que o modelo não atende. Mesmo com atualizações em 2019 e 2021, o Macan original, lançado em 2014, não se alinha às exigências, tornando uma adaptação financeiramente inviável.

Um porta-voz da Porsche revelou que o Macan a combustão encerrará as vendas em 2024 devido à necessidade de ajustes técnicos nas unidades de controle e mudanças nos processos de desenvolvimento para atender às novas diretrizes de segurança cibernética da União Europeia. Essas regulamentações visam proteger as plataformas dos veículos contra possíveis ameaças de hackers.

Outros modelos do Grupo Volkswagen, como o e-Up, Audi TT e Audi R8, também foram impactados, com anúncios de seus respectivos fins. Apesar do adeus do Macan na Europa, a Porsche continuará a comercializar o SUV em outros mercados, como o Brasil, pelo menos até 2026. A produção do modelo persistirá em Leipzig, Alemanha, onde seu sucessor elétrico também será fabricado. Este cenário marca um momento singular na indústria automotiva, onde a evolução das regulamentações de segurança cibernética dita o futuro de veículos consagrados.