Publicado em Deixe um comentário

RELATÓRIO DA UNIÃO EUROPEIA QUESTIONA A PRECISÃO DOS DADOS DO CHATGPT

A equipe de defesa da privacidade da União Europeia (UE) avaliou que os esforços da OpenAI para reduzir o número de informações falsas geradas pelo ChatGPT ainda não são suficientes para cumprir as rigorosas políticas de dados da UE.

Conforme detalhado em um relatório publicado no site da equipe, as medidas adotadas para aumentar a transparência, apesar de úteis para evitar interpretações errôneas dos resultados do ChatGPT, ainda não atendem plenamente ao critério de precisão de dados exigido pela legislação europeia.

No ano passado, conforme noticiado pela Reuters, autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões específicas relacionadas ao ChatGPT. Essa ação foi motivada por preocupações levantadas por reguladores nacionais sobre o uso crescente deste serviço de inteligência artificial.

O relatório aponta que algumas investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membros ainda estão em andamento. Portanto, os resultados apresentados devem ser entendidos como observações preliminares comuns a essas autoridades. A exatidão dos dados é uma das principais diretrizes da regulamentação de proteção de dados da UE.

“Devido à natureza probabilística do sistema, a metodologia atual de treinamento pode gerar informações tendenciosas ou fictícias,” destaca o relatório. “Além disso, os usuários finais podem interpretar os resultados gerados pelo ChatGPT como fatos precisos, especialmente quando se referem a dados sobre indivíduos, sem verificar a veracidade dessas informações.”

Esse levantamento sublinha a importância de medidas adicionais para garantir que as saídas do ChatGPT não apenas evitem erros interpretativos, mas também cumpram os elevados padrões de precisão de dados exigidos pela UE.

Publicado em Deixe um comentário

META UTILIZA DADOS DE USUÁRIOS PARA TREINAR IA, EXCETO NA UNIÃO EUROPEIA

Recentemente, foi revelado que a Meta está utilizando informações de perfis de usuários do Instagram e Facebook para aprimorar seus modelos de Inteligência Artificial (IA). Essa coleta abrange postagens e comentários, que são integrados aos sistemas de IA generativa da empresa. No entanto, contas localizadas na União Europeia estão isentas desse processo devido às rigorosas legislações de privacidade.

Dada a regulamentação de proteção de dados no Reino Unido e na União Europeia, a Meta é obrigada a informar os usuários sobre a coleta e uso de seus dados. Para isso, está enviando e-mails detalhados aos usuários do Instagram e Facebook, esclarecendo as mudanças na Política de Privacidade.

Conforme comunicado pelo portal 9to5Mac, esses e-mails destacam a ampliação das iniciativas de IA da empresa e afirmam que a Meta usará a base legal dos “interesses legítimos” para o uso dos dados dos usuários.

Modelo de e-mail enviado pela Meta:

Atualização da Política de Privacidade com Expansão da IA na Meta

Olá, ,

Estamos nos preparando para expandir nossas experiências de IA na Meta para sua região. A IA na Meta é nossa coleção de recursos e experiências generativas de IA, incluindo Meta AI e ferramentas criativas de IA, juntamente com os modelos que os alimentam.

O que isso significa para você

Para oferecer essas experiências, utilizaremos a base legal dos interesses legítimos para usar suas informações no desenvolvimento e melhoria da IA na Meta. Você tem o direito de se opor a essa utilização. Caso opte pela objeção, ela será aplicada daqui em diante.

Atualizamos nossa Política de Privacidade para refletir essas mudanças. As atualizações entram em vigor em 26 de junho de 2024.

Obrigado, equipe Meta Privacy”

A nova versão da Política de Privacidade, que entrará em vigor no dia 26 de junho, concede aos usuários o direito de recusar o uso de seus dados para o treinamento de IA. O e-mail esclarece que, caso a objeção seja validada, as informações da conta deixarão de ser usadas para esse propósito. No entanto, a aprovação não é garantida, e os usuários devem justificar sua objeção.

O Regulamento Geral de Proteção de Dados (GDPR) da União Europeia proporciona proteções robustas contra o uso impróprio de dados pessoais, permitindo aos usuários solicitar a remoção de suas informações e obter uma cópia dos dados utilizados. A Meta utiliza a base legal dos “interesses legítimos” para processar dados, uma prática que, apesar de autorizada para objetivos empresariais, enfrenta críticas devido à sua interpretação ampla.

Embora a Meta esteja sob críticas, a empresa afirma que processa automaticamente as solicitações de desativação. Usuários relataram nas redes sociais que, após enviarem a recusa, receberam um e-mail confirmando que seu pedido foi aceito e será cumprido.

Publicado em Deixe um comentário

RELATÓRIO DA UNIÃO EUROPEIA APONTA INSUFICIÊNCIAS NA TRANSPARÊNCIA DO CHATGPT

Uma equipe do órgão de defesa da privacidade da União Europeia (UE) divulgou um relatório indicando que os esforços da OpenAI para diminuir o número de resultados factualmente incorretos do ChatGPT ainda não são suficientes para atender às rigorosas políticas de dados da UE.

O relatório aponta que, embora as iniciativas para aumentar a transparência sejam positivas para evitar interpretações errôneas dos resultados do ChatGPT, essas medidas não bastam para garantir a precisão dos dados, conforme exigido pelas normas da UE.

No ano passado, as autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões relacionadas ao ChatGPT, após preocupações levantadas por reguladores nacionais sobre o serviço de inteligência artificial amplamente utilizado. Segundo o relatório, investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membro ainda estão em andamento, e, portanto, os resultados completos não podem ser divulgados. Assim, os pontos destacados no relatório devem ser vistos como observações comuns entre as autoridades nacionais.

Uma regra fundamental de proteção de dados na UE é a exatidão. No entanto, o relatório enfatiza que, devido à natureza probabilística do ChatGPT, o modelo pode gerar informações tendenciosas ou fabricadas. Além disso, os resultados fornecidos pelo ChatGPT podem ser interpretados pelos usuários como fatos precisos, sem considerar a veracidade das informações.

É importante ressaltar a necessidade contínua de melhorar os mecanismos de precisão no ChatGPT para que se alinhem plenamente com os rigorosos padrões de proteção de dados da UE, destacando os desafios e a complexidade envolvidas na gestão da precisão em sistemas de inteligência artificial.

Publicado em Deixe um comentário

REGULAMENTAÇÃO DA IA: LIÇÕES DA UNIÃO EUROPEIA E PERSPECTIVAS PARA O BRASIL

Em 10 de abril de 2018, vinte e quatro Estados-Membros da União Europeia assinaram um termo de cooperação durante o evento “Digital Day 2018” para tratar da inteligência artificial (IA). Em 25 de abril do mesmo ano, a Comissão Europeia emitiu uma comunicação sobre IA, sugerindo o avanço da capacidade tecnológica e industrial da União Europeia em prol da IA, a preparação para mudanças socioeconômicas decorrentes dessa tecnologia e a criação de um marco regulatório eficaz, baseado em valores democráticos e na proteção dos direitos fundamentais, para garantir o desenvolvimento ético da IA.

A Comissão Europeia solicitou que os Estados-Membros coordenassem planos estratégicos nacionais para a implementação da IA até o final de 2018. Na ocasião, foi criado o Grupo de Peritos de Alto Nível em Inteligência Artificial (AI HLEG), composto por pesquisadores, acadêmicos, representantes da indústria e da sociedade civil. Paralelamente, foi estabelecida a “Aliança Europeia para a IA” para fomentar a participação democrática, incluindo audiências públicas sobre diversos temas relacionados à IA.

Em 18 de dezembro de 2018, o AI HLEG submeteu à consulta pública o primeiro esboço das “Diretrizes Éticas para a Fiabilidade da Inteligência Artificial”. Após debates intensos, a versão final foi apresentada em 8 de abril de 2019, intitulada “Ethics Guidelines for Trustworthy AI”. Este documento delineou quatro princípios éticos fundamentais:

  1. Respeito à autodeterminação humana: A IA deve respeitar os direitos e garantias fundamentais, bem como a democracia.
  2. Prevenção de danos: Devem ser adotadas medidas robustas para evitar danos aos seres humanos.
  3. Justiça: Garantir uma distribuição equitativa dos benefícios e custos, eliminando qualquer tipo de preconceito.
  4. Transparência e clareza: Os sistemas de IA devem ser compreensíveis para os operadores humanos.

Além dos princípios, foram apresentados requisitos para a fiabilidade da IA, abrangendo supervisão humana, robustez técnica, privacidade e proteção de dados, transparência, diversidade, bem-estar social e ambiental, e prestação de contas.

Em 7 de dezembro de 2018, a União Europeia estabeleceu um plano coordenado de medidas para a implementação da IA, incentivando os Estados-Membros a elaborarem planos nacionais até meados de 2019. Posteriormente, em 19 de fevereiro de 2020, a Comissão Europeia lançou o relatório “White Paper on Artificial Intelligence: an European approach to excellence and trust”, reforçando as diretrizes éticas e destacando a necessidade de regulação da responsabilidade civil por danos causados por produtos e serviços de IA. Sugeriu-se a revisão da “Product Liability Directive” de 1985, para abordar as complexidades da IA, como a dificuldade de provar defeitos de programação em tecnologias como carros autônomos.

Na mesma data, a Comissão Europeia aprovou o plano estratégico para os dados, prevendo um aumento significativo no volume de dados na era do Big Data. Este plano destacou a cooperação internacional necessária para a aplicação de medidas regulatórias devido à circulação transfronteiriça de dados.

Nos Estados Unidos, o “Future of AI Act” de 2017 propôs diretrizes éticas para o desenvolvimento de IA, sem abordar diretamente a área da saúde. Documentos recentes, como o “Artificial Intelligence Act” europeu e o “Algorithmic Accountability Act” norte-americano, evitam discutir a terminologia de “inteligência”, preferindo referir-se a “sistemas decisionais automatizados” e reafirmando a importância de parâmetros éticos para o desenvolvimento de algoritmos.

No Brasil, várias iniciativas legislativas buscaram regulamentar a IA, mas com propostas inicialmente superficiais. Em fevereiro de 2022, foi instituída uma comissão de juristas para elaborar um substitutivo sobre IA, resultando no Projeto de Lei nº 2.338/2023. Este projeto, inspirado na abordagem europeia, estratifica soluções conforme o grau de risco de cada atividade de IA.

Desde sua apresentação, o projeto recebeu diversas emendas parlamentares e está sendo analisado pela Comissão Temporária Interna sobre Inteligência Artificial no Brasil, um fórum multissetorial que garante regulamentações abrangentes e eficazes, equilibrando inovação tecnológica e proteção de direitos fundamentais. A versão mais recente, proposta em abril de 2024, reflete uma preocupação com a parametrização ética, alinhando-se aos princípios europeus.

A aprovação do Regulamento Geral Europeu sobre IA representa um marco significativo, baseado em princípios éticos que contribuem para o debate sobre responsabilidade civil. Este esforço europeu, resultado de anos de discussões, serve de exemplo inspirador para outras nações, incluindo o Brasil, onde os trabalhos legislativos sobre IA continuam em andamento, merecendo atenção e acompanhamento cuidadoso.

Publicado em Deixe um comentário

A APROVAÇÃO DA LEGISLAÇÃO SOBRE INTELIGÊNCIA ARTIFICIAL NA UNIÃO EUROPEIA

Recentemente, o Parlamento Europeu aprovou uma legislação destinada a regular o uso da inteligência artificial na União Europeia, marcando um momento histórico no cenário global. Essa é a primeira vez que uma legislação oficial para essa tecnologia é estabelecida em nível mundial, com o objetivo de proteger os direitos fundamentais da sociedade. Essa decisão pode influenciar outras regiões do mundo a seguirem iniciativas semelhantes.

Essa conquista pode ser comparada à aprovação do Regulamento Geral sobre a Proteção de Dados (GDPR) pela União Europeia em 2018, que serviu de inspiração para a criação de legislações semelhantes em outras partes do mundo. No Brasil, por exemplo, há uma crescente discussão sobre a regulamentação do uso da inteligência artificial, com diversos projetos de lei em tramitação no Congresso Nacional.

Para fornecer insights adicionais sobre este tema, especialistas respeitados no campo da privacidade e proteção de dados podem oferecer contribuições valiosas. Esse diálogo é essencial para entender as complexidades e implicações da regulamentação da inteligência artificial, especialmente à luz das experiências anteriores com legislações de proteção de dados.

Publicado em Deixe um comentário

PARLAMENTO EUROPEU ESTABELECE MARCO REGULATÓRIO PARA INTELIGÊNCIA ARTIFICIAL

Na recente aprovação pelo Parlamento Europeu da primeira legislação destinada a regular o uso da inteligência artificial (IA) dentro da União Europeia, testemunhamos um marco significativo no direcionamento das políticas tecnológicas globais. Este desenvolvimento, inédito em sua essência, é impulsionado pela intenção de assegurar que os avanços tecnológicos se alinhem com os direitos fundamentais da sociedade, estabelecendo um precedente que provavelmente inspirará iniciativas regulatórias similares ao redor do mundo.

A nova legislação serve como um paradigma ético e jurídico, visando equilibrar o progresso tecnológico com a proteção dos indivíduos, de maneira similar ao impacto que o Regulamento Geral sobre a Proteção de Dados (GDPR) teve desde sua implementação em 2018 pela União Europeia. O GDPR não apenas reformulou as práticas de privacidade e proteção de dados mas também motivou a criação de legislações correspondentes em diversas jurisdições, demonstrando o potencial de tais regulamentações para modelar padrões globais.

No contexto brasileiro, percebe-se um crescente interesse legislativo pela inteligência artificial, refletido na tramitação de numerosas propostas que buscam estabelecer um marco regulatório para o uso da IA. Esta movimentação evidencia um reconhecimento da necessidade de diretrizes claras para orientar o desenvolvimento tecnológico de forma responsável e alinhada com os interesses da sociedade.

A adoção desta legislação na União Europeia ressalta a importância de um diálogo contínuo e informado sobre as implicações éticas, sociais e legais da inteligência artificial. Ao mesmo tempo, sublinha a urgência em estabelecer frameworks regulatórios que possam não apenas promover a inovação mas também garantir que tal inovação proceda de forma ética e com respeito aos direitos humanos fundamentais. A iniciativa europeia pode, portanto, servir de inspiração para que outras regiões desenvolvam suas próprias abordagens regulatórias, ajustadas às suas realidades específicas e aos desafios apresentados pela IA.

Publicado em Deixe um comentário

A ESTRATÉGIA DA UNIÃO EUROPEIA PARA A GOVERNANÇA DA INTELIGÊNCIA ARTIFICIAL

A recente aprovação unânime do texto final da primeira lei específica para Inteligência Artificial (IA) pelos países-membros da União Europeia (UE) em 2 de fevereiro marca um momento histórico na regulamentação tecnológica global. Este consenso solidifica o AI Act, uma legislação inovadora que visa governar o desenvolvimento e uso da IA dentro do bloco. Este ato legislativo, que se destina a entrar em vigor brevemente após sua publicação oficial, é o resultado de um processo deliberativo que começou em 2018, culminando em um acordo decisivo que posiciona a UE como a primeira potência econômica a estabelecer um quadro regulatório abrangente para esta tecnologia disruptiva.

O AI Act não é apenas um conjunto de regras; é uma visão estratégica da UE para promover a inovação responsável dentro do seu mercado interno. A designação iminente do AI Office pela Comissão Europeia como entidade reguladora central reflete uma abordagem calculada para balancear o rigor regulatório com o fomento ao desenvolvimento tecnológico. Esta estrutura regulatória visa não apenas gerenciar os riscos associados à IA, mas também estimular o crescimento de startups no campo da IA generativa, apontando para um futuro onde a Europa não apenas regula mas também lidera no desenvolvimento ético e inovador da IA.

O AI Act delineia um conceito abrangente de IA, baseando-se na definição da Organização para a Cooperação e Desenvolvimento Econômico (OCDE). Sob esta legislação, os sistemas de IA são entendidos como entidades mecanizadas capazes de realizar tarefas que vão desde inferências simples a recomendações complexas, abrangendo modelos de aprendizado de máquina de grande escala. A legislação enfatiza a necessidade de transparência e supervisão, especialmente para sistemas classificados como de alto risco, onde a clareza sobre a tomada de decisões e os impactos ao longo do ciclo de vida é fundamental.

O AI Act também aborda a diversidade de aplicações de IA, diferenciando entre usos de baixo e alto risco, e estabelecendo requisitos proporcionais de transparência e conformidade. Enquanto sistemas de baixo risco, como chatbots, enfrentam requisitos de transparência mais leves, os de alto risco estão sujeitos a uma supervisão rigorosa, refletindo um compromisso com a proteção da saúde pública, segurança e direitos fundamentais.

A legislação impõe restrições significativas a práticas potencialmente invasivas ou discriminatórias, incluindo o uso de reconhecimento facial em tempo real em espaços públicos e a categorização biométrica para inferir dados sensíveis. Estas medidas visam preservar a dignidade humana e evitar abusos que poderiam levar a um futuro distópico.

No campo dos direitos autorais, o AI Act é pioneiro ao exigir que os desenvolvedores de modelos de linguagem obtenham autorização para o uso de dados protegidos, promovendo uma cultura de transparência e respeito pela propriedade intelectual. Este aspecto da legislação não apenas protege os criadores, mas também encoraja uma abordagem mais ética e consciente no desenvolvimento de tecnologias de IA.

A adoção do AI Act pela UE é um passo na direção de uma governança global da IA que equilibra inovação e ética. Este marco regulatório não só estabelece a UE como um líder na formulação de políticas de IA, mas também desafia outras regiões, incluindo o Brasil, a considerar suas próprias abordagens regulatórias. O Brasil, com sua posição de mercado consumidor e seu potencial de desenvolvimento, enfrenta o desafio de navegar neste novo ambiente regulatório, equilibrando a necessidade de proteger direitos com o impulso para a inovação.

A legislação da UE sobre IA representa um equilíbrio entre a proteção contra os riscos e o apoio à inovação, estabelecendo um precedente para a regulamentação global da IA. Enquanto o mundo avança na adoção e desenvolvimento da IA, a abordagem da UE oferece insights valiosos sobre como governar esta tecnologia emergente de maneira responsável e eficaz.

Publicado em Deixe um comentário

PORSCHE MACAN A COMBUSTÃO DESPEDE-SE NA EUROPA POR CAUSA DA SEGURANÇA CIBERNÉTICA

A Porsche enfrenta um desafio na União Europeia, onde regulamentações de segurança cibernética estão forçando a descontinuação do Macan a combustão. Embora a montadora planeje estender o ciclo de vida do SUV com motores tradicionais, a Europa impõe novos requisitos de cibersegurança que o modelo não atende. Mesmo com atualizações em 2019 e 2021, o Macan original, lançado em 2014, não se alinha às exigências, tornando uma adaptação financeiramente inviável.

Um porta-voz da Porsche revelou que o Macan a combustão encerrará as vendas em 2024 devido à necessidade de ajustes técnicos nas unidades de controle e mudanças nos processos de desenvolvimento para atender às novas diretrizes de segurança cibernética da União Europeia. Essas regulamentações visam proteger as plataformas dos veículos contra possíveis ameaças de hackers.

Outros modelos do Grupo Volkswagen, como o e-Up, Audi TT e Audi R8, também foram impactados, com anúncios de seus respectivos fins. Apesar do adeus do Macan na Europa, a Porsche continuará a comercializar o SUV em outros mercados, como o Brasil, pelo menos até 2026. A produção do modelo persistirá em Leipzig, Alemanha, onde seu sucessor elétrico também será fabricado. Este cenário marca um momento singular na indústria automotiva, onde a evolução das regulamentações de segurança cibernética dita o futuro de veículos consagrados.