Publicado em Deixe um comentário

VOCÊ CONHECE OS LIMITES DA IA? DESCUBRA OS DIREITOS E RISCOS DOS INFLUENCIADORES DIGITAIS

A discussão sobre a substituição de humanos por máquinas, que ganhou força durante a Revolução Industrial, voltou à tona com a crescente digitalização e o avanço acelerado da tecnologia. Um exemplo marcante é o sucesso do ChatGPT, um reflexo da maior acessibilidade da Inteligência Artificial (IA) ao público em geral.

É importante notar que a IA, embora avançada, ainda depende da inteligência humana para sua alimentação e controle. Sem supervisão, as máquinas podem absorver e replicar comportamentos indesejáveis do mundo virtual, como discriminação ou agressividade.

Um caso recente ilustra esse ponto. Uma agência de modelos em Barcelona criou “Aitana”, uma influenciadora digital gerada totalmente por IA. Esta influenciadora virtual, com 148 mil seguidores e um perfil voltado para games, fitness e cosplay, levanta questões intrigantes. Alguns seguidores acreditam que ela é real, mesmo com outros tentando alertar sobre sua natureza artificial.

Esta situação reflete um preocupante desinteresse, especialmente entre os jovens, em discernir o real do artificial. O crescente envolvimento com a vida virtual exige uma adaptação às novas tecnologias e comportamentos geracionais, para evitar mais prejuízos do que benefícios com a IA.

Do ponto de vista legal, a existência de influenciadores virtuais como “Aitana” não enfrenta obstáculos, a menos que cometam atos ilícitos. Qualquer dano causado deve ser atribuído aos humanos que operam a IA. Porém, a legislação enfrenta desafios maiores quando os desenvolvedores desses personagens são desconhecidos, especialmente se estes personagens causam danos reais, como na venda de drogas a adolescentes.

No Brasil, ainda não temos uma legislação específica para IA, mas há um projeto de lei em estudo. Grupos de juristas e profissionais, como os da OAB do Rio Grande do Sul, estão acompanhando de perto o desenvolvimento desse projeto e as tendências globais relacionadas à IA.

A complexidade e a importância do tema são inegáveis. Prever todos os desdobramentos é impossível, mas com estudo, dedicação e observação do Direito comparado, podemos ter uma visão mais clara dos riscos e benefícios. Enquanto isso, a sociedade deve ser cautelosa, especialmente com crianças e adolescentes nas redes sociais, e consciente no uso da IA. Eventualmente, a IA se tornará uma parte mais natural de nossas vidas, com implicações jurídicas mais bem regulamentadas. Até lá, é fundamental usar essa tecnologia com responsabilidade e consciência.

Publicado em Deixe um comentário

GOOGLE LANÇA GEMINI, O MODELO MULTIMODAL MAIS AVANÇADO

O Google, um gigante no campo da inteligência artificial, recentemente introduziu o Gemini, seu mais recente avanço na área. Este modelo de IA, desenvolvido pelo renomado laboratório de inteligência artificial DeepMind, é considerado um marco na história da tecnologia. O Gemini se destaca por ser um modelo multimodal, integrando habilidades em texto, imagem, áudio, vídeo e programação, um feito notável no campo da IA.

O modelo representa um salto significativo na forma como as máquinas compreendem e interagem com o mundo ao nosso redor, superando outros modelos existentes.

O Google já integrou o Gemini ao Bard, seu chatbot, ampliando assim as capacidades deste último e reforçando a competição com a OpenAI e seu produto, o ChatGPT. Comentários da empresa sugerem que essa integração marca a maior melhoria do Bard desde seu lançamento.

O Gemini será gradualmente implementado em outros produtos e serviços do Google, como Ads, Chrome e Duet AI, em três variantes: Gemini Ultra, para tarefas de alta complexidade; Gemini Pro, para uma gama mais ampla de tarefas; e Gemini Nano, otimizado para eficiência em dispositivos menores.

Uma característica notável do Gemini é seu poder computacional, que é cinco vezes maior que o do GPT-4. Ele é o primeiro modelo a superar especialistas humanos em Massive Multitask Language Understanding, um benchmark chave para avaliar a capacidade de resolução de problemas de modelos de IA. O Gemini Ultra, por exemplo, alcançou 30 de 32 pontos em testes acadêmicos.

A inovação fundamental do Gemini reside em sua abordagem nativa multimodal. Diferente de modelos anteriores que eram treinados separadamente em diferentes modalidades antes de serem combinados, o Gemini foi concebido desde o início para lidar com múltiplas formas de informação simultaneamente, permitindo-lhe compreender e raciocinar com mais eficácia.

Além disso, a Google utilizou chips personalizados para desenvolver o Gemini, o que traz vantagens únicas em termos de desempenho.

Para desenvolvedores e clientes corporativos, o Gemini Pro estará disponível via API no Google AI Studio ou Vertex AI a partir de 13 de dezembro. O Google AI Studio é uma ferramenta gratuita para desenvolvimento e prototipagem de aplicativos, enquanto o Vertex AI oferece personalização do Gemini com controle total sobre os dados.

Finalmente, o Google anunciou o lançamento do Bard Advanced, uma nova experiência de IA avançada, para o início de 2024. Este anúncio reitera o compromisso da empresa em liderar a vanguarda da inovação em IA.

Publicado em Deixe um comentário

ENTENDA COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ REDEFININDO AS REGRAS DA CONCORRÊNCIA

À medida que a inteligência artificial (IA) avança e se integra em diversos setores, surgem importantes questões concorrenciais. Destaca-se a preocupação com as grandes empresas de tecnologia (big techs) usando seu poder de mercado para dominar ferramentas de IA e vastas bases de dados, limitando as opções do consumidor.

Recentemente, em 18 de setembro, um relatório da autoridade de concorrência do Reino Unido, a Competition & Markets Authority (CMA), levantou preocupações sobre a concorrência no desenvolvimento de modelos de base para IA. O relatório enfatiza que o desenvolvimento desses modelos exige um volume substancial de dados, recursos computacionais dispendiosos e expertise técnica, o que pode reduzir a concorrência e desincentivar a inovação. Um estudo do Goldman Sachs projeta um investimento global em IA de cerca de 200 bilhões de dólares até 2025. Governos e autoridades de concorrência ao redor do mundo estão focados na regulação da IA, especialmente considerando seus potenciais impactos negativos na livre concorrência.

Em 2017, a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) publicou o estudo “Algorithms and Collusion: Competition Policy in the Digital Age”, que discute os desafios que os algoritmos representam para a aplicação da lei da concorrência e a regulação do mercado. A CMA também divulgou estudos em 2018 e 2021 sobre o impacto dos algoritmos na concorrência. Autoridades de concorrência de Portugal, França e Alemanha publicaram estudos semelhantes.

Os estudos concordam que o uso de IA, especialmente na forma de algoritmos, pode facilitar a colusão entre concorrentes, formando cartéis conhecidos como “hub and spoke”, ou promover colusão tácita. A CMA e a Autoridade da Concorrência indicaram que plataformas online e empresas com poder de mercado podem usar algoritmos para práticas de self-preferencing, favorecendo seus próprios produtos e serviços em detrimento dos concorrentes, e para acordos de fixação de preços de revenda.

Diante desse cenário, questiona-se a preparação das autoridades globais e brasileiras para enfrentar essa realidade. A OCDE, preocupada com a proteção e promoção da concorrência nos mercados digitais, destacou a importância da transparência dos algoritmos e da responsabilização pelos seus efeitos.

No Brasil, tramitam o PL nº 2.338/2023 para regular a IA, o PL nº 2.630/2020 (Lei das Fake News) para transparência em redes sociais e serviços de mensagens, e o PL nº 2.768/2022 (Lei de Mercado Digital) para regular plataformas digitais, incluindo a concorrência. A OCDE enfatiza a importância dos programas de leniência como ferramenta de denúncia para participantes de carteis, considerando a dificuldade em detectar condutas irregulares facilitadas pela IA.

O Conselho Administrativo de Defesa Econômica (Cade) do Brasil possui um programa de leniência e, em 2022, criou uma unidade especializada em investigações de condutas unilaterais. Além disso, adotou a recomendação da OCDE de implementar ferramentas de IA para monitorar condutas anticompetitivas, desenvolvendo o Projeto Cérebro, que usa mineração de dados e algoritmos para identificar suspeitas de atuação coordenada em mercados.

Com essas iniciativas, o Brasil segue a União Europeia em obrigar empresas a cumprir legislações de proteção de dados e concorrência no desenvolvimento de ferramentas de IA. O Cade também trabalha para criar técnicas que inibam e combatam condutas anticompetitivas de forma eficiente.

A IA, cada vez mais utilizada por empresas para otimizar negócios, traz benefícios aos consumidores, mas levanta preocupações quanto à concentração tecnológica nas mãos das big techs, devido aos altos requisitos financeiros e técnicos. Autoridades de concorrência expressam preocupação com o uso de ferramentas de IA, especialmente algoritmos de precificação e monitoramento, para implementar condutas colusivas e/ou unilaterais

Publicado em Deixe um comentário

COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ TRANSFORMANDO A SOCIEDADE E O DIREITO

A discussão sobre a ascensão da inteligência artificial (IA) e seu impacto na sociedade tem se intensificado recentemente, em grande parte devido aos avanços tecnológicos e à crescente acessibilidade da IA. Um exemplo marcante dessa tendência é o sucesso estrondoso do ChatGPT.

Historicamente, desde a Revolução Industrial, temos testemunhado a substituição do trabalho humano por máquinas. No entanto, o que diferencia a era atual é a velocidade sem precedentes com que a digitalização está evoluindo. A IA depende crucialmente da inteligência humana para seu desenvolvimento e supervisão. Sem essa supervisão, a IA poderia adquirir e perpetuar comportamentos prejudiciais, incluindo discriminação e agressividade, derivados do conteúdo disponível no mundo virtual.

Um aspecto intrigante dessa era digital é nossa percepção da realidade. Consideramos a possibilidade de sermos substituídos ou enganados por avatares digitais algo distante, confiantes na nossa capacidade de distinguir entre uma entidade virtual e uma real. Porém, casos recentes sugerem que essa distinção pode não ser tão clara.

Um exemplo revelador é o da agência de modelos espanhola que criou uma influenciadora digital gerada inteiramente por IA. Esta influenciadora, chamada “Aitana”, rapidamente ganhou popularidade no Instagram, acumulando milhares de seguidores. Com 25 anos virtuais, Aitana aborda temas como games, fitness e amor, apresentando-se de maneira sensual. O mais surpreendente é que muitos seguidores não percebem que Aitana é um produto da IA.

Esse fenômeno levanta preocupações significativas. A intensificação da vida virtual está soando como um alarme na sociedade global, especialmente entre os jovens, muitos dos quais parecem indiferentes em discernir o real do virtual. Assim, torna-se necessário adaptar-se e entender as tecnologias emergentes, bem como o comportamento das novas gerações, para colher os benefícios da IA e minimizar seus malefícios.

Do ponto de vista jurídico, a presença de influenciadores virtuais nas redes sociais não é ilegal, desde que não envolvam atividades ilícitas. Contudo, a responsabilidade por quaisquer danos causados recai sobre os humanos que controlam estas entidades digitais. O desafio legal se torna mais complexo em casos onde os desenvolvedores desses personagens virtuais são desconhecidos, especialmente quando tais personagens estão envolvidos em atividades criminosas.

No Brasil, ainda estamos na fase inicial de desenvolver uma legislação específica para a IA. Existe um projeto de lei sendo estudado por juristas e profissionais em várias regiões, como no Rio Grande do Sul, onde um grupo de trabalho da OAB está dedicado ao tema. A complexidade do assunto requer estudo contínuo, comparação com legislações internacionais e uma avaliação ponderada dos riscos e benefícios da IA.

Por fim, é essencial adotar uma postura de responsabilidade e consciência na utilização da IA, especialmente ao considerar seu impacto sobre crianças e adolescentes nas redes sociais. A IA oferece possibilidades incríveis para o avanço humano, mas também vem com riscos que devem ser cuidadosamente avaliados e regulamentados. À medida que a tecnologia evolui, é provável que sua integração na sociedade e as implicações jurídicas se tornem mais claras e bem regulamentadas.

Publicado em Deixe um comentário

VOCÊ ESTÁ SEGURO ONLINE? UMA JORNADA INTERATIVA NA PROTEÇÃO CONTRA IMAGENS FALSAS DE IA

A crescente incidência de crimes cibernéticos envolvendo a utilização de Inteligência Artificial (IA) para a criação de imagens falsas de nudez, comumente conhecidas como “deep nudes”, tem se tornado uma preocupação significativa no mundo jurídico e tecnológico. Essas práticas representam uma grave violação da privacidade e dignidade das vítimas, muitas das quais são mulheres e jovens, destacando a necessidade urgente de uma abordagem mais robusta na legislação e na educação digital.

Especialistas em Direito e Tecnologia têm enfatizado a importância de leis específicas para lidar com esses crimes, apontando para as limitações das legislações atuais em combater efetivamente tais práticas. Embora existam normativas, como as que permitem a remoção de conteúdo ofensivo da internet e estabelecem a responsabilidade das plataformas digitais, elas muitas vezes não são suficientes para abordar integralmente a questão.

A necessidade de legislações específicas que tratem de crimes envolvendo IA, como a criação de deep nudes, é um tópico em discussão. A ideia é que novas leis possam desincentivar tais práticas e oferecer um caminho mais claro para a responsabilização dos infratores. A abordagem proposta enfatiza um equilíbrio entre os direitos individuais e os riscos associados ao uso da tecnologia, sugerindo o uso de “sandboxes” regulatórios para um desenvolvimento e teste seguros de novas tecnologias.

Os desafios no julgamento desses crimes são amplificados pela complexa natureza da internet, que muitas vezes envolve dados armazenados em múltiplas jurisdições internacionais. Isso ressalta a importância de convenções internacionais que tratam de crimes cibernéticos e a cooperação jurídica internacional em casos envolvendo provas eletrônicas.

Para proteger-se contra esses crimes, é recomendado ter cautela com a exposição nas redes sociais e estar consciente dos riscos associados ao uso da internet. A educação, tanto em ambientes escolares quanto familiares, é fundamental para informar as novas gerações sobre os perigos potenciais do mundo digital. Além disso, destaca-se a importância de profissionais do Direito estarem bem informados e capacitados para lidar com questões de Direito e Tecnologia, entendendo a aplicação de leis relevantes como o Marco Civil da Internet e a Lei Geral de Proteção de Dados.

A reflexão sobre o impacto da IA no mercado de trabalho e na sociedade como um todo é um tópico relevante. Enquanto a IA tem o potencial de aumentar a eficiência em certos trabalhos, também existe a preocupação com o desemprego em massa em setores mais suscetíveis à automação. A supervisão humana e a crítica são vistas como componentes essenciais no processo de integração da IA, enfatizando a necessidade de uma aplicação ética e regulamentada da tecnologia.

Publicado em Deixe um comentário

INTELIGÊNCIA ARTIFICIAL E DIREITO: ENFRENTANDO A ONDA DE CRIMES DIGITAIS NO BRASIL

O recente incidente de montagens digitais envolvendo alunas de uma escola no Rio de Janeiro, onde suas imagens foram alteradas para parecerem nuas, levanta preocupações significativas sobre os perigos associados ao uso indevido da inteligência artificial em crimes cibernéticos. A polícia está investigando a divulgação dessas imagens forjadas, e embora a legislação específica sobre o uso de IA ainda esteja em desenvolvimento, um projeto de lei está atualmente em audiência pública para abordar essa questão.

Os crimes cometidos com o auxílio dessas tecnologias serão enquadrados nas leis existentes, como o Estatuto da Criança e do Adolescente e o Código Penal.

A advogada Andrea Augé, com vasta experiência em Direito Digital e Crimes na Internet, enfatiza a importância de ferramentas de proteção para minimizar os danos às vítimas em tais situações.

O cerne do problema não reside nas ferramentas tecnológicas em si, mas no seu uso mal-intencionado para cometer crimes ou atos infracionais. Consequentemente, ele defende a regulamentação das plataformas de redes sociais, que frequentemente se tornam veículos para a disseminação desses conteúdos prejudiciais.

É fundamental o monitoramento e a orientação por parte dos pais ou responsáveis para prevenir tais incidentes.

Um relatório alarmante de uma empresa de segurança na internet revelou que, somente em 2020, aproximadamente 100 mil mulheres foram vítimas de alterações digitais em um popular aplicativo de mensagens, que modificavam suas imagens para aparecerem nuas. Este caso sublinha a urgência de uma ação legislativa e conscientização pública para combater a crescente onda de crimes digitais facilitados pela inteligência artificial.

Publicado em Deixe um comentário

REVOLUÇÃO DIGITAL NAS PMES: O IMPACTO E OS DESAFIOS DA IMPLEMENTAÇÃO DA INTELIGÊNCIA ARTIFICIAL

A inteligência artificial (IA) está emergindo como um diferencial potencial para as pequenas e médias empresas (PMEs), oferecendo promessas de eficiência aprimorada e redução de custos, enquanto ao mesmo tempo intensifica a competição no mercado. À medida que as PMEs ponderam sobre a adoção dessa tecnologia avançada, é fundamental que elas compreendam tanto as oportunidades quanto as responsabilidades inerentes.

A IA está cada vez mais inserida em nosso dia a dia, revolucionando a maneira como as empresas operam. Ela automatiza processos rotineiros, melhora a tomada de decisões por meio da análise de dados, fornece atendimento ao cliente através de chatbots e assistentes virtuais, otimiza operações, personaliza o marketing e reforça a detecção de fraudes e segurança. Os benefícios podem ser substanciais, especialmente para PMEs que buscam se diferenciar e crescer em um mercado competitivo.

No entanto, a integração da IA nos negócios não é um caminho sem obstáculos. Requer planejamento estratégico, investimento em novas tecnologias e colaboração com especialistas. Além disso, existem desafios legais consideráveis, particularmente no que diz respeito à privacidade e proteção de dados. A Lei Geral de Proteção de Dados Pessoais (LGPD) do Brasil, por exemplo, estabelece diretrizes claras para a manipulação de dados pessoais, aplicando-se a todas as empresas que operam no país.

Problemas de propriedade intelectual, privacidade de dados, discriminação algorítmica, responsabilidade legal e regulamentações setoriais específicas são aspectos que as PMEs devem abordar com cuidado. A utilização de IA para o gerenciamento de dados pessoais tem suas complexidades, dada a sensibilidade e o risco associado à divulgação ou uso indevido de informações protegidas por lei.

As PMEs devem estar vigilantes e conformes com suas obrigações legais relacionadas à proteção de dados, o que inclui implementar medidas de segurança robustas para prevenir acessos não autorizados e vazamentos de informações. As implicações legais do uso de IA também se estendem à responsabilidade por decisões automatizadas, um território ainda nebuloso em termos de legislação.

As decisões baseadas em IA podem ter consequências significativas para indivíduos ou grupos, e a atribuição de responsabilidade por essas decisões é uma área de intenso debate jurídico. As PMEs precisam estar cientes de que a responsabilidade pode recair tanto sobre a empresa usuária quanto sobre as próprias ferramentas de IA.

Para mitigar riscos e danos, as PMEs devem adotar práticas de governança em IA, como treinamento de funcionários e auditorias regulares, garantindo que as ferramentas de IA estejam alinhadas com as regulamentações aplicáveis. A transparência e a ética no uso da IA são fundamentais para manter a confiança do público e evitar repercussões financeiras ou danos à reputação.

Em resumo, a adoção da IA pode ser uma força transformadora para as PMEs, mas deve ser abordada com diligência e consciência das responsabilidades legais. A tecnologia avança rapidamente, e para que as PMEs mantenham sua relevância e lucratividade em um mundo globalizado, elas devem buscar soluções eficientes e custo-efetivas, sempre ancoradas no compromisso com a proteção dos negócios e dos direitos dos titulares de dados.

Publicado em Deixe um comentário

CERTIFICAÇÃO DIGITAL: A CHAVE PARA A CONFORMIDADE COM A LGPD NA SAÚDE

A entrada em vigor da LGPD no Brasil em setembro de 2020 marcou um ponto importante na área da saúde, trazendo consigo desafios complexos e oportunidades promissoras, especialmente quando se trata da gestão de informações sensíveis de pacientes. Nesse contexto, destacam-se tendências essenciais que têm ganhado relevância, notadamente a integração da inteligência artificial e a ampla adoção da computação em nuvem.

O Cenário da LGPD na Área da Saúde A área da saúde lida com informações altamente sensíveis, abrangendo dados clínicos, genômicos e pessoais dos pacientes. A LGPD estabelece um conjunto rigoroso de regras para garantir a proteção e a privacidade desses dados, com requisitos que impactam diretamente a coleta, o armazenamento e o compartilhamento de informações médicas.

O Papel Fundamental da Inteligência Artificial A aplicação da inteligência artificial no campo da saúde é ampla e multifacetada. Da análise de imagens médicas à geração de diagnósticos e tratamentos personalizados, a IA desempenha um papel fundamental. No contexto da LGPD, a IA pode ser empregada para automatizar a anonimização de dados sensíveis, assegurando que a identidade dos pacientes seja preservada em informações clínicas compartilhadas.

Além disso, a IA desempenha um papel crítico na detecção de violações de segurança de dados. Algoritmos de aprendizado de máquina podem monitorar o tráfego de informações em tempo real, identificando atividades suspeitas e notificando imediatamente as equipes de segurança, contribuindo para o cumprimento da LGPD.

A Computação em Nuvem e sua Relevância para a LGPD A adoção da computação em nuvem está se destacando devido à sua capacidade de reforçar a segurança e a conformidade com a LGPD. A migração de sistemas e dados para ambientes de nuvem permite que as instituições de saúde estabeleçam backups regulares, redundância e criptografia robusta, elementos cruciais para a proteção de informações sensíveis.

A computação em nuvem também oferece escalabilidade e flexibilidade, características essenciais no contexto da saúde, onde o volume de dados continua a crescer exponencialmente. A capacidade de ajustar os recursos conforme a demanda pode ser uma vantagem para as instituições que buscam manter a conformidade com a LGPD.

Desafios e Considerações Éticas A LGPD trouxe mudanças significativas na maneira como a área da saúde lida com dados sensíveis dos pacientes, impondo padrões mais rígidos de proteção e privacidade. A integração da inteligência artificial e da computação em nuvem emerge como uma tendência crucial para atender a essas regulamentações e aprimorar a qualidade do atendimento.

No entanto, é fundamental destacar que, ao adotar essas tecnologias, as instituições de saúde devem fazê-lo de maneira ética e transparente, respeitando estritamente os direitos dos pacientes. A conformidade com a LGPD na área da saúde vai além do cumprimento da lei; também se trata de construir confiança e garantir a segurança dos pacientes, estabelecendo uma base sólida para o futuro da assistência médica no Brasil.

Publicado em Deixe um comentário

DIREITOS E REGULAMENTAÇÃO NA ERA DA INTELIGÊNCIA ARTIFICIAL: UMA ANÁLISE DO PL 2.338/2023

Um dos temas que frequentemente suscita dúvidas e, por vezes, preocupações, é a contratação pela internet. Isso se deve à complexidade inerente aos negócios digitais, seus riscos e aos elementos ocultos por trás das transações eletrônicas. No entanto, é inegável que esses negócios fazem parte do nosso cotidiano e se tornaram inevitáveis. Contratos de consumo e contratos em geral alimentam uma infinidade de transações diárias, envolvendo compras e vendas, aluguéis, contratação de serviços e até mesmo novas maneiras de celebrar contratos tradicionais por meio eletrônico, com assinaturas digitais. Isso é facilitado pela recente Lei dos Cartórios (Lei 14.382/2022), conhecida como Lei do Sistema Eletrônico de Registros Públicos (SERP).

Nesse cenário, é importante notar que muitas dessas negociações não são assinadas por pessoas físicas em ambos os lados, mas sim por robôs com conhecimento e informações sobre a vida e dados da outra parte contratante. Diante disso, surgiu o Projeto de Lei 2.338/2023, com o objetivo de estabelecer normas gerais nacionais para o desenvolvimento, implementação e uso responsável de sistemas de Inteligência Artificial (IA) no Brasil. O propósito principal é proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis em benefício das pessoas, da democracia e do desenvolvimento científico e tecnológico.

Este projeto de lei é notável em termos de qualidade e técnica, pois foi iniciado pelo Ato n.º 4/2022 do Presidente do Senado Federal, que nomeou uma Comissão de Juristas para elaborar uma minuta de substitutivo para outros projetos de lei relacionados à regulamentação da IA.

Neste texto, focaremos nos artigos 7º e 8º do projeto, que fazem parte da Seção II intitulada “Dos direitos associados à informação e compreensão das decisões tomadas por sistemas de Inteligência Artificial.” Esses artigos visam abordar a necessidade de fornecer informações claras e adequadas aos contratantes antes de celebrar contratos ou usar sistemas de IA. Estas informações devem incluir:

  1. O caráter automatizado das interações e decisões que afetam as pessoas.
  2. Uma descrição geral do sistema, tipos de decisões que ele pode tomar e suas consequências.
  3. A identificação dos operadores do sistema de IA e as medidas de governança adotadas no seu desenvolvimento e uso.
  4. O papel do sistema de IA e das pessoas envolvidas nas decisões.
  5. As categorias de dados pessoais utilizados pelo sistema de IA.
  6. Medidas de segurança, não discriminação e confiabilidade, incluindo precisão e cobertura.
  7. Outras informações especificadas em regulamentos.

Além disso, o projeto enfatiza a importância de fornecer informações de forma acessível ao público, usando ícones ou símbolos facilmente reconhecíveis, especialmente quando se trata do caráter automatizado das interações.

O projeto também destaca a necessidade de informar claramente as pessoas expostas a sistemas de reconhecimento de emoções ou categorização biométrica, com ênfase na compreensão desses sistemas, especialmente para pessoas vulneráveis, como crianças, adolescentes, idosos e pessoas com deficiência.

Essas disposições visam concretizar os princípios do projeto, incluindo transparência, explicabilidade, inteligibilidade e auditabilidade. O direito à compreensão dos sistemas de IA se alinha com o direito de acesso estabelecido na Lei Geral de Proteção de Dados (LGPD), permitindo que as pessoas obtenham informações relevantes sobre o tratamento de seus dados pessoais.

A questão da explicabilidade é desafiadora, uma vez que a complexidade dos algoritmos de IA torna difícil para indivíduos leigos compreender completamente seu funcionamento. No entanto, a exigência é mais sobre tornar a informação transparente, inteligível e auditável, possibilitando que as pessoas compreendam o impacto das decisões tomadas por sistemas de IA.

Uma solução interessante pode ser a implementação de práticas de auditoria e regras para tornar os sistemas de IA mais transparentes. Não significa necessariamente entender todos os detalhes dos algoritmos, mas sim garantir que as informações sejam acessíveis a todos, não apenas àqueles com conhecimento técnico em IA.

Em última análise, a regulamentação da IA é essencial para proteger os direitos fundamentais das pessoas. A regulamentação é dinamicamente ajustada de acordo com os riscos potenciais associados à tecnologia. Medidas de governança, categorização de riscos e avaliação de impacto algorítmico são essenciais para garantir a conformidade com as disposições do projeto.

Além disso, à medida que a Comissão de Juristas trabalha na revisão do Código Civil, é apropriado considerar a inclusão de princípios relacionados à IA, como a explicabilidade, para fortalecer a confiabilidade e a transparência dos contratos eletrônicos que envolvem sistemas de IA. A proteção dos direitos associados à informação e compreensão das decisões tomadas pela IA é fundamental e deve ser incorporada nas regulamentações e práticas de negócios.

Publicado em Deixe um comentário

PROTEÇÃO DE DIREITOS AUTORAIS NA ERA DA IA: EQUILÍBRIO ENTRE INOVAÇÃO E CRIATIVIDADE HUMANA

A ascensão da inteligência artificial generativa é, inegavelmente, um divisor de águas no cenário global. À medida que testemunhamos a criação de materiais surpreendentemente realistas gerados por IA, surgem debates cruciais sobre a aplicação de direitos autorais a essas obras.

Um caso que reflete esse embate é o da obra “A Recent Entrance to Paradise”, produzida por uma ferramenta de IA e submetida para registro em agosto de 2023. O veredito do juiz, considerando que uma IA não pode ser reconhecida como autora de uma obra, gerou intensos debates.

No entanto, nos Estados Unidos, o Escritório de Direitos Autorais (US Copyright Office) adotou uma abordagem mais flexível. Eles reconhecem a possibilidade de registrar obras criadas por IA quando há intervenção humana significativa no processo criativo. Isso abre uma perspectiva interessante: arte, música e outras criações geradas com o auxílio da IA podem ser elegíveis para registro de direitos autorais, desde que haja um componente humano substancial.

E no Brasil, a situação não difere muito. Do ponto de vista da legislação, a proteção autoral não pode ser conferida a uma IA. A Lei nº 9.610/98 protege obras intelectuais que se originam das “criações do espírito”, o que, por definição, exclui sistemas de inteligência artificial desprovidos de espírito. Além disso, a lei define o autor como uma “pessoa física criadora de obra literária, artística ou científica”, excluindo, assim, as obras criadas por IA.

Entretanto, a discussão persiste sobre a possibilidade de proteção quando uma quantidade significativa de conteúdo protegido por direito autoral é incorporada na produção de material pela IA. Por exemplo, o uso de IA para criar representações de personagens famosos de desenhos animados ou para gerar imagens que envolvam celebridades levanta preocupações legítimas sobre a imunidade da proteção de direitos autorais.

O Projeto de Lei apresentado pelo deputado Aureo Ribeiro (PL1473/23) no Brasil busca exigir que empresas que operam sistemas de IA forneçam ferramentas que permitam aos autores restringir o uso de suas criações por algoritmos. No entanto, a implementação prática desses controles permanece incerta devido à natureza complexa e opaca das IAs, frequentemente chamadas de “caixas-pretas”, e à imensa quantidade de dados necessária para treiná-las.

Nesse contexto, a sociedade enfrenta o desafio de equilibrar a preservação da originalidade e propriedade intelectual com a inovação trazida pela inteligência artificial. A questão central que permanece é: como conciliar a proteção de direitos autorais com a natureza dinâmica e desafiadora da IA? A solução, em última instância, reside em encontrar abordagens éticas e legais que garantam uma compensação justa aos criadores, ao mesmo tempo em que promovem o desenvolvimento tecnológico.

O futuro da proteção de direitos autorais no contexto da IA dependerá da capacidade da sociedade e da legislação se adaptarem em sintonia com os avanços tecnológicos, alcançando um equilíbrio que estimule a inovação responsável e reconheça as contribuições humanas para a criação artística.

Publicado em Deixe um comentário

A ASCENSÃO DA INTELIGÊNCIA ARTIFICIAL NAS ELEIÇÕES BRASILEIRAS: BENEFÍCIOS E DESAFIOS

Nos últimos anos, a Inteligência Artificial (IA) emergiu como uma ferramenta de grande poder e impacto em diversos setores. Sua promessa de revolucionar a forma como vivemos, trabalhamos e nos relacionamos é inegável. Nesse contexto, torna-se evidente que a inteligência artificial está transformando substancialmente a condução das campanhas políticas e a interação dos eleitores com os candidatos, estando destinada a desempenhar um papel crucial nas eleições de 2024.

As redes sociais desempenham um papel de destaque nas últimas eleições no Brasil, impulsionadas por algoritmos sofisticados e a capacidade de análise de grandes volumes de dados, habilitados pela inteligência artificial. Essa revolução está alterando a maneira de conduzir campanhas políticas, exigindo profissionais altamente capacitados que compreendam profundamente o funcionamento dessa nova ferramenta.

Uma das áreas mais impactadas pela inteligência artificial é a segmentação de eleitores. Através da análise de dados demográficos, comportamentais e históricos, os partidos políticos agora podem direcionar suas mensagens de forma altamente precisa, adaptando-as aos interesses específicos de diversos grupos de eleitores. Esse enfoque personalizado gera campanhas mais atraentes e persuasivas.

Entre as diversas aplicações da inteligência artificial em campanhas eleitorais, a análise de dados do eleitorado se destaca. Essa análise permite uma compreensão profunda dos perfis e preferências dos eleitores, possibilitando a identificação de tendências e interesses da sociedade. Isso, por sua vez, ajuda a traçar estratégias de campanha mais eficazes, sempre alinhadas com as principais demandas da população.

Entretanto, é fundamental ressaltar os desafios éticos e de privacidade que surgem com o uso da inteligência artificial nas eleições. O acesso a grandes volumes de dados deve respeitar as regulamentações legais, em conformidade com a Lei Federal nº 13.709/2018 (Lei Geral de Proteção de Dados – LGPD). O manuseio de informações requer cuidados rigorosos para garantir a proteção da privacidade dos eleitores e prevenir abusos que possam comprometer a integridade do processo eleitoral.

O uso da inteligência artificial nas eleições tem gerado debates intensos, preocupando especialistas e as autoridades eleitorais. A fiscalização adequada dessa nova ferramenta é um desafio adicional. A coleta e o processamento de dados exigem supervisão criteriosa para garantir a privacidade dos cidadãos e a transparência do processo. Vale destacar que o uso indevido dessas tecnologias pode configurar abuso de poder, resultando na cassação do registro ou diploma dos candidatos beneficiados por tais práticas.

Portanto, é inegável a presença crescente da inteligência artificial nas eleições brasileiras, trazendo consigo tanto benefícios quanto desafios. É essencial estabelecer um equilíbrio entre a exploração das vantagens tecnológicas e a proteção dos valores democráticos fundamentais, bem como o cumprimento da legislação eleitoral. A fiscalização contínua e efetiva é crucial para assegurar que a inteligência artificial continue aprimorando o processo eleitoral no Brasil e que seu uso seja pautado na ética, no respeito à democracia e no fomento ao debate de ideias.

Publicado em Deixe um comentário

ANPD PROPÕE MODELO INSTITUCIONAL PARA REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL NO BRASIL

A Autoridade Nacional de Proteção de Dados (ANPD) anunciou hoje, 24 de outubro, sua segunda análise (Nota Técnica nº 16/2023/CGTP/ANPD) referente ao Projeto de Lei nº 2338/2023, que trata da regulamentação do uso de inteligência artificial (IA) no Brasil. Este documento apresenta contribuições significativas para a modificação do projeto de lei, propõe um novo modelo institucional, destaca sete áreas cruciais de intersecção entre o projeto de lei e a Lei Geral de Proteção de Dados Pessoais (LGPD) e faz uma comparação com as práticas regulatórias de autoridades internacionais.

A análise da ANPD propõe a criação de um modelo institucional para a regulamentação de sistemas de IA composto por quatro instâncias complementares, com a Autoridade Nacional desempenhando o papel central na regulamentação desse tema. O modelo sugerido pela ANPD inclui uma atuação coordenada entre órgãos do Poder Executivo, órgãos reguladores setoriais, bem como a criação de um Conselho Consultivo, semelhante ao Conselho Nacional de Proteção de Dados e da Privacidade (CNPD), destinado exclusivamente à regulamentação do uso de IA no país.

Conforme indicado no documento, experiências internacionais demonstram que uma abordagem centralizada, sob a égide de uma única autoridade, oferece benefícios indiscutíveis na formulação de normas, como evidenciado nas experiências da União Europeia, França, Holanda e outros países.

Além disso, o documento realça a proposta de que a competência para elaborar, gerenciar, atualizar e implementar a Estratégia Brasileira de Inteligência Artificial (EBIA) seja atribuída ao Poder Executivo, em vez da autoridade competente, como previsto na redação atual do projeto de lei. De acordo com a nota técnica, a ANPD terá a responsabilidade de contribuir, no âmbito de suas atribuições, para o processo de elaboração e implementação da EBIA.

Durante uma audiência pública realizada no Senado Federal, na Comissão Temporária Interna sobre Inteligência Artificial no Brasil, a Diretora Miriam Wimmer defendeu a ideia de uma autoridade central com uma abordagem regulatória mais centralizada, que atue como uma fonte clara e consistente de orientação para todos os setores e partes envolvidas, eliminando ambiguidades e interpretações divergentes que podem resultar em incertezas legais. A Diretora destacou a capacidade da ANPD de adotar uma abordagem transversal e enfatizou que qualquer expansão de competências depende do fortalecimento institucional da ANPD, incluindo independência técnica, autonomia administrativa e decisória, de acordo com o modelo das agências reguladoras previsto na lei das agências.

Miriam também mencionou a criação de um Fórum de Órgãos Reguladores Setoriais, com o objetivo de facilitar a colaboração entre a autoridade central e os órgãos reguladores setoriais na regulamentação do tema.

A nota técnica propõe alterações legislativas nos artigos 32 a 35 do Capítulo VIII do Projeto de Lei nº 2338, que trata da supervisão e fiscalização. No entanto, ressalta que outras modificações podem ser necessárias e que a ANPD está à disposição do Congresso Nacional para discutir as propostas sugeridas.

A contribuição da ANPD tem como objetivo enfatizar o papel ativo da Autoridade no debate sobre a regulamentação da IA e garantir que a futura lei esteja em conformidade com os princípios e diretrizes estabelecidos pela LGPD.