Publicado em Deixe um comentário

OS DESAFIOS DA PROPRIEDADE INTELECTUAL NA ERA DA IA: REFLEXÕES SOBRE A POLÍTICA DA REDE SOCIAL X

A rede social X, anteriormente conhecida como Twitter, recentemente introduziu uma nova política de privacidade que tem gerado um debate sobre a interseção entre propriedade intelectual e plataformas digitais. Essa política estabelece que os dados compartilhados pelos usuários serão utilizados para o treinamento de modelos de inteligência artificial (IA). Em outras palavras, criações intelectuais e artísticas humanas, incluindo direitos autorais, marcas e patentes, passam a estar à disposição da nona maior rede social do mundo, que possui 556 milhões de usuários.

A implementação dessa nova política representa um risco real de desvalorização da criatividade. Se as plataformas podem empregar o conteúdo dos usuários para aprimorar seus modelos de IA sem compensação adequada, é natural que os criadores se sintam desencorajados a produzir e compartilhar suas obras. Afinal, por que investir tempo e energia na criação de algo original se isso será usado para enriquecer terceiros sem nenhum benefício tangível para o criador?

Quando um usuário decide ingressar em uma rede social, é confrontado com os termos de serviço e, na maioria das vezes, os aceita sem uma leitura cuidadosa. Ao fazer isso, ele concede uma licença gratuita e não exclusiva para o uso do conteúdo que irá produzir. Geralmente, essa permissão se limita à operação, promoção e melhoria dos serviços oferecidos pela própria plataforma. A questão que emerge agora é a extensão dessa licença.

No Brasil, a LGPD está em vigor desde setembro de 2020, regulando a proteção de dados pessoais em meios físicos e digitais. A LGPD define dados pessoais como qualquer informação relacionada a uma pessoa identificada ou identificável e destaca a importância do consentimento do titular dos dados para o tratamento dessas informações.

Além do Brasil, países como Japão, Argentina e os Estados-membros da União Europeia têm suas próprias leis de proteção de dados pessoais. A mudança nos termos da rede social X é global, o que implica que cada jurisdição deve examinar como as questões normativas se aplicam em sua área geográfica. Por exemplo, o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia estabelece padrões rigorosos para a proteção da privacidade e impõe penalidades substanciais por violações. Tanto a LGPD quanto o GDPR enfatizam o consentimento informado e a transparência no tratamento de dados.

Embora os termos de uso frequentemente concedam amplas licenças às plataformas, a expansão dessas licenças para incluir o treinamento de IA pode ultrapassar o que foi originalmente acordado ou mesmo o que é ético.

É importante considerar que os modelos de IA podem, em certa medida, reproduzir o conteúdo original em seus resultados, levando a preocupações sobre a apropriação não autorizada. Esse é um terreno legal que está apenas começando a ser explorado, mas as bases estão lançadas.

Criadores e defensores dos direitos de propriedade intelectual devem estar cientes de que as implicações da nova política da rede social X são apenas a superfície de um problema maior. Por outro lado, advogados especializados em propriedade intelectual têm o dever de esclarecer esse caminho e proteger os direitos fundamentais dos indivíduos.

As plataformas online também enfrentam o desafio de encontrar soluções que atendam tanto aos interesses dos criadores de conteúdo quanto à privacidade e segurança dos usuários. À medida que a IA se torna cada vez mais presente em nossas vidas, a proteção adequada da propriedade intelectual se torna necessária. A rede social X lançou um alerta importante para uma questão urgente.

A comunidade global deve se unir para garantir que o avanço tecnológico não seja alcançado às custas dos direitos fundamentais dos indivíduos. É essencial que as redes sociais reavaliem suas políticas, garantindo que os direitos dos criadores sejam protegidos e respeitados. Simultaneamente, os usuários precisam estar cientes de seus direitos e das licenças que estão concedendo às plataformas.

Publicado em Deixe um comentário

CLONAGEM DE VOZ POR IA: PROTEGENDO A INTEGRIDADE ELEITORAL E A INFORMAÇÃO PÚBLICA

Com o avanço acelerado da inteligência artificial na geração de áudios, a clonagem de voz tornou-se uma prática comum na indústria do entretenimento, sendo utilizada para dublagens e criação de canções com a voz de atores e artistas já falecidos. Contudo, esse avanço também levanta preocupações, pois o uso indevido da IA para criação de deepfakes de voz pode resultar em ações de desinformação alarmantes. É possível enganar eleitores, criar conflitos políticos e ampliar o espaço para teorias da conspiração.

Recentemente, vimos casos em alguns países onde deepfakes foram utilizados para clonar a voz de líderes políticos. Na Eslováquia, por exemplo, dias antes de uma eleição nacional, um clipe de áudio falsificado de Michal Šimečka, líder do Partido Progressista, circulou descrevendo um esquema de fraude nas eleições por meio do suborno de membros da população cigana. Similarmente, no Reino Unido, um vídeo falso do líder do Partido Trabalhista, Keir Starmer, foi compartilhado, no qual ele proferia ofensas contra seus próprios funcionários.

Esses clipes foram prontamente desmentidos por verificadores de fatos, que os identificaram como prováveis falsificações geradas por softwares de IA. No entanto, é preocupante observar que muitas publicações nas redes sociais continuam a afirmar a veracidade desses clipes, enganando ainda mais os usuários. O Facebook, por exemplo, colocou um selo de advertência em uma das publicações, mas não a removeu, enquanto o vídeo de Starmer não recebeu qualquer tipo de advertência.

Com várias eleições programadas para ocorrer na Europa nos próximos meses, incluindo em países como Polônia, Holanda e Lituânia, Thierry Breton, comissário da União Europeia, enviou uma carta a Mark Zuckerberg, CEO da Meta, pressionando para que medidas sejam adotadas para conter a proliferação de deepfakes nas redes sociais.

Nos Estados Unidos, a preocupação com deepfakes também é evidente, especialmente visando as eleições de 2024. Um vídeo falso do ex-presidente Barack Obama surgiu no TikTok, no qual ele endossava uma teoria da conspiração sobre a morte repentina de seu ex-chefe de cozinha, conforme reportado pelo The New York Times. Esse vídeo foi compartilhado por uma das 17 contas do TikTok que promovem informações falsas por meio de áudios, de acordo com um relatório da NewsGuard, empresa especializada em monitorar desinformação online.

Os deepfakes de voz apresentam uma peculiaridade preocupante: são mais difíceis de serem identificados como falsos, se comparados a imagens ou vídeos gerados por IA. Isso os torna eficazes para enganar os usuários e disseminar desinformação. Diante dessa ameaça, a Comissão Eleitoral Federal (FEC) dos Estados Unidos iniciou uma consulta pública para regular conteúdos gerados artificialmente, especialmente no contexto de anúncios políticos, visando garantir a integridade e transparência nas eleições presidenciais de 2024.

Publicado em Deixe um comentário

INOVAÇÃO RESPONSÁVEL EM IA: ANPD CONVIDA A SOCIEDADE PARA CONSULTA SOBRE SANDBOX REGULATÓRIO

A Autoridade Nacional de Proteção de Dados (ANPD) iniciou uma consulta pública sobre seu programa piloto de sandbox regulatório, um ambiente controlado para testar tecnologias relacionadas à inteligência artificial (IA). A intenção é que, através das inovações testadas nesse ambiente, boas práticas possam ser implementadas para garantir conformidade com as normas de proteção de dados pessoais.

O programa piloto é parte de uma iniciativa mais ampla para lidar com as implicações da inteligência artificial e a proteção de dados. A ANPD busca promover a inovação responsável em IA e aumentar a transparência algorítmica.

Este projeto é baseado em um estudo técnico da ANPD, chamado “Sandbox regulatório de inteligência artificial e proteção de dados no Brasil”, que apresenta como os sandboxes regulatórios podem ser efetivamente utilizados por Autoridades de Proteção de Dados para regular tecnologias emergentes. A ANPD está colaborando com o Banco de Desenvolvimento da América Latina e do Caribe (CAF) nesse processo, compartilhando conhecimentos para o desenvolvimento desses ambientes regulatórios.

A consulta à sociedade, que está aberta até 1º de novembro de 2023, tem como objetivo coletar informações e dados relevantes para moldar o sandbox regulatório. Essa é uma maneira de incluir uma variedade de perspectivas e entender como a regulamentação futura pode afetar diferentes partes interessadas no contexto da inteligência artificial e proteção de dados. A transparência e a inclusão estão no centro deste processo, com todas as contribuições disponíveis para consulta.

Publicado em Deixe um comentário

IA NO INSTAGRAM: META PLANEJA NOVIDADES COM FOCO NA TRANSPARÊNCIA E CRIATIVIDADE

A Meta está se preparando para uma potencial revolução nos seus aplicativos, incluindo Facebook, Instagram e WhatsApp, com o lançamento de uma ferramenta de Inteligência Artificial generativa. Embora a novidade ainda esteja nos bastidores, a empresa já está trabalhando em possíveis ajustes e melhorias.

Uma das principais mudanças pode ser a introdução de um selo distintivo no Instagram, sinalizando quando uma imagem foi gerada por meio de Inteligência Artificial. Esta informação foi encontrada no código Beta do Instagram, indicando um esforço para promover a transparência e conscientização sobre o uso da IA generativa. Isso é importante para combater a disseminação de conteúdos enganosos e identificar criações baseadas em geração de imagens por texto.

A IA para os produtos da Meta já havia dado indícios de sua chegada, com menções iniciais em junho deste ano. A empresa revelou, em uma reunião interna, planos para recursos de edição de fotos no Instagram, utilizando prompts de texto, em um formato semelhante ao DALL-E e MidJourney, além de um chat ao estilo ChatGPT. Outras possíveis adições incluem um recurso de criação de stickers impulsionado por IA, que geraria novas figurinhas a partir de texto.

Embora nenhum anúncio oficial tenha sido feito até o momento, especula-se que a Meta possa basear sua IA generativa no modelo de linguagem Llama 2, desenvolvido em colaboração com a Microsoft. Este Large Language Model (LLM) foi treinado com 40% mais dados do que seu predecessor, Llama 1, e está disponível como código aberto, sinalizando um passo significativo em direção a avanços promissores na integração de IA nas plataformas da Meta.