Publicado em Deixe um comentário

CLONAGEM DE VOZ POR IA: PROTEGENDO A INTEGRIDADE ELEITORAL E A INFORMAÇÃO PÚBLICA

Com o avanço acelerado da inteligência artificial na geração de áudios, a clonagem de voz tornou-se uma prática comum na indústria do entretenimento, sendo utilizada para dublagens e criação de canções com a voz de atores e artistas já falecidos. Contudo, esse avanço também levanta preocupações, pois o uso indevido da IA para criação de deepfakes de voz pode resultar em ações de desinformação alarmantes. É possível enganar eleitores, criar conflitos políticos e ampliar o espaço para teorias da conspiração.

Recentemente, vimos casos em alguns países onde deepfakes foram utilizados para clonar a voz de líderes políticos. Na Eslováquia, por exemplo, dias antes de uma eleição nacional, um clipe de áudio falsificado de Michal Šimečka, líder do Partido Progressista, circulou descrevendo um esquema de fraude nas eleições por meio do suborno de membros da população cigana. Similarmente, no Reino Unido, um vídeo falso do líder do Partido Trabalhista, Keir Starmer, foi compartilhado, no qual ele proferia ofensas contra seus próprios funcionários.

Esses clipes foram prontamente desmentidos por verificadores de fatos, que os identificaram como prováveis falsificações geradas por softwares de IA. No entanto, é preocupante observar que muitas publicações nas redes sociais continuam a afirmar a veracidade desses clipes, enganando ainda mais os usuários. O Facebook, por exemplo, colocou um selo de advertência em uma das publicações, mas não a removeu, enquanto o vídeo de Starmer não recebeu qualquer tipo de advertência.

Com várias eleições programadas para ocorrer na Europa nos próximos meses, incluindo em países como Polônia, Holanda e Lituânia, Thierry Breton, comissário da União Europeia, enviou uma carta a Mark Zuckerberg, CEO da Meta, pressionando para que medidas sejam adotadas para conter a proliferação de deepfakes nas redes sociais.

Nos Estados Unidos, a preocupação com deepfakes também é evidente, especialmente visando as eleições de 2024. Um vídeo falso do ex-presidente Barack Obama surgiu no TikTok, no qual ele endossava uma teoria da conspiração sobre a morte repentina de seu ex-chefe de cozinha, conforme reportado pelo The New York Times. Esse vídeo foi compartilhado por uma das 17 contas do TikTok que promovem informações falsas por meio de áudios, de acordo com um relatório da NewsGuard, empresa especializada em monitorar desinformação online.

Os deepfakes de voz apresentam uma peculiaridade preocupante: são mais difíceis de serem identificados como falsos, se comparados a imagens ou vídeos gerados por IA. Isso os torna eficazes para enganar os usuários e disseminar desinformação. Diante dessa ameaça, a Comissão Eleitoral Federal (FEC) dos Estados Unidos iniciou uma consulta pública para regular conteúdos gerados artificialmente, especialmente no contexto de anúncios políticos, visando garantir a integridade e transparência nas eleições presidenciais de 2024.

Publicado em Deixe um comentário

INOVAÇÃO RESPONSÁVEL EM IA: ANPD CONVIDA A SOCIEDADE PARA CONSULTA SOBRE SANDBOX REGULATÓRIO

A Autoridade Nacional de Proteção de Dados (ANPD) iniciou uma consulta pública sobre seu programa piloto de sandbox regulatório, um ambiente controlado para testar tecnologias relacionadas à inteligência artificial (IA). A intenção é que, através das inovações testadas nesse ambiente, boas práticas possam ser implementadas para garantir conformidade com as normas de proteção de dados pessoais.

O programa piloto é parte de uma iniciativa mais ampla para lidar com as implicações da inteligência artificial e a proteção de dados. A ANPD busca promover a inovação responsável em IA e aumentar a transparência algorítmica.

Este projeto é baseado em um estudo técnico da ANPD, chamado “Sandbox regulatório de inteligência artificial e proteção de dados no Brasil”, que apresenta como os sandboxes regulatórios podem ser efetivamente utilizados por Autoridades de Proteção de Dados para regular tecnologias emergentes. A ANPD está colaborando com o Banco de Desenvolvimento da América Latina e do Caribe (CAF) nesse processo, compartilhando conhecimentos para o desenvolvimento desses ambientes regulatórios.

A consulta à sociedade, que está aberta até 1º de novembro de 2023, tem como objetivo coletar informações e dados relevantes para moldar o sandbox regulatório. Essa é uma maneira de incluir uma variedade de perspectivas e entender como a regulamentação futura pode afetar diferentes partes interessadas no contexto da inteligência artificial e proteção de dados. A transparência e a inclusão estão no centro deste processo, com todas as contribuições disponíveis para consulta.

Publicado em Deixe um comentário

IA NO INSTAGRAM: META PLANEJA NOVIDADES COM FOCO NA TRANSPARÊNCIA E CRIATIVIDADE

A Meta está se preparando para uma potencial revolução nos seus aplicativos, incluindo Facebook, Instagram e WhatsApp, com o lançamento de uma ferramenta de Inteligência Artificial generativa. Embora a novidade ainda esteja nos bastidores, a empresa já está trabalhando em possíveis ajustes e melhorias.

Uma das principais mudanças pode ser a introdução de um selo distintivo no Instagram, sinalizando quando uma imagem foi gerada por meio de Inteligência Artificial. Esta informação foi encontrada no código Beta do Instagram, indicando um esforço para promover a transparência e conscientização sobre o uso da IA generativa. Isso é importante para combater a disseminação de conteúdos enganosos e identificar criações baseadas em geração de imagens por texto.

A IA para os produtos da Meta já havia dado indícios de sua chegada, com menções iniciais em junho deste ano. A empresa revelou, em uma reunião interna, planos para recursos de edição de fotos no Instagram, utilizando prompts de texto, em um formato semelhante ao DALL-E e MidJourney, além de um chat ao estilo ChatGPT. Outras possíveis adições incluem um recurso de criação de stickers impulsionado por IA, que geraria novas figurinhas a partir de texto.

Embora nenhum anúncio oficial tenha sido feito até o momento, especula-se que a Meta possa basear sua IA generativa no modelo de linguagem Llama 2, desenvolvido em colaboração com a Microsoft. Este Large Language Model (LLM) foi treinado com 40% mais dados do que seu predecessor, Llama 1, e está disponível como código aberto, sinalizando um passo significativo em direção a avanços promissores na integração de IA nas plataformas da Meta.