Publicado em Deixe um comentário

REGULAÇÃO DE INTELIGÊNCIA ARTIFICIAL ENFRENTA RESISTÊNCIA E GERA DEBATE NO CONGRESSO

A votação do Projeto de Lei 2338, conhecido como PL de IA, foi adiada novamente pela Comissão Temporária Interna sobre Inteligência Artificial no Senado (CTIA), em resposta à pressão crescente da indústria e a ataques nas redes sociais. O texto, que deveria ser votado, enfrentou resistência significativa tanto de setores empresariais quanto de movimentos online, especialmente da extrema-direita, que associaram erroneamente o projeto à censura.

O presidente da CTIA indicou que a votação só ocorrerá após todos os pontos controversos serem devidamente esclarecidos. Ele também abordou a desinformação que circula sobre o PL, afirmando que não haverá votação enquanto todas as dúvidas não forem sanadas. A disseminação de campanhas desinformativas, alegando que o projeto de lei conferiria poderes excessivos ao governo, é uma das principais causas do adiamento.

A pressão da indústria também foi evidente, com entidades representativas lançando comunicados contrários à aprovação do projeto. O setor argumenta que as regras propostas podem prejudicar a inovação e isolar o país tecnologicamente. Além disso, a crítica foi direcionada à chamada “carga de governança excessiva” imposta aos desenvolvedores de IA e à escolha da Autoridade Nacional de Proteção de Dados (ANPD) como coordenadora do sistema de fiscalização, considerando que a ANPD ainda está em fase de estruturação.

Representantes das empresas de tecnologia, que vêm intensificando sua oposição ao PL, marcaram presença significativa na última sessão do Senado, aproveitando seus crachás da Câmara para garantir posições privilegiadas no auditório. As principais objeções das big techs incluem questões sobre direitos autorais em treinamentos de IA, classificação de sistemas de recomendação como de “alto risco” e exigências de transparência.

O adiamento da votação provocou reações imediatas na sociedade civil, com mobilizações para pressionar o Congresso Nacional e intensificar o debate nas redes sociais. Grupos que defendem a regulamentação da IA, como organizações de defesa de direitos e profissionais de dublagem, expressaram sua insatisfação com o adiamento, destacando a necessidade de continuar a pressão sobre os legisladores.

Apesar das preocupações da indústria, diversos estudiosos e organizações da sociedade civil argumentam que a regulação não impede a inovação. Eles comparam a situação atual com outras regulações históricas, como o Código de Defesa do Consumidor e a Lei Geral de Proteção de Dados Pessoais, que demonstraram que regulação e inovação podem coexistir. Segundo esses especialistas, a regulação baseada em riscos dos sistemas de IA pode, na verdade, estimular uma inovação responsável, alinhada ao desenvolvimento econômico, tecnológico e social, ao mesmo tempo em que protege direitos fundamentais.

Publicado em Deixe um comentário

BIG TECHS FIRMAM ACORDO PARA SEGURANÇA DA INTELIGÊNCIA ARTIFICIAL

Acordo Global de Segurança para Inteligência Artificial

Recentemente, líderes das maiores empresas de tecnologia do mundo se reuniram na Cúpula de Segurança da IA em Seul para discutir um importante acordo internacional. A cúpula reuniu empresas de destaque como a Microsoft, Amazon e OpenAI, com o objetivo de formular diretrizes que garantam a segurança no desenvolvimento e uso da inteligência artificial.

Cooperação Global pela Segurança da IA

O pacto firmado durante a cúpula conta com o apoio de grandes potências globais, incluindo Estados Unidos, China, Canadá, Reino Unido, França, Coreia do Sul e Emirados Árabes Unidos. Este acordo busca estabelecer práticas seguras para o desenvolvimento das tecnologias de IA mais avançadas, criando um ambiente onde a inovação tecnológica não comprometa a segurança global.

Estrutura de Segurança e Linhas Vermelhas

Entre as principais medidas do acordo está a criação de frameworks de segurança para desenvolvedores de IA. Estes frameworks são essenciais para medir e enfrentar desafios, estabelecendo “linhas vermelhas” para riscos considerados intoleráveis, como ciberataques automatizados e a produção de armas biológicas. A ideia é que estas diretrizes fortaleçam a segurança contra as ameaças mais graves que podem surgir com o avanço da IA.

Mecanismo de Interrupção de Emergência

Uma das propostas mais discutidas durante a cúpula foi a criação de um “botão de pânico”. Este mecanismo permitirá a interrupção instantânea do desenvolvimento de modelos de IA caso os riscos associados não sejam mitigados de maneira eficaz. Esta medida visa garantir que, em situações de emergência, as empresas possam rapidamente cessar operações potencialmente perigosas.

Transparência e Prestação de Contas

Além das medidas de segurança, o acordo enfatiza a necessidade de transparência e prestação de contas por parte das empresas que desenvolvem IA. A transparência é vista como um pilar fundamental para a construção de confiança entre desenvolvedores, reguladores e o público em geral.

O acordo firmado na Cúpula de Segurança da IA marca a primeira vez que lideranças de diferentes partes do mundo concordam com princípios comuns de segurança para a inteligência artificial. Este marco histórico reflete um esforço conjunto para garantir que o desenvolvimento da IA siga diretrizes seguras e responsáveis, prevenindo possíveis abusos e promovendo um futuro mais seguro para todos.

Assim, a colaboração internacional e o compromisso das big techs em seguir práticas seguras no desenvolvimento da IA representam um passo significativo para a construção de um ambiente tecnológico mais seguro e confiável.

Publicado em Deixe um comentário

INOVAÇÃO COM CONSCIÊNCIA: PROMOVENDO A TECNOLOGIA RESPONSÁVEL E A EMPATIA DIGITAL

A influência da tecnologia na sociedade é inegável e abrange uma ampla gama de efeitos, tanto positivos quanto negativos, de natureza simples e complexa. À medida que a tecnologia desempenha um papel cada vez mais central em nossas vidas, surge uma pressão crescente para que as empresas sejam conscientes das repercussões de suas inovações. No entanto, é fundamental lembrar que, mesmo quando as tecnologias são desenvolvidas com as melhores intenções, elas podem acarretar consequências não previstas.

A promoção da tecnologia responsável é de importância crítica, visando garantir que o desenvolvimento, a implementação e o uso de novas tecnologias ocorram de forma segura e sustentável. Essa abordagem está intimamente relacionada ao Objetivo de Desenvolvimento Sustentável (ODS) 9 da ONU, que busca impulsionar a inovação tecnológica de maneira inclusiva e equitativa.

Quando aplicada pelas empresas, a tecnologia responsável visa minimizar os possíveis efeitos negativos da tecnologia na sociedade e no meio ambiente, ao mesmo tempo que maximiza os benefícios para os negócios. Isso inclui a retenção de clientes, melhoria da percepção de marca, conformidade legal, atração de talentos e gerenciamento proativo de consequências não desejadas.

Um aspecto importante da implementação da tecnologia responsável é a formação de equipes diversificadas. Isso permite que diferentes perspectivas iluminem o processo de criação, garantindo empatia em relação às necessidades das pessoas e do planeta. A diversidade de pontos de vista é essencial para fomentar a inovação e criar tecnologias que impulsionem uma transformação positiva na sociedade.

O objetivo é fazer da responsabilidade e da empatia não apenas um posicionamento e uma comunicação, mas princípios fundamentais que permeiam todas as atividades da empresa. É importante lembrar que nossos cérebros estão naturalmente adaptados para a interação face a face, na qual o feedback imediato, incluindo expressões verbais e não verbais, desempenha um grande papel na comunicação eficaz. No entanto, nas interações virtuais baseadas em texto, vídeo ou imagens, perdemos esse ciclo de feedback em tempo real, o que compromete a empatia. A capacidade de interpretar emoções e pontos de vista do outro se torna mais desafiadora quando se baseia apenas no que é comunicado digitalmente.

É fundamental não apenas considerar as necessidades das pessoas com deficiência, mas também daqueles que enfrentam dificuldades na compreensão do conteúdo, como idosos com visão reduzida, pessoas com pouca familiaridade com a internet, não nativos do idioma do site ou aplicativo, indivíduos com baixa alfabetização e até mesmo aqueles que enfrentam limitações situacionais, como conectividade de internet lenta.

Ao enfocar a empatia digital, promovemos uma web mais inclusiva e acessível. Isso é essencial, considerando que uma parte significativa da população, de acordo com o Censo de 2023 do IBGE, enfrenta algum tipo de deficiência. Ignorar a empatia digital pode levar a uma desconexão com uma ampla parcela do público e, em última análise, resultar em perdas financeiras. É preocupante observar que, de acordo com um estudo realizado em 2022, a grande maioria dos sites brasileiros ainda não é acessível para pessoas com deficiência.

A tecnologia responsável, aliada aos princípios da empatia, não só nos ajuda a compreender as necessidades das pessoas, mas também a criar produtos e soluções que atendam às expectativas dos clientes. Isso fortalece a entrega de soluções eficazes, além de construir um legado empresarial comprometido com a sustentabilidade e o bem-estar das futuras gerações.