Publicado em Deixe um comentário

FALHA DE SEGURANÇA EM CREDENCIAIS COMPROMETE MILHÕES DE CONTAS NA 23ANDME

A empresa de testes genéticos 23andMe recentemente se viu no centro de uma questão de segurança de dados, com a divulgação de que cerca de 6,9 milhões de contas de usuários foram comprometidas. A questão surgiu após um incidente em outubro do ano passado, onde dados pessoais e sensíveis dos usuários foram acessados indevidamente.

De acordo com a 23andMe, o vazamento de dados não se deveu a uma falha direta em seus sistemas, mas sim ao uso, por parte dos usuários, de credenciais de acesso (senhas e e-mails) que já haviam sido expostas em outras violações de dados em serviços diferentes. Este método de ataque, conhecido como “credential stuffing”, aproveita-se de senhas e emails já comprometidos em outras plataformas para acessar contas em diversos serviços.

Após identificar o problema, a 23andMe agiu resetando as senhas dos usuários afetados e incentivando a adoção da autenticação de dois fatores (2FA) – uma prática agora obrigatória para todos os usuários do serviço.

Uma investigação interna revelou que os hackers conseguiram acessar os dados de milhões de usuários através do login em aproximadamente 14 mil contas. Este alcance extenso foi possível devido ao recurso opcional DNA Relatives da 23andMe, que permite aos usuários compartilhar informações genéticas e pessoais com outros usuários, potencialmente parentes distantes. A maioria dos usuários optou por compartilhar uma quantidade significativa de suas informações através deste recurso.

Este incidente levanta questões importantes sobre a segurança de dados em serviços online, especialmente aqueles que lidam com informações pessoais e sensíveis. Ressalta a necessidade de práticas robustas de segurança por parte dos usuários, como a utilização de senhas únicas para diferentes serviços e a ativação de medidas de segurança adicionais como a 2FA. Ao mesmo tempo, coloca em evidência a responsabilidade das empresas em proteger os dados de seus clientes e em orientá-los sobre práticas seguras de gerenciamento de informações pessoais.

Publicado em Deixe um comentário

COMO DEVERÍAMOS REGULAR A INTELIGÊNCIA ARTIFICIAL EM NOSSA SOCIEDADE?

Atualmente, estamos vivendo uma era onde a inteligência artificial (IA) se tornou um pilar central nas relações econômicas e sociais, operando predominantemente através de plataformas tecnológicas avançadas. Este cenário tem suscitado debates em nível global sobre a necessidade de estabelecer regulamentações para a IA, buscando assim um uso mais ético e responsável dessa tecnologia, de modo a proteger os direitos dos indivíduos.

A União Europeia (UE) está na vanguarda deste movimento com sua proposta conhecida como AI Act. Esta iniciativa tem como objetivo principal assegurar a segurança, respeitar os direitos humanos, incrementar a confiança e a transparência no uso da IA, além de fomentar a inovação no mercado digital unificado. A proposta da UE busca prevenir preconceitos e discriminações e estabelecer diretrizes claras para sistemas de IA de alto e baixo risco. Em contraste, França, Alemanha e Itália recentemente adotaram uma abordagem de autorregulação obrigatória, que envolve códigos de conduta para os principais modelos de IA, uma estratégia que tende a ser menos restritiva do que as regulações governamentais e que pode preservar a competitividade no mercado global.

Nos Estados Unidos, uma ordem executiva assinada pelo presidente Joe Biden em outubro deste ano reflete preocupações similares. Esta ordem exige que desenvolvedores de sistemas de IA compartilhem resultados de testes e segurança com o governo, e estabelece a adoção de padrões pelo Instituto Nacional de Padrões e Tecnologia (NIST). Além disso, impõe a utilização de marca d’água para ajudar a identificar conteúdos criados por IA, uma medida para combater fraudes e desinformação.

No Brasil, inspirado pelo movimento da UE, o Projeto de Lei nº 2.338/2023 está em discussão, visando regulamentar o uso de sistemas baseados em IA. Atualmente, apenas a Lei Geral de Proteção de Dados (Lei 13.709/2018) oferece algum nível de proteção contra riscos relacionados ao uso de IA, principalmente no que tange à revisão de decisões automatizadas que afetam direitos individuais.

Este cenário emergente sinaliza algumas tendências claras em relação à autorregulação na IA. Um dos aspectos centrais é a importância da governança como um elemento chave no uso ético da IA. Existe um consenso crescente em torno de quatro pilares éticos fundamentais para a IA: o respeito à autonomia individual, o princípio da precaução, a equidade e a transparência.

No contexto da autorregulação, os programas de governança em IA são importantes para assegurar o uso ético da tecnologia, a transparência, a responsabilidade corporativa, a segurança e privacidade dos dados, a justiça social, a conformidade legal e regulatória, e a gestão de riscos. É importante notar que, apesar de um consenso teórico sobre estes temas, na prática, muitas empresas de tecnologia enfrentam críticas em relação à eficácia e transparência de seus comitês de ética, alguns dos quais foram até mesmo desmantelados.

Em resumo, a evolução e adaptação das regulamentações em torno da IA são essenciais para garantir seu uso ético e responsável. A definição de um “mínimo ético” com diretrizes universais é fundamental para assegurar princípios inegociáveis na ética da IA, como respeito à autonomia individual, precaução, equidade e transparência. A tendência de autorregulação e os programas de governança em IA tornam-se essenciais para garantir a conformidade legal, a responsabilidade corporativa, a justiça social e a gestão eficiente de riscos. O futuro da IA, portanto, dependerá da capacidade das organizações de integrar esses princípios éticos no desenvolvimento e na implementação de seus sistemas, promovendo um uso da IA que seja benéfico e sustentável para toda a sociedade.

Publicado em Deixe um comentário

IA EM ASCENSÃO: ENTRE AVANÇOS TECNOLÓGICOS E A BUSCA PELA ÉTICA EM 2023

2023 tem sido um marco para a Inteligência Artificial (IA). À medida que os gigantes tecnológicos competem para desenvolver ferramentas inovadoras, a sociedade civil e especialistas alertam sobre os cuidados necessários na utilização desta tecnologia emergente.

A ascensão de chatbots generativos, como o renomado ChatGPT da OpenAI, redefine o nosso relacionamento com a tecnologia. Com sua quarta versão lançada recentemente, tornou-se um instrumento não apenas para especialistas, mas também para o público em geral. A explosão de aplicativos de chatbot baseados em IA no primeiro trimestre de 2023, evidencia o impacto dessas ferramentas, diversificando as possibilidades para setores como comunicação e design.

Até mesmo o Google não ficou para trás e mergulhou nesta onda, explorando não apenas a geração de texto, mas também a criação de imagens. O poder da IA ficou indiscutivelmente claro quando vimos imagens geradas de personalidades icônicas como o Papa Francisco e a saudosa Elis Regina. No entanto, isso acendeu o sinal de alerta para os perigos da desinformação e os desafios éticos associados ao direito à imagem.

Os efeitos dessa revolução são palpáveis em todos os setores. Em Hollywood, a introdução da IA nas produções levantou questões sobre o futuro do trabalho humano na indústria. E no coração do Vale do Silício, líderes tecnológicos surpreenderam ao pedir uma pausa no avanço desta tecnologia até que padrões de segurança sejam estabelecidos.

Neste cenário, quatro pilares se destacam para uma aplicação responsável da IA:

  1. Ética e Moralidade: A IA deve ser usada para o bem comum, evitando preconceitos e discriminações.
  2. Proteção de Dados: A privacidade do usuário deve ser a prioridade máxima.
  3. Aplicação Consultiva: A IA deve ser uma ferramenta, não um substituto para habilidades humanas.
  4. Responsabilidade dos Criadores: Aqueles que desenvolvem e distribuem modelos de IA devem ser responsáveis por suas aplicações.

No front regulatório, a Europa já avança com seu AI Act. No Brasil, o PL nº 2338/2023, fruto de um esforço conjunto da Comissão de Juristas, tenta moldar o caminho para uma era de IA mais segura e ética.

À medida que a IA se torna parte integrante de nossas vidas, o equilíbrio entre inovação e responsabilidade se torna vital. O desafio agora é como moldar esta tecnologia em benefício de todos, garantindo um futuro em que a IA atue como aliada, e não adversária, da humanidade.