Publicado em Deixe um comentário

RELATÓRIO DA UNIÃO EUROPEIA APONTA INSUFICIÊNCIAS NA TRANSPARÊNCIA DO CHATGPT

Uma equipe do órgão de defesa da privacidade da União Europeia (UE) divulgou um relatório indicando que os esforços da OpenAI para diminuir o número de resultados factualmente incorretos do ChatGPT ainda não são suficientes para atender às rigorosas políticas de dados da UE.

O relatório aponta que, embora as iniciativas para aumentar a transparência sejam positivas para evitar interpretações errôneas dos resultados do ChatGPT, essas medidas não bastam para garantir a precisão dos dados, conforme exigido pelas normas da UE.

No ano passado, as autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões relacionadas ao ChatGPT, após preocupações levantadas por reguladores nacionais sobre o serviço de inteligência artificial amplamente utilizado. Segundo o relatório, investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membro ainda estão em andamento, e, portanto, os resultados completos não podem ser divulgados. Assim, os pontos destacados no relatório devem ser vistos como observações comuns entre as autoridades nacionais.

Uma regra fundamental de proteção de dados na UE é a exatidão. No entanto, o relatório enfatiza que, devido à natureza probabilística do ChatGPT, o modelo pode gerar informações tendenciosas ou fabricadas. Além disso, os resultados fornecidos pelo ChatGPT podem ser interpretados pelos usuários como fatos precisos, sem considerar a veracidade das informações.

É importante ressaltar a necessidade contínua de melhorar os mecanismos de precisão no ChatGPT para que se alinhem plenamente com os rigorosos padrões de proteção de dados da UE, destacando os desafios e a complexidade envolvidas na gestão da precisão em sistemas de inteligência artificial.

Publicado em Deixe um comentário

COLORADO LIDERA INICIATIVA PIONEIRA NA REGULAÇÃO DE IA PARA EMPRESAS PRIVADAS

O estado do Colorado está prestes a se destacar como o primeiro nos Estados Unidos a impor restrições abrangentes ao uso de inteligência artificial (IA) por empresas privadas. A aguardada lei de proteção ao consumidor para inteligência artificial, SB24-205, foi recentemente encaminhada ao governador para assinatura e, se aprovada, entrará em vigor em 1º de fevereiro de 2026. Esta legislação inovadora busca proteger os cidadãos contra a discriminação algorítmica, exigindo que tanto desenvolvedores quanto implementadores de sistemas de IA de alto risco adotem práticas diligentes e responsáveis.

Definição de Sistemas de IA de Alto Risco

No contexto do SB24-205, sistemas de IA de alto risco são definidos como aqueles que, quando implementados, podem afetar negativamente a segurança ou os direitos fundamentais, influenciando substancialmente decisões consequentes. Estes sistemas necessitam de rigorosas medidas de segurança da informação para evitar seu uso indevido, já que podem representar riscos significativos tanto para os titulares dos dados quanto para a reputação das empresas que os utilizam.

Obrigações dos Desenvolvedores

De acordo com a nova lei, desenvolvedores de sistemas de IA de alto risco deverão:

  1. Divulgar Informações Cruciais: Fornecer documentação detalhada aos implementadores sobre o uso pretendido do sistema, riscos conhecidos ou previsíveis, um resumo dos dados utilizados para treinamento, possíveis vieses e medidas de mitigação de riscos.
  2. Declaração Pública: Emitir uma declaração pública resumindo os tipos de sistemas de alto risco desenvolvidos e disponíveis para os implementadores.
  3. Notificação de Discriminação: Informar o procurador-geral e os implementadores conhecidos sobre qualquer discriminação algorítmica descoberta, seja por autoavaliação ou aviso do implementador, dentro de 90 dias.

Obrigações dos Implementadores

Implementadores de sistemas de IA de alto risco devem:

  1. Política de Gestão de Riscos: Estabelecer uma política que governe o uso de IA de alto risco, especificando processos e pessoal responsáveis por identificar e mitigar a discriminação algorítmica.
  2. Avaliação de Impacto: Concluir uma avaliação de impacto para mitigar possíveis abusos antes que os consumidores usem seus produtos.
  3. Notificação ao Consumidor: Informar os consumidores sobre itens especificados se o sistema de IA de alto risco tomar uma decisão consequente.
  4. Direito de Exclusão: Se o implementador for um controlador sob a Lei de Privacidade do Colorado (CPA), deve informar o consumidor sobre o direito de optar por não ser perfilado em decisões totalmente automatizadas.
  5. Correção de Dados: Permitir que os consumidores corrijam dados pessoais incorretos processados pelo sistema ao tomar uma decisão consequente.
  6. Revisão Humana: Oferecer aos consumidores a oportunidade de apelar, através de revisão humana, uma decisão consequente adversa decorrente da implementação do sistema, se tecnicamente viável.
  7. Detecção de Conteúdo Sintético: Garantir que os usuários possam detectar qualquer conteúdo sintético gerado e informar aos consumidores que estão interagindo com um sistema de IA.

Cláusula de Porto Seguro

A lei inclui uma cláusula de porto seguro, fornecendo uma defesa afirmativa (sob a lei do Colorado em um tribunal do Colorado) para desenvolvedores ou implementadores que:

  1. Descubram e corrijam uma violação por meio de testes internos ou equipes de segurança.
  2. Cumprem com o framework de gestão de riscos de IA do Instituto Nacional de Padrões e Tecnologia (NIST) ou outro framework de gestão de riscos reconhecido nacional ou internacionalmente.

Impacto e Implicações Futuras

A iniciativa do Colorado marca um avanço significativo na regulamentação do uso de IA, destacando a importância de práticas responsáveis e transparentes no desenvolvimento e implementação dessas tecnologias. Ao estabelecer regras claras e rigorosas para evitar a discriminação algorítmica, a legislação visa proteger os consumidores de decisões potencialmente prejudiciais tomadas por sistemas de IA.

Conforme a tecnologia continua a avançar rapidamente, outras jurisdições podem observar atentamente a abordagem pioneira do Colorado, adotando medidas semelhantes para garantir que a inteligência artificial seja desenvolvida e utilizada de maneira ética e justa. A promulgação desta lei coloca o Colorado na vanguarda da regulamentação de IA e serve como um modelo para equilibrar a inovação tecnológica com a proteção dos direitos dos consumidores.

Publicado em Deixe um comentário

INVESTIMENTOS EM DADOS, SEGURANÇA E EXPERIÊNCIA DO CLIENTE NO SETOR FINANCEIRO BRASILEIRO

Em 2024, as instituições financeiras brasileiras devem investir R$ 47,4 bilhões em dados, segurança e experiência do cliente. Um dos principais impulsionadores desses gastos é a conformidade contra crimes financeiros, especialmente entre os 113 bancos associados à Federação Brasileira de Bancos (Febraban).

No ano passado, R$ 39,9 milhões foram destinados ao treinamento de 226,4 mil profissionais de tecnologia, representando um aumento de 139% em relação a 2022. Este crescimento nos custos de compliance não é exclusivo do Brasil, pois toda a América Latina registrou um aumento de 97% nos custos em 2023, com um desembolso total de US$ 15 bilhões, conforme estudo da Forrester Consulting para a LexisNexis Risk Solutions. As instituições financeiras buscam maneiras de reduzir custos enquanto cumprem as regulamentações.

As instituições financeiras possuem um arcabouço normativo robusto que exige conformidade constante com as transações para garantir segurança e credibilidade. Investimentos substanciais em tecnologia e controles internos são essenciais para minimizar os impactos financeiros de possíveis fraudes. O sistema financeiro brasileiro, considerado um dos mais modernos do mundo, permite identificar indícios de crimes por meio de transações suspeitas, seguindo os normativos do Banco Central.

Dentre os crimes financeiros mais comuns, a abertura e movimentação de contas digitais com documentos falsos se destacam, muitas vezes usadas para ocultar recursos ilícitos. Além disso, práticas como phishing, hacking, ataques de malware e fraudes por cartão de crédito são frequentes, causando prejuízos bilionários. Apenas 5% dos valores arrecadados por criminosos cibernéticos são recuperados, com perdas atingindo R$ 2,5 bilhões em 2022.

A resposta a esses desafios inclui a criação de cartilhas educativas e recomendações para prevenir golpes. Mesmo com medidas de segurança robustas, as instituições financeiras enfrentam dificuldades para rastrear contas fraudulentas devido às estratégias adaptativas dos golpistas.

Apesar das perdas e dos altos custos de combate às fraudes, os bancos não repassam esses prejuízos aos clientes. A conformidade e a segurança da informação são vitais para a operação bancária e a cibersegurança é regulamentada por lei. Os bancos devem cumprir normas de compliance para evitar multas e garantir a continuidade de suas operações.

A demanda por profissionais qualificados e o desenvolvimento de soluções tecnológicas são fundamentais para a economia brasileira, onde o setor de serviços representa aproximadamente 70% do PIB. As instituições financeiras contribuem significativamente para a criação de novas empresas e o fortalecimento econômico.

O estudo da Forrester Consulting revela que 39% das instituições financeiras identificam a escalada das exigências regulatórias como o principal fator de aumento dos custos de compliance. Nos próximos 12 meses, 69% das instituições estão priorizando a redução desses custos. O Brasil, Colômbia e México destacam-se como os países com maiores aumentos nos custos relacionados ao compliance.

As despesas com tecnologia, incluindo redes, sistemas e trabalho remoto, também são impulsionadoras desses custos, especialmente no México, Brasil e Colômbia. As instituições financeiras precisam de parceiros com ferramentas, dados e análises avançadas para se manterem à frente dos criminosos e melhorar a eficiência do compliance. O estudo, que contou com a participação de 268 tomadores de decisão na América Latina, destaca os principais desafios e custos enfrentados pelas operações de compliance contra crimes financeiros.

Publicado em Deixe um comentário

SEC IMPÕE MULTA DE US$ 10 MILHÕES À ICE POR FALHAS NA GESTÃO DE VIOLAÇÃO CIBERNÉTICA

Em uma ação marcante, a Comissão de Valores Mobiliários dos Estados Unidos (SEC) aplicou uma multa de US$ 10 milhões à Intercontinental Exchange (ICE) nesta quarta-feira. A penalidade resulta de deficiências na gestão de uma violação de segurança cibernética que ocorreu em abril de 2021, afetando várias subsidiárias, incluindo a icônica Bolsa de Nova York (NYSE).

A SEC revelou que a ICE e suas nove subsidiárias não reportaram adequadamente uma significativa invasão cibernética, que comprometeu a segurança dos seus sistemas através de uma VPN vulnerável. Terceiros alertaram a ICE sobre a vulnerabilidade que permitiu acesso não autorizado à rede corporativa.

Embora a ICE estivesse ciente do acesso indevido, houve uma demora de vários dias para notificar o departamento de compliance de suas subsidiárias. Esse atraso crítico impediu uma avaliação imediata e correta da intrusão, além de retardar o contato necessário com a SEC, conforme exigido pelos regulamentos.

A SEC destacou que a falha da ICE em comunicar rapidamente a violação resultou na incapacidade das subsidiárias de avaliar e reportar adequadamente a invasão. Em resposta a essas violações regulatórias, a SEC impôs a multa, com a ICE reconhecendo sua participação nos erros cometidos.

As subsidiárias afetadas incluem a Archipelago Trading Services, NYSE American, NYSE Arca, ICE Clear Credit, ICE Clear Europe, NYSE Chicago, NYSE National, e a Securities Industry Automation Corporation.

Esta penalidade representa um impacto financeiro significativo para a ICE e suas subsidiárias e coloca em questão a confiabilidade das suas medidas de segurança cibernética e da rapidez na resposta a incidentes futuros. Este caso sublinha a necessidade de infraestruturas de segurança robustas e de uma política de compliance que possa agir rapidamente para proteger informações e ativos corporativos.

A ação da SEC contra a ICE reforça a importância da transparência e da agilidade na gestão de crises cibernéticas. As empresas, especialmente as que operam em setores sensíveis como o financeiro, devem manter um alto nível de vigilância e atualizar constantemente suas práticas de segurança para combater as ameaças cibernéticas em rápida evolução.

O cenário financeiro global, cada vez mais interconectado, exige que as empresas invistam continuamente em segurança cibernética e em sistemas de detecção e resposta ágeis. A proteção contra invasores e a conformidade regulatória são essenciais para salvaguardar os interesses corporativos e dos clientes globalmente.