Publicado em Deixe um comentário

COMO DEVERÍAMOS REGULAR A INTELIGÊNCIA ARTIFICIAL EM NOSSA SOCIEDADE?

Atualmente, estamos vivendo uma era onde a inteligência artificial (IA) se tornou um pilar central nas relações econômicas e sociais, operando predominantemente através de plataformas tecnológicas avançadas. Este cenário tem suscitado debates em nível global sobre a necessidade de estabelecer regulamentações para a IA, buscando assim um uso mais ético e responsável dessa tecnologia, de modo a proteger os direitos dos indivíduos.

A União Europeia (UE) está na vanguarda deste movimento com sua proposta conhecida como AI Act. Esta iniciativa tem como objetivo principal assegurar a segurança, respeitar os direitos humanos, incrementar a confiança e a transparência no uso da IA, além de fomentar a inovação no mercado digital unificado. A proposta da UE busca prevenir preconceitos e discriminações e estabelecer diretrizes claras para sistemas de IA de alto e baixo risco. Em contraste, França, Alemanha e Itália recentemente adotaram uma abordagem de autorregulação obrigatória, que envolve códigos de conduta para os principais modelos de IA, uma estratégia que tende a ser menos restritiva do que as regulações governamentais e que pode preservar a competitividade no mercado global.

Nos Estados Unidos, uma ordem executiva assinada pelo presidente Joe Biden em outubro deste ano reflete preocupações similares. Esta ordem exige que desenvolvedores de sistemas de IA compartilhem resultados de testes e segurança com o governo, e estabelece a adoção de padrões pelo Instituto Nacional de Padrões e Tecnologia (NIST). Além disso, impõe a utilização de marca d’água para ajudar a identificar conteúdos criados por IA, uma medida para combater fraudes e desinformação.

No Brasil, inspirado pelo movimento da UE, o Projeto de Lei nº 2.338/2023 está em discussão, visando regulamentar o uso de sistemas baseados em IA. Atualmente, apenas a Lei Geral de Proteção de Dados (Lei 13.709/2018) oferece algum nível de proteção contra riscos relacionados ao uso de IA, principalmente no que tange à revisão de decisões automatizadas que afetam direitos individuais.

Este cenário emergente sinaliza algumas tendências claras em relação à autorregulação na IA. Um dos aspectos centrais é a importância da governança como um elemento chave no uso ético da IA. Existe um consenso crescente em torno de quatro pilares éticos fundamentais para a IA: o respeito à autonomia individual, o princípio da precaução, a equidade e a transparência.

No contexto da autorregulação, os programas de governança em IA são importantes para assegurar o uso ético da tecnologia, a transparência, a responsabilidade corporativa, a segurança e privacidade dos dados, a justiça social, a conformidade legal e regulatória, e a gestão de riscos. É importante notar que, apesar de um consenso teórico sobre estes temas, na prática, muitas empresas de tecnologia enfrentam críticas em relação à eficácia e transparência de seus comitês de ética, alguns dos quais foram até mesmo desmantelados.

Em resumo, a evolução e adaptação das regulamentações em torno da IA são essenciais para garantir seu uso ético e responsável. A definição de um “mínimo ético” com diretrizes universais é fundamental para assegurar princípios inegociáveis na ética da IA, como respeito à autonomia individual, precaução, equidade e transparência. A tendência de autorregulação e os programas de governança em IA tornam-se essenciais para garantir a conformidade legal, a responsabilidade corporativa, a justiça social e a gestão eficiente de riscos. O futuro da IA, portanto, dependerá da capacidade das organizações de integrar esses princípios éticos no desenvolvimento e na implementação de seus sistemas, promovendo um uso da IA que seja benéfico e sustentável para toda a sociedade.

Publicado em Deixe um comentário

VOCÊ CONHECE OS LIMITES DA IA? DESCUBRA OS DIREITOS E RISCOS DOS INFLUENCIADORES DIGITAIS

A discussão sobre a substituição de humanos por máquinas, que ganhou força durante a Revolução Industrial, voltou à tona com a crescente digitalização e o avanço acelerado da tecnologia. Um exemplo marcante é o sucesso do ChatGPT, um reflexo da maior acessibilidade da Inteligência Artificial (IA) ao público em geral.

É importante notar que a IA, embora avançada, ainda depende da inteligência humana para sua alimentação e controle. Sem supervisão, as máquinas podem absorver e replicar comportamentos indesejáveis do mundo virtual, como discriminação ou agressividade.

Um caso recente ilustra esse ponto. Uma agência de modelos em Barcelona criou “Aitana”, uma influenciadora digital gerada totalmente por IA. Esta influenciadora virtual, com 148 mil seguidores e um perfil voltado para games, fitness e cosplay, levanta questões intrigantes. Alguns seguidores acreditam que ela é real, mesmo com outros tentando alertar sobre sua natureza artificial.

Esta situação reflete um preocupante desinteresse, especialmente entre os jovens, em discernir o real do artificial. O crescente envolvimento com a vida virtual exige uma adaptação às novas tecnologias e comportamentos geracionais, para evitar mais prejuízos do que benefícios com a IA.

Do ponto de vista legal, a existência de influenciadores virtuais como “Aitana” não enfrenta obstáculos, a menos que cometam atos ilícitos. Qualquer dano causado deve ser atribuído aos humanos que operam a IA. Porém, a legislação enfrenta desafios maiores quando os desenvolvedores desses personagens são desconhecidos, especialmente se estes personagens causam danos reais, como na venda de drogas a adolescentes.

No Brasil, ainda não temos uma legislação específica para IA, mas há um projeto de lei em estudo. Grupos de juristas e profissionais, como os da OAB do Rio Grande do Sul, estão acompanhando de perto o desenvolvimento desse projeto e as tendências globais relacionadas à IA.

A complexidade e a importância do tema são inegáveis. Prever todos os desdobramentos é impossível, mas com estudo, dedicação e observação do Direito comparado, podemos ter uma visão mais clara dos riscos e benefícios. Enquanto isso, a sociedade deve ser cautelosa, especialmente com crianças e adolescentes nas redes sociais, e consciente no uso da IA. Eventualmente, a IA se tornará uma parte mais natural de nossas vidas, com implicações jurídicas mais bem regulamentadas. Até lá, é fundamental usar essa tecnologia com responsabilidade e consciência.

Publicado em Deixe um comentário

ENTENDA O EFEITO DO VAZAMENTO DAS METAS DA MOVIDA NO MERCADO FINANCEIRO

Na recente temporada de eventos corporativos, um incidente envolvendo a Movida, uma conhecida empresa de locação de veículos, gerou grande repercussão. Uma funcionária postou nas redes sociais uma foto que incluía um “troféu” com metas financeiras da empresa para o ano seguinte: uma receita projetada de R$ 12,4 bilhões, EBITDA de R$ 4,3 bilhões e um lucro líquido estimado em R$ 210 milhões.

O cerne da controvérsia reside no fato de a Movida habitualmente não fornecer guidances financeiras ao mercado. Além disso, a meta de lucro líquido revelada, que foi apresentada durante uma convenção interna de vendas, situou-se significativamente abaixo da expectativa de mercado de R$ 400 milhões, conforme dados compilados pela Bloomberg.

A divulgação não oficial dessas cifras provocou uma reação adversa no mercado de ações. As ações da Movida, já marcadas por um alto volume de posições vendidas, sofreram uma queda acentuada de mais de 11% durante o pregão, acompanhada de um volume de negociação elevado. Isso levou a empresa a emitir um comunicado oficial.

Neste comunicado, a Movida esclareceu que os números divulgados na fotografia eram meramente gerenciais e simplificados, não representando uma orientação formal para o mercado. A empresa destacou que as projeções não incluíam aspectos importantes como operações com instrumentos derivativos financeiros, a curva de depreciação de ativos – um fator crucial na indústria de locação de veículos – e variações na curva Selic, além de movimentos em certos créditos e provisões fiscais.

Apesar da tentativa de esclarecimento, o impacto no valor das ações foi significativo, com uma queda de 4% registrada próximo ao fechamento do pregão.

Este episódio levantou dúvidas sobre as expectativas de desempenho da Movida para o próximo ano, focando a atenção do mercado nas políticas de juros e depreciação adotadas pela empresa. Analistas do BTG Pactual, parte do mesmo grupo que controla a Exame, apontaram que estas são as variáveis mais críticas que influenciam os resultados da Movida. Vale ressaltar que as metas de receita e EBITDA vazadas estavam alinhadas com as expectativas de mercado.

Publicado em Deixe um comentário

GOOGLE LANÇA GEMINI, O MODELO MULTIMODAL MAIS AVANÇADO

O Google, um gigante no campo da inteligência artificial, recentemente introduziu o Gemini, seu mais recente avanço na área. Este modelo de IA, desenvolvido pelo renomado laboratório de inteligência artificial DeepMind, é considerado um marco na história da tecnologia. O Gemini se destaca por ser um modelo multimodal, integrando habilidades em texto, imagem, áudio, vídeo e programação, um feito notável no campo da IA.

O modelo representa um salto significativo na forma como as máquinas compreendem e interagem com o mundo ao nosso redor, superando outros modelos existentes.

O Google já integrou o Gemini ao Bard, seu chatbot, ampliando assim as capacidades deste último e reforçando a competição com a OpenAI e seu produto, o ChatGPT. Comentários da empresa sugerem que essa integração marca a maior melhoria do Bard desde seu lançamento.

O Gemini será gradualmente implementado em outros produtos e serviços do Google, como Ads, Chrome e Duet AI, em três variantes: Gemini Ultra, para tarefas de alta complexidade; Gemini Pro, para uma gama mais ampla de tarefas; e Gemini Nano, otimizado para eficiência em dispositivos menores.

Uma característica notável do Gemini é seu poder computacional, que é cinco vezes maior que o do GPT-4. Ele é o primeiro modelo a superar especialistas humanos em Massive Multitask Language Understanding, um benchmark chave para avaliar a capacidade de resolução de problemas de modelos de IA. O Gemini Ultra, por exemplo, alcançou 30 de 32 pontos em testes acadêmicos.

A inovação fundamental do Gemini reside em sua abordagem nativa multimodal. Diferente de modelos anteriores que eram treinados separadamente em diferentes modalidades antes de serem combinados, o Gemini foi concebido desde o início para lidar com múltiplas formas de informação simultaneamente, permitindo-lhe compreender e raciocinar com mais eficácia.

Além disso, a Google utilizou chips personalizados para desenvolver o Gemini, o que traz vantagens únicas em termos de desempenho.

Para desenvolvedores e clientes corporativos, o Gemini Pro estará disponível via API no Google AI Studio ou Vertex AI a partir de 13 de dezembro. O Google AI Studio é uma ferramenta gratuita para desenvolvimento e prototipagem de aplicativos, enquanto o Vertex AI oferece personalização do Gemini com controle total sobre os dados.

Finalmente, o Google anunciou o lançamento do Bard Advanced, uma nova experiência de IA avançada, para o início de 2024. Este anúncio reitera o compromisso da empresa em liderar a vanguarda da inovação em IA.

Publicado em Deixe um comentário

UM ALERTA SOBRE A SEGURANÇA DE INFORMAÇÕES GENÉTICAS

A recente violação de segurança na empresa de testes genéticos 23andMe representa um marco preocupante na proteção de dados pessoais. O ataque cibernético, que comprometeu informações sensíveis de aproximadamente 14 mil clientes, destaca a vulnerabilidade dos dados pessoais no ambiente digital, especialmente quando se trata de informações genéticas.

A 23andMe, conhecida por seus serviços de análise de DNA, enfrentou uma invasão significativa em seu banco de dados. Os invasores conseguiram não apenas acessar dados básicos dos clientes, mas também detalhes mais profundos sobre sua ascendência. Esta violação impactou um número substancial de usuários, com a porta-voz da empresa, Katie Watson, confirmando que cerca de 5,5 milhões de pessoas vinculadas ao recurso DNA Relatives foram afetadas. Este recurso permite que os clientes compartilhem seus dados genéticos com outros, muitas vezes membros da família, aumentando a gravidade do incidente.

Os dados comprometidos incluem nomes, anos de nascimento, status de relacionamento, percentuais de DNA compartilhado, relatórios de ancestralidade e localizações autodeclaradas. Adicionalmente, informações de perfil genealógico de aproximadamente 1,4 milhão de outros usuários que optaram pelo DNA Relatives também foram expostas. Este incidente afeta quase a metade dos sete milhões de clientes da 23andMe, ressaltando a escala do vazamento.

O ataque começou a ganhar atenção em outubro, quando um hacker alegou ter adquirido informações genéticas de clientes da 23andMe e tentou vendê-las online. A empresa atribuiu a vulnerabilidade à prática comum de reutilização de senhas pelos clientes, que facilitou ataques de força bruta nas contas. O recurso DNA Relatives, ao conectar usuários com seus parentes, exacerbou o impacto da invasão, permitindo que os hackers acessassem dados não apenas do titular da conta, mas também de seus parentes.

No momento, a 23andMe está concentrada em mitigar as consequências desta brecha de segurança e em fortalecer seus protocolos para prevenir futuras violações. Este incidente serve como um lembrete crítico sobre a importância da segurança cibernética, especialmente em um campo tão delicado quanto o dos testes genéticos, e coloca em cheque a confiança dos clientes nestes serviços.

Publicado em Deixe um comentário

ANPD DIVULGA RELATÓRIO COM AUMENTO NOS INCIDENTES DE SEGURANÇA DE DADOS E ESFORÇOS DE FISCALIZAÇÃO

A Autoridade Nacional de Proteção de Dados (ANPD) revelou em seu mais recente Relatório de Ciclo de Monitoramento (RCM), emitido nesta sexta-feira (8), uma análise detalhada das operações de fiscalização realizadas no primeiro semestre de 2023. Este relatório, elaborado pela Coordenação-Geral de Fiscalização (CGF), não só avalia as atividades passadas, mas também estabelece diretrizes para abordagens futuras, tanto preventivas quanto punitivas, no âmbito da proteção de dados. A transparência é um aspecto central deste documento, destacando o compromisso da ANPD com a sociedade.

Durante o período de janeiro a junho de 2023, a CGF registrou 496 Requerimentos, incluindo denúncias de violações à Lei Geral de Proteção de Dados Pessoais (LGPD) e pedidos de titulares de dados para exercerem seus direitos em relação ao tratamento de suas informações pessoais. Os setores mais afetados foram administração pública, telecomunicações, plataformas digitais, bancos, financeiras, administradoras de cartão e agregadores de dados.

Houve também um aumento significativo nas Comunicações de Incidentes de Segurança (CIS), com 163 registros no primeiro semestre de 2023, um salto de 15,6% em comparação com o mesmo período do ano anterior. Estas comunicações são mandatórias por parte dos agentes de tratamento e se referem a eventos adversos confirmados que possam comprometer a confidencialidade, integridade ou disponibilidade de dados pessoais, com os ataques de ransomware continuando a ser a causa principal.

Além disso, a CGF iniciou dois processos de fiscalização e um processo administrativo sancionador no período, mostrando um esforço contínuo na regulação e supervisão do tratamento de dados pessoais. Do total de 11 processos de fiscalização iniciados em anos anteriores, quatro já foram concluídos.

Camila Romero, Chefe da Divisão de Monitoramento, enfatiza que o relatório é um reflexo do trabalho realizado pela ANPD, oferecendo uma visão abrangente das atividades de fiscalização. Ela destaca que as informações coletadas a partir de requerimentos, CIS e outras fontes são fundamentais para traçar estratégias futuras, em consonância com o Mapa de Temas Prioritários, orientando assim as ações de fiscalização nos próximos ciclos.

Publicado em Deixe um comentário

VOCÊ ESTÁ SEGURO? APRENDA A IDENTIFICAR GOLPES FINANCEIROS NO BRASIL

A preocupação com fraudes financeiras é uma realidade crescente no Brasil, onde estima-se que cerca de 36% da população já foi vítima de algum tipo de golpe, um dado alarmante revelado por uma pesquisa do Instituto Real Time Big Data para o programa Fala Brasil, da RecordTV. Essa estatística representa quase quatro em cada dez brasileiros afetados por fraudes, evidenciando um problema sério e generalizado no país.

A distribuição geográfica das vítimas de fraudes varia no Brasil, com a região Norte liderando em termos de percentual de população afetada, com cerca de 36%, enquanto a região Centro-Oeste apresenta o menor índice, com 32%. Um aspecto notável é que a maior parte das vítimas tem mais de 60 anos, o que aponta para uma vulnerabilidade particular desse grupo etário em relação a golpes, especialmente os que envolvem tecnologia.

O volume e a variedade de golpes aplicados são surpreendentes. Em 2022, foram registrados mais de 1,8 milhão de casos de estelionato, correspondendo a um aumento de 326% em comparação com 2018. Os golpes vão desde a restituição do Imposto de Renda e pagamento de impostos, até a renegociação de dívidas e ofertas de emprego, além de fraudes envolvendo aplicativos de mensagens, o sistema de pagamentos PIX e a clonagem de cartões.

Entre os golpes mais comuns está o furto de identidade, onde o criminoso se passa por outra pessoa para obter vantagens ilícitas. As consequências para a vítima podem incluir perda de dinheiro, crédito e danos à reputação. Especialistas como Anderson Cruz, advogado com especialização em direito empresarial, enfatizam a importância de proteger dados pessoais e informações de contas de usuário para prevenir tais golpes.

Outra modalidade de golpe que tem se destacado envolve compras e vendas online, especialmente em datas comemorativas. Somente neste ano, pelo menos 80 mil pessoas foram vítimas desse tipo de fraude. O Superior Tribunal de Justiça (STJ) classifica a venda fraudulenta pela internet como crime de fraude, enquanto operações de compra e venda com intenção de enganar configuram estelionato.

Não há um perfil único para vítimas potenciais de golpes, mas algumas tendências são notáveis. Homens, especialmente os mais jovens (até 31 anos), são frequentemente alvos em fraudes de compra e venda, enquanto idosos são mais suscetíveis a golpes tecnológicos devido a um maior distanciamento da tecnologia.

Para combater essa onda de fraudes, é essencial a atuação das autoridades de segurança na identificação e punição dos criminosos, bem como a colaboração entre empresas do setor financeiro para compartilhar informações sobre contas envolvidas em fraudes. Investir em educação digital, especialmente para os mais vulneráveis, é crucial para aumentar a conscientização sobre os golpes mais comuns.

Além disso, recomenda-se que as vítimas registrem um boletim de ocorrência, notifiquem empresas envolvidas (especialmente bancos), troquem senhas e alertem amigos e parentes sobre os golpes. Para prevenção, algumas dicas incluem proteger dados pessoais, usar senhas diferentes para sites e cadastros, verificar regularmente contas bancárias e faturas de cartão de crédito, e desconfiar de promessas milagrosas e informações distorcidas.

Publicado em Deixe um comentário

JUSTIÇA CONDENA BANCO DIGITAL POR EMPRÉSTIMO NÃO AUTORIZADO

Um recente julgamento no Brasil destacou importantes questões sobre segurança bancária e ética. Em um caso notável, uma cliente ganhou um processo contra um banco digital, sendo-lhe concedida uma indenização de R$ 15 mil. O caso foi julgado em uma Vara Cível em São Paulo, com o juiz responsável enfatizando a seriedade da fraude cometida.

O conflito surgiu após a cliente descobrir um empréstimo não autorizado em seu nome, com 84 parcelas de R$ 48,56 cada, causando um débito inicial de R$ 2 mil em sua conta. O empréstimo, que ela afirmava nunca ter contratado, estava programado para ser pago de março de 2021 a fevereiro de 2028.

O banco defendeu-se alegando a validade do contrato, que supostamente continha a assinatura da cliente. Argumentou também que os documentos pessoais dela foram apresentados na contratação do empréstimo, e que não houve notificação de perda destes documentos.

No entanto, análises mostraram que a assinatura da cliente no contrato era falsificada. Diante dessa prova, o juiz classificou a ação do banco como um ato ilícito, desleal e abusivo, violando o Código de Defesa do Consumidor. O resultado foi a condenação do banco ao pagamento de indenização, por considerar a cobrança como irregular.

Este caso sublinha a necessidade de maior segurança nas informações pessoais e a importância da vigilância constante em transações bancárias. Também reforça a responsabilidade dos bancos em assegurar a legitimidade e transparência de suas operações, protegendo seus clientes contra fraudes e práticas abusivas.

Publicado em Deixe um comentário

ENTENDA COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ REDEFININDO AS REGRAS DA CONCORRÊNCIA

À medida que a inteligência artificial (IA) avança e se integra em diversos setores, surgem importantes questões concorrenciais. Destaca-se a preocupação com as grandes empresas de tecnologia (big techs) usando seu poder de mercado para dominar ferramentas de IA e vastas bases de dados, limitando as opções do consumidor.

Recentemente, em 18 de setembro, um relatório da autoridade de concorrência do Reino Unido, a Competition & Markets Authority (CMA), levantou preocupações sobre a concorrência no desenvolvimento de modelos de base para IA. O relatório enfatiza que o desenvolvimento desses modelos exige um volume substancial de dados, recursos computacionais dispendiosos e expertise técnica, o que pode reduzir a concorrência e desincentivar a inovação. Um estudo do Goldman Sachs projeta um investimento global em IA de cerca de 200 bilhões de dólares até 2025. Governos e autoridades de concorrência ao redor do mundo estão focados na regulação da IA, especialmente considerando seus potenciais impactos negativos na livre concorrência.

Em 2017, a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) publicou o estudo “Algorithms and Collusion: Competition Policy in the Digital Age”, que discute os desafios que os algoritmos representam para a aplicação da lei da concorrência e a regulação do mercado. A CMA também divulgou estudos em 2018 e 2021 sobre o impacto dos algoritmos na concorrência. Autoridades de concorrência de Portugal, França e Alemanha publicaram estudos semelhantes.

Os estudos concordam que o uso de IA, especialmente na forma de algoritmos, pode facilitar a colusão entre concorrentes, formando cartéis conhecidos como “hub and spoke”, ou promover colusão tácita. A CMA e a Autoridade da Concorrência indicaram que plataformas online e empresas com poder de mercado podem usar algoritmos para práticas de self-preferencing, favorecendo seus próprios produtos e serviços em detrimento dos concorrentes, e para acordos de fixação de preços de revenda.

Diante desse cenário, questiona-se a preparação das autoridades globais e brasileiras para enfrentar essa realidade. A OCDE, preocupada com a proteção e promoção da concorrência nos mercados digitais, destacou a importância da transparência dos algoritmos e da responsabilização pelos seus efeitos.

No Brasil, tramitam o PL nº 2.338/2023 para regular a IA, o PL nº 2.630/2020 (Lei das Fake News) para transparência em redes sociais e serviços de mensagens, e o PL nº 2.768/2022 (Lei de Mercado Digital) para regular plataformas digitais, incluindo a concorrência. A OCDE enfatiza a importância dos programas de leniência como ferramenta de denúncia para participantes de carteis, considerando a dificuldade em detectar condutas irregulares facilitadas pela IA.

O Conselho Administrativo de Defesa Econômica (Cade) do Brasil possui um programa de leniência e, em 2022, criou uma unidade especializada em investigações de condutas unilaterais. Além disso, adotou a recomendação da OCDE de implementar ferramentas de IA para monitorar condutas anticompetitivas, desenvolvendo o Projeto Cérebro, que usa mineração de dados e algoritmos para identificar suspeitas de atuação coordenada em mercados.

Com essas iniciativas, o Brasil segue a União Europeia em obrigar empresas a cumprir legislações de proteção de dados e concorrência no desenvolvimento de ferramentas de IA. O Cade também trabalha para criar técnicas que inibam e combatam condutas anticompetitivas de forma eficiente.

A IA, cada vez mais utilizada por empresas para otimizar negócios, traz benefícios aos consumidores, mas levanta preocupações quanto à concentração tecnológica nas mãos das big techs, devido aos altos requisitos financeiros e técnicos. Autoridades de concorrência expressam preocupação com o uso de ferramentas de IA, especialmente algoritmos de precificação e monitoramento, para implementar condutas colusivas e/ou unilaterais

Publicado em Deixe um comentário

ESTRATÉGIAS E PREVENÇÕES CONTRA O GOLPE DO BOLETO BANCÁRIO

O golpe do boleto bancário é uma forma de fraude que se tornou comum, comprometendo a segurança financeira dos consumidores. Este tipo de golpe envolve a emissão de boletos falsos, com detalhes bancários alterados, e requer uma abordagem cautelosa e informada para ser evitado. Este texto busca esclarecer as técnicas utilizadas pelos fraudadores e oferecer orientações práticas para a prevenção do golpe, com base em insights de profissionais especializados em direito digital e planejamento financeiro.

A fraude do boleto se caracteriza pela criação de documentos bancários fraudulentos que imitam os originais. Esses boletos são muitas vezes enviados por e-mail ou através de websites falsificados que se passam por entidades legítimas. Os fraudadores podem criar boletos para cobranças inexistentes ou por serviços não prestados. Eles também podem interceptar e-mails com boletos legítimos e substituí-los por versões falsas, muitas vezes envolvendo comunicação enganosa via aplicativos de mensagens instantâneas.

Para evitar cair nesses golpes, é importante adotar medidas de segurança online. Isso inclui verificar minuciosamente os boletos recebidos, especialmente os dados do beneficiário e as informações financeiras. Contatar as empresas por meios oficiais também ajuda a confirmar a autenticidade dos boletos.

Manter registros financeiros organizados auxilia na identificação de cobranças inesperadas ou suspeitas. Além disso, dar preferência a métodos de pagamento como cartão de crédito ou Pix, sempre verificando os dados do recebedor, pode oferecer uma segurança maior. O uso do Débito Direto Autorizado (DDA) também é uma alternativa segura, pois permite a visualização dos boletos diretamente na conta bancária.

Para proteger os dados no celular, recomenda-se usar senhas fortes e ativar a autenticação em dois fatores. Manter o sistema e os aplicativos atualizados é crucial para evitar vulnerabilidades de segurança. É aconselhável também evitar links suspeitos em e-mails ou SMS e realizar transações bancárias em ambientes seguros. Alguns usuários optam por aplicativos que ocultam apps bancários, proporcionando uma camada extra de segurança.

As vítimas de golpes de boleto podem enfrentar perdas financeiras e riscos à segurança de suas informações pessoais. Em caso de fraude, buscar aconselhamento jurídico com um advogado especializado pode ser essencial para lidar com as implicações legais e buscar reparação.

O golpe do boleto bancário é um problema sério que exige atenção e precaução. Adotando práticas de segurança adequadas e mantendo-se informado sobre as táticas dos fraudadores, é possível minimizar o risco de ser vítima dessa forma de fraude.

Publicado em Deixe um comentário

DESCUBRA E PROTEJA-SE CONTRA OS PERIGOS DOS CRIMES VIRTUAIS

O avanço da tecnologia digital transformou a maneira como vivemos, trabalhamos e nos comunicamos. No entanto, esse progresso também abriu caminho para uma nova forma de criminalidade: os crimes cibernéticos. Estes atos ilícitos, realizados através de meios digitais, representam uma ameaça crescente tanto no ambiente virtual quanto no físico, dada a integração constante de ambos os mundos em nossa vida cotidiana.

Crimes cibernéticos podem variar amplamente em natureza e gravidade. Entre os mais prevalentes estão os crimes financeiros, como fraudes e golpes, roubo e clonagem de dados, extorsão, e violações de privacidade com conotações sexuais. Estes delitos não apenas afetam indivíduos, mas também empresas e governos, levando a perdas financeiras significativas, danos à reputação, chantagem e invasão de privacidade.

A prevenção e proteção contra esses crimes é complexa, mas fundamental. Medidas como verificação em duas etapas, cautela com informações pessoais online e atenção a detalhes em comunicações oficiais são essenciais. Também é importante estar ciente dos procedimentos para denunciar esses crimes, como buscar auxílio em delegacias especializadas em crimes virtuais ou cibernéticos.

No Brasil, a legislação inclui leis específicas como a Lei Carolina Dieckmann, que trata de invasão de dispositivos eletrônicos, e o Marco Civil da Internet, que aborda os direitos e deveres dos usuários da internet. Apesar dessas leis, um dos maiores desafios no combate aos crimes cibernéticos é a capacitação profissional e os recursos tecnológicos para investigação e prevenção.

O impacto dos crimes cibernéticos vai além das perdas financeiras. Eles também podem ter consequências emocionais e psicológicas duradouras para as vítimas. Portanto, é vital que profissionais de diversas áreas, incluindo direito, tecnologia da informação e segurança da informação, estejam equipados com as habilidades e conhecimentos necessários para enfrentar esses desafios. Cursos de pós-graduação e especialização em áreas como Direito Digital, Segurança da Informação, Arquitetura e Desenvolvimento de Sistemas, Inteligência Policial e Perícia Criminal são essenciais para preparar os profissionais para este cenário em constante evolução.

Publicado em Deixe um comentário

COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ TRANSFORMANDO A SOCIEDADE E O DIREITO

A discussão sobre a ascensão da inteligência artificial (IA) e seu impacto na sociedade tem se intensificado recentemente, em grande parte devido aos avanços tecnológicos e à crescente acessibilidade da IA. Um exemplo marcante dessa tendência é o sucesso estrondoso do ChatGPT.

Historicamente, desde a Revolução Industrial, temos testemunhado a substituição do trabalho humano por máquinas. No entanto, o que diferencia a era atual é a velocidade sem precedentes com que a digitalização está evoluindo. A IA depende crucialmente da inteligência humana para seu desenvolvimento e supervisão. Sem essa supervisão, a IA poderia adquirir e perpetuar comportamentos prejudiciais, incluindo discriminação e agressividade, derivados do conteúdo disponível no mundo virtual.

Um aspecto intrigante dessa era digital é nossa percepção da realidade. Consideramos a possibilidade de sermos substituídos ou enganados por avatares digitais algo distante, confiantes na nossa capacidade de distinguir entre uma entidade virtual e uma real. Porém, casos recentes sugerem que essa distinção pode não ser tão clara.

Um exemplo revelador é o da agência de modelos espanhola que criou uma influenciadora digital gerada inteiramente por IA. Esta influenciadora, chamada “Aitana”, rapidamente ganhou popularidade no Instagram, acumulando milhares de seguidores. Com 25 anos virtuais, Aitana aborda temas como games, fitness e amor, apresentando-se de maneira sensual. O mais surpreendente é que muitos seguidores não percebem que Aitana é um produto da IA.

Esse fenômeno levanta preocupações significativas. A intensificação da vida virtual está soando como um alarme na sociedade global, especialmente entre os jovens, muitos dos quais parecem indiferentes em discernir o real do virtual. Assim, torna-se necessário adaptar-se e entender as tecnologias emergentes, bem como o comportamento das novas gerações, para colher os benefícios da IA e minimizar seus malefícios.

Do ponto de vista jurídico, a presença de influenciadores virtuais nas redes sociais não é ilegal, desde que não envolvam atividades ilícitas. Contudo, a responsabilidade por quaisquer danos causados recai sobre os humanos que controlam estas entidades digitais. O desafio legal se torna mais complexo em casos onde os desenvolvedores desses personagens virtuais são desconhecidos, especialmente quando tais personagens estão envolvidos em atividades criminosas.

No Brasil, ainda estamos na fase inicial de desenvolver uma legislação específica para a IA. Existe um projeto de lei sendo estudado por juristas e profissionais em várias regiões, como no Rio Grande do Sul, onde um grupo de trabalho da OAB está dedicado ao tema. A complexidade do assunto requer estudo contínuo, comparação com legislações internacionais e uma avaliação ponderada dos riscos e benefícios da IA.

Por fim, é essencial adotar uma postura de responsabilidade e consciência na utilização da IA, especialmente ao considerar seu impacto sobre crianças e adolescentes nas redes sociais. A IA oferece possibilidades incríveis para o avanço humano, mas também vem com riscos que devem ser cuidadosamente avaliados e regulamentados. À medida que a tecnologia evolui, é provável que sua integração na sociedade e as implicações jurídicas se tornem mais claras e bem regulamentadas.