Publicado em Deixe um comentário

POLÍTICA DE PRIVACIDADE COPIADA DA INTERNET: UMA PRÁTICA COMUM QUE NÃO ATENDE À LGPD

Muitas empresas, especialmente as de pequeno e médio porte, ainda tratam documentos como contratos e políticas internas com certo desleixo. Na tentativa de economizar tempo e dinheiro, optam por copiar modelos prontos da internet, com leves adaptações, acreditando estarem protegidas juridicamente. No entanto, essa prática tem se mostrado não apenas arriscada, mas onerosa a médio e longo prazo.

A política de privacidade é um exemplo recorrente. Com a entrada em vigor da Lei Geral de Proteção de Dados (LGPD), tornou-se necessário demonstrar que os dados pessoais tratados pela empresa estão protegidos e que o titular está devidamente informado sobre seus direitos. Copiar uma política de privacidade sem considerar a realidade do negócio, os fluxos de dados envolvidos e os riscos específicos da atividade exercida é um erro que pode comprometer toda a estratégia de conformidade da organização.

Documentos jurídicos, quando redigidos de forma genérica, sem observar a natureza específica da empresa, sua estrutura interna e suas práticas operacionais, deixam lacunas importantes. Essas lacunas, por sua vez, podem ser exploradas em disputas judiciais, fiscalizações administrativas e até em situações simples do cotidiano empresarial, como uma rescisão contratual ou a apuração de responsabilidades em caso de incidente de segurança da informação.

Além disso, políticas internas, como códigos de conduta, termos de uso e regulamentos internos, não cumprem seu papel quando não dialogam com a cultura organizacional e não orientam de forma clara o comportamento esperado de colaboradores, prestadores de serviço e parceiros. É comum encontrar empresas com documentos que falam em tecnologias que não utilizam, em práticas que não realizam ou em obrigações que nunca são fiscalizadas. Isso enfraquece a governança interna e, pior, pode ser usado contra a própria empresa em litígios.

Investir na elaboração de documentos personalizados, construídos com base na realidade da empresa, é um cuidado que traz segurança jurídica, fortalece a imagem institucional e previne conflitos. Não se trata de uma formalidade excessiva, mas de um instrumento de organização, prevenção e responsabilidade.

A aparente economia em copiar um modelo pronto pode se transformar em prejuízo. Afinal, um contrato mal feito ou uma política copiada sem reflexão pode custar caro, seja em processos judiciais, seja em sanções administrativas, seja na perda de confiança de parceiros e clientes. O barato, nesse caso, tem preço alto.

Publicado em Deixe um comentário

COMO A INTELIGÊNCIA ARTIFICIAL PODE AJUDAR OU PREJUDICAR SUA EMPRESA

A Inteligência Artificial está cada vez mais presente no mundo corporativo, otimizando tarefas, reduzindo custos e ampliando a eficiência dos negócios. No setor jurídico, ela se tornou uma ferramenta poderosa para escritórios de advocacia e departamentos jurídicos, auxiliando na análise de contratos, na organização de documentos e até na previsão de riscos em processos. No entanto, como qualquer inovação tecnológica, seu uso pode trazer desafios que exigem atenção, especialmente no que diz respeito à conformidade legal e proteção de dados.

Os benefícios do uso da IA no jurídico

Empresas que integram IA aos seus processos internos conseguem ganhos expressivos de produtividade. Sistemas automatizados analisam grandes volumes de dados em segundos, identificam padrões em processos judiciais e até sugerem argumentos jurídicos baseados em jurisprudência consolidada. Além disso, a automação de documentos reduz erros humanos e garante mais segurança na elaboração de contratos e pareceres.

Outro benefício é a otimização da gestão de riscos. Softwares inteligentes podem prever a probabilidade de êxito em ações judiciais, permitindo que empresas tomem decisões estratégicas com base em dados concretos. A IA também facilita o cumprimento de normas regulatórias, gerando relatórios automáticos e auxiliando na governança corporativa.

Os riscos jurídicos e a responsabilidade sobre a IA

Apesar de todos esses avanços, o uso inadequado da IA pode gerar problemas jurídicos consideráveis. Empresas que utilizam algoritmos sem transparência correm o risco de decisões enviesadas, o que pode resultar em litígios trabalhistas, ações de consumo ou até violações da Lei Geral de Proteção de Dados (LGPD).

A delegação de funções sensíveis à IA, sem supervisão humana, pode levar a erros que prejudicam clientes e parceiros comerciais. Se um sistema automatizado rejeita um contrato ou nega um benefício indevidamente, a responsabilidade recai sobre a empresa, que pode enfrentar sanções legais e danos à reputação.

Além disso, a coleta e o tratamento de dados por ferramentas de IA precisam seguir rigorosamente a legislação vigente. O vazamento ou uso indevido de informações pessoais pode acarretar multas elevadas e comprometer a credibilidade da empresa no mercado.

Equilíbrio entre inovação e segurança jurídica

O segredo para aproveitar a IA sem cair em armadilhas jurídicas está na implementação responsável. Empresas devem adotar políticas de governança digital, garantindo que os sistemas utilizados sejam auditáveis, transparentes e supervisionados por especialistas.

A combinação entre tecnologia e expertise humana é o caminho mais seguro para transformar a IA em uma aliada estratégica, sem que sua empresa corra riscos desnecessários. Afinal, inovação sem controle pode custar caro, tanto no bolso quanto na reputação.

Publicado em Deixe um comentário

CUIDADO AO DESCARTAR DOCUMENTOS! VOCÊ PODE ESTAR VAZANDO DADOS SEM PERCEBER

No dia a dia, muitas empresas e profissionais lidam com uma quantidade imensa de documentos, muitos contendo informações pessoais e dados sensíveis. O problema surge quando esses papéis são descartados de maneira inadequada, indo parar no lixo comum sem qualquer cuidado. Um contrato rasgado ao meio, um formulário esquecido na impressora ou até mesmo uma anotação jogada no cesto podem se tornar verdadeiras minas de ouro para fraudadores e golpistas.

A Lei Geral de Proteção de Dados (LGPD) estabelece regras claras sobre o tratamento e a segurança das informações pessoais, e isso inclui o descarte. O artigo 6º da legislação traz princípios como a necessidade e a prevenção, deixando claro que dados devem ser mantidos apenas pelo tempo necessário e descartados de forma segura quando não forem mais úteis. O que significa, na prática, que simplesmente jogar um papel no lixo sem qualquer proteção pode ser interpretado como um vazamento de dados e gerar sanções.

As empresas devem adotar medidas para evitar esse tipo de risco. Um dos métodos mais eficazes é a fragmentação de documentos, seja por meio de trituradores de papel, seja com serviços especializados em descarte seguro. Além disso, a digitalização e a adoção de repositórios eletrônicos seguros ajudam a reduzir a dependência de documentos físicos, minimizando as chances de exposição indevida.

Muitos casos de vazamento de informações começam justamente com descuidos no descarte. O lixo corporativo pode ser um alvo fácil para aqueles que buscam dados para fraudes, clonagem de identidade ou até espionagem empresarial. Em tempos de intensa fiscalização sobre o uso e a proteção de informações, ignorar esse risco pode resultar em multas, processos e danos à reputação da empresa.

Portanto, antes de se desfazer de qualquer papel, reflita sobre o que ele contém e adote práticas seguras de descarte. Afinal, uma folha esquecida no lixo pode carregar muito mais do que palavras: pode ser a chave para um problema que nenhum gestor gostaria de enfrentar.

Publicado em Deixe um comentário

COMO PROTEGER USUÁRIOS DE IMPACTOS PSICOLÓGICOS DA INTELIGÊNCIA ARTIFICIAL

A crescente integração da inteligência artificial (IA) no cotidiano levanta questões fundamentais sobre os limites da responsabilidade das empresas que desenvolvem essas tecnologias, especialmente quando se trata de seu impacto emocional e psicológico sobre os usuários. Um caso recente nos Estados Unidos, envolvendo a morte de um jovem após interações com um chatbot, lança luz sobre a complexidade desses desafios, que, embora inéditos, podem se tornar cada vez mais comuns à medida que a IA se torna mais acessível.

A situação em questão envolve a alegação de que um chatbot criado por uma startup de IA foi um fator contribuidor para a morte de um adolescente, que teria se tornado emocionalmente dependente de um personagem interativo desenvolvido pela plataforma. As últimas mensagens trocadas entre o jovem e o bot indicariam uma forte conexão emocional, culminando em uma promessa do chatbot de “retornar” para o usuário, pouco antes de sua morte. Este episódio ilustra um fenômeno crescente de dependência emocional de tecnologias que simulam interações humanas, uma preocupação crescente entre especialistas em saúde mental e direito.

No contexto brasileiro, a falta de regulamentação específica para a inteligência artificial representa um obstáculo significativo à responsabilização das empresas por danos causados por essas tecnologias. Atualmente, no Brasil, não há um arcabouço legal que trate diretamente do uso de IA e suas implicações, como em casos onde sua interação com usuários resulta em danos emocionais graves. Embora existam projetos de lei em trâmite, ainda não há uma legislação consolidada que forneça um marco regulatório claro sobre o tema, o que dificulta a busca por responsabilidades legais em situações como a mencionada.

Essa lacuna normativa torna ainda mais complexo o debate sobre a responsabilização das empresas de IA em casos de danos emocionais, especialmente quando esses danos levam a consequências trágicas, como a morte. A responsabilidade civil, nesse cenário, ainda não é amplamente definida, e o campo é considerado inédito no Judiciário brasileiro. A falta de precedentes para um caso como esse e a inexistência de normas claras criam um ambiente jurídico incerto, no qual seria difícil estabelecer uma conexão direta entre o uso da tecnologia e as consequências para o usuário.

Além disso, a Lei Geral de Proteção de Dados Pessoais (LGPD) no Brasil, que regula o tratamento de dados, não abrange a regulamentação do desenvolvimento ou das interações promovidas por IA, como, por exemplo, o impacto psicológico que esses sistemas podem gerar. Embora a ANPD (Autoridade Nacional de Proteção de Dados) tenha o papel de fiscalizar a privacidade dos dados dos usuários, questões éticas e de segurança no uso da IA ainda não são devidamente regulamentadas. Isso implica que, em termos jurídicos, ainda há uma zona cinzenta que precisa ser explorada para garantir a segurança dos usuários, em especial no caso de crianças e adolescentes.

Com a proliferação de plataformas que utilizam IA, muitas das quais têm como público-alvo menores de idade, surge a necessidade urgente de uma regulamentação robusta que proteja os usuários dos potenciais danos psicológicos causados por interações com essas tecnologias. Um dos maiores desafios será encontrar o equilíbrio entre a inovação, que traz benefícios inegáveis, e a segurança, que é essencial para a preservação do bem-estar dos usuários, especialmente os mais vulneráveis.

Portanto, o caso nos Estados Unidos deve ser visto como um alerta para o Brasil e para o mundo. A regulamentação de tecnologias emergentes como a IA deve ser tratada com urgência, com o objetivo de estabelecer diretrizes claras sobre a responsabilidade das empresas que desenvolvem essas plataformas. Além disso, é imprescindível que o sistema jurídico se prepare para lidar com a nova realidade digital, garantindo que os direitos e a saúde dos usuários sejam protegidos adequadamente.

É evidente que, à medida que a IA avança, a sociedade precisa acompanhar e se adaptar às novas demandas legais, sociais e éticas que surgem. A regulação, longe de ser um obstáculo ao progresso tecnológico, deve ser vista como uma ferramenta essencial para assegurar que as inovações digitais possam ser utilizadas de maneira segura e responsável.

Publicado em Deixe um comentário

A EVOLUÇÃO E A IMPORTÂNCIA DOS DATA CENTERS NA ERA DIGITAL

Nas últimas décadas, o crescimento exponencial no volume de dados catalisou a ampla adoção de data centers por diversos setores, tornando-os essenciais para o armazenamento, processamento e distribuição de vastas quantidades de informações. Estas instalações, que hospedam servidores, roteadores, firewalls, switches e sistemas de armazenamento, consolidaram-se como a espinha dorsal da nova economia digital. Para garantir a operação adequada, os data centers incorporam uma infraestrutura de suporte robusta, incluindo subsistemas de energia, geradores de reserva e equipamentos de ventilação e arrefecimento, prevenindo o superaquecimento dos equipamentos.

Tipos de Data Centers e Modelos Operacionais

Embora exista uma estrutura geral comum aos data centers, suas operações podem variar significativamente. Existem três principais modelos operacionais, cada um com regras distintas de responsabilização:

  1. On-Premise: Neste modelo tradicional, a infraestrutura do data center é mantida dentro da própria empresa, sendo de uso exclusivo. Isso proporciona maior controle sobre as operações e processos de segurança da informação.
  2. Hyperscale: Construídos e gerenciados por gigantes como Google, Apple e Microsoft, esses data centers possuem enorme capacidade de armazenamento e processamento. Eles são caracterizados por infraestrutura de ponta e equipamentos robustos.
  3. Colocation: Aqui, a gestão é descentralizada; as empresas alugam espaço físico em instalações gerenciadas por provedores especializados. Enquanto o provedor cuida da manutenção, segurança física e conectividade, os clientes são responsáveis pela proteção contra ameaças virtuais e pelo conteúdo armazenado.

Privacidade e Segurança de Dados

Os data centers desempenham um papel fundamental na infraestrutura de TI, o que levanta preocupações significativas quanto à privacidade e segurança dos dados. Muitos dados armazenados são informações pessoais, exigindo conformidade com diversos padrões e regulamentações de proteção de dados em diferentes jurisdições.

Regulamento Geral de Proteção de Dados (GDPR)

Na União Europeia, o GDPR estabelece obrigações rigorosas para a proteção de dados pessoais. Este regulamento aplica-se tanto a organizações dentro da UE quanto àquelas fora dela que processem dados de residentes da UE. O GDPR estipula que a transferência internacional de dados só pode ocorrer se o nível de proteção dos dados não for comprometido. Isso pode ser garantido através de decisões de adequação da Comissão Europeia ou por meio de cláusulas contratuais-tipo (SCCs).

Responsabilização e Modelos de Serviço

A responsabilidade nos data centers depende do modelo operacional e do papel das partes envolvidas. Nos artigos 4(7) e 4(8) do GDPR, define-se que os controladores determinam as finalidades e os meios de tratamento dos dados pessoais, enquanto os processadores tratam dos dados em nome dos controladores. No modelo de colocation, por exemplo, o provedor do data center é responsável pela infraestrutura física, enquanto o cliente gerencia a segurança dos dados.

Normas de Segurança

Além das regulamentações de privacidade, existem padrões específicos que regem a segurança e a operação dos data centers. Entre eles, destacam-se:

  • ANSI/TIA-942: Este padrão classifica os data centers em quatro níveis (Tiers), de acordo com a redundância e a tolerância a falhas.
  • EN 50600: Focado na segurança física dos data centers, aborda desde a infraestrutura de telecomunicações até a gestão de energia.
  • ISO 27001 e ISO 9001: Estes padrões globais estabelecem requisitos para a gestão da segurança da informação e da qualidade.

Sustentabilidade e Impacto Ambiental

Os data centers consomem uma quantidade significativa de energia, representando cerca de 1,3% da demanda global de eletricidade, segundo a Agência Internacional de Energia (IEA). Com o aumento da digitalização, espera-se que este consumo cresça exponencialmente.

Iniciativas de Eficiência Energética

Na União Europeia, o Código de Conduta para Data Centers (EU DC CoC) oferece diretrizes para reduzir o consumo de energia sem comprometer a funcionalidade. Nos Estados Unidos, a Agência de Proteção Ambiental (EPA) promove um programa voluntário focado na eficiência energética dos data centers.

O Cenário no Brasil

O Brasil busca se posicionar como um hub global de data centers. Para isso, a Anatel, em parceria com a ANPD, deve estabelecer regulamentações que garantam infraestrutura segura, eficiência energética e conformidade com a Lei Geral de Proteção de Dados (LGPD). Isso inclui definir modelos de responsabilização, padrões de segurança e incentivar práticas sustentáveis alinhadas às diretrizes internacionais.

Conforme os data centers expandem, é crucial que políticas de segurança e práticas sustentáveis sejam adotadas para assegurar a confidencialidade, integridade e disponibilidade dos dados, além de mitigar impactos ambientais.

Publicado em Deixe um comentário

TRIBUNAL DE JUSTIÇA AJUSTA INDENIZAÇÃO POR DIVULGAÇÃO DE FOTOS ÍNTIMAS EM REDE SOCIAL

Em um julgamento recente realizado pelo Tribunal de Justiça de Minas Gerais, uma decisão anterior de uma corte inferior foi modificada, resultando na condenação de um indivíduo a pagar R$ 25 mil em danos morais à sua ex-namorada. Este valor representa um aumento significativo em comparação com os R$ 5 mil estipulados pela sentença inicial. A causa dessa disputa legal foi a divulgação, por parte do homem, de fotografias íntimas da mulher em uma plataforma de mídia social, após o término de um relacionamento de oito anos marcado por desavenças frequentes.

A vítima relatou que, seguindo a ruptura da relação, recebeu ameaças do ex-companheiro, que prometeu tornar públicas suas fotos íntimas—a ameaça que se concretizou. O acusado, um homem de 61 anos, justificou seus atos alegando não ter nada a perder. Essa ação levou a vítima a procurar a polícia e relatar o ocorrido, destacando o abuso sofrido.

Ao revisar o caso, o desembargador responsável pelo processo reconheceu que o montante inicialmente fixado era inadequado diante da gravidade do dano psicológico e da humilhação enfrentada pela vítima. Ele enfatizou que a exposição não consentida de conteúdo íntimo constitui uma grave violação dos direitos da personalidade, frequentemente direcionada contra mulheres, e é motivada por sentimentos de vingança por parte de ex-parceiros.

A demanda da mulher para que a empresa operadora da rede social fosse considerada co-responsável pelo pagamento da indenização foi rejeitada em ambas as instâncias judiciais. Este caso ressalta a importância de proteger a integridade e a privacidade das pessoas no ambiente digital, bem como as consequências legais para aqueles que violam esses princípios.

Publicado em Deixe um comentário

CONSEQUÊNCIAS JURÍDICAS DO USO DE IMAGENS DE MENORES EM MEMES ONLINE

O fenômeno dos memes na internet, especialmente quando envolvem imagens de crianças, pode ter sérias repercussões legais e sociais. Embora alguns casos de memes virais possam resultar em benefícios financeiros, outros podem levar a consequências negativas, como danos psicológicos para as pessoas envolvidas, particularmente para menores de idade.

De acordo com a legislação brasileira, o direito à imagem é um aspecto fundamental da proteção da privacidade e da honra das pessoas. Esta proteção é ainda mais rigorosa no caso de menores. A Constituição Brasileira assegura a inviolabilidade da imagem e da privacidade, enquanto o Estatuto da Criança e do Adolescente (ECA) oferece uma camada adicional de segurança para os menores.

Quando a imagem de uma criança é usada indevidamente na internet, especialmente de maneira depreciativa, os responsáveis pela disseminação desse conteúdo podem enfrentar consequências legais. Isso inclui a possibilidade de processos na esfera civil por danos morais e até ações criminais.

Para as vítimas desses atos, existem etapas específicas que podem ser seguidas. A coleta de evidências como capturas de tela e links é crucial. Além disso, é importante reportar o conteúdo às plataformas de redes sociais para solicitar sua remoção. Em situações em que os autores das ofensas são desconhecidos, pode-se buscar intervenção judicial para obter informações que possam identificar os responsáveis.

Este cenário destaca a necessidade de uma navegação consciente e responsável na internet, especialmente em relação ao uso de imagens de crianças e adolescentes. As plataformas de redes sociais também têm um papel significativo a desempenhar, devendo adotar medidas proativas para prevenir e responder a tais abusos.

Publicado em Deixe um comentário

REVOLUÇÃO DIGITAL NAS PMES: O IMPACTO E OS DESAFIOS DA IMPLEMENTAÇÃO DA INTELIGÊNCIA ARTIFICIAL

A inteligência artificial (IA) está emergindo como um diferencial potencial para as pequenas e médias empresas (PMEs), oferecendo promessas de eficiência aprimorada e redução de custos, enquanto ao mesmo tempo intensifica a competição no mercado. À medida que as PMEs ponderam sobre a adoção dessa tecnologia avançada, é fundamental que elas compreendam tanto as oportunidades quanto as responsabilidades inerentes.

A IA está cada vez mais inserida em nosso dia a dia, revolucionando a maneira como as empresas operam. Ela automatiza processos rotineiros, melhora a tomada de decisões por meio da análise de dados, fornece atendimento ao cliente através de chatbots e assistentes virtuais, otimiza operações, personaliza o marketing e reforça a detecção de fraudes e segurança. Os benefícios podem ser substanciais, especialmente para PMEs que buscam se diferenciar e crescer em um mercado competitivo.

No entanto, a integração da IA nos negócios não é um caminho sem obstáculos. Requer planejamento estratégico, investimento em novas tecnologias e colaboração com especialistas. Além disso, existem desafios legais consideráveis, particularmente no que diz respeito à privacidade e proteção de dados. A Lei Geral de Proteção de Dados Pessoais (LGPD) do Brasil, por exemplo, estabelece diretrizes claras para a manipulação de dados pessoais, aplicando-se a todas as empresas que operam no país.

Problemas de propriedade intelectual, privacidade de dados, discriminação algorítmica, responsabilidade legal e regulamentações setoriais específicas são aspectos que as PMEs devem abordar com cuidado. A utilização de IA para o gerenciamento de dados pessoais tem suas complexidades, dada a sensibilidade e o risco associado à divulgação ou uso indevido de informações protegidas por lei.

As PMEs devem estar vigilantes e conformes com suas obrigações legais relacionadas à proteção de dados, o que inclui implementar medidas de segurança robustas para prevenir acessos não autorizados e vazamentos de informações. As implicações legais do uso de IA também se estendem à responsabilidade por decisões automatizadas, um território ainda nebuloso em termos de legislação.

As decisões baseadas em IA podem ter consequências significativas para indivíduos ou grupos, e a atribuição de responsabilidade por essas decisões é uma área de intenso debate jurídico. As PMEs precisam estar cientes de que a responsabilidade pode recair tanto sobre a empresa usuária quanto sobre as próprias ferramentas de IA.

Para mitigar riscos e danos, as PMEs devem adotar práticas de governança em IA, como treinamento de funcionários e auditorias regulares, garantindo que as ferramentas de IA estejam alinhadas com as regulamentações aplicáveis. A transparência e a ética no uso da IA são fundamentais para manter a confiança do público e evitar repercussões financeiras ou danos à reputação.

Em resumo, a adoção da IA pode ser uma força transformadora para as PMEs, mas deve ser abordada com diligência e consciência das responsabilidades legais. A tecnologia avança rapidamente, e para que as PMEs mantenham sua relevância e lucratividade em um mundo globalizado, elas devem buscar soluções eficientes e custo-efetivas, sempre ancoradas no compromisso com a proteção dos negócios e dos direitos dos titulares de dados.

Publicado em Deixe um comentário

DECISÃO DO STJ: RESPONSABILIDADE DOS BANCOS NA PROTEÇÃO DE DADOS PESSOAIS

A inadequada manipulação de informações pessoais vinculadas a transações e serviços bancários é considerada uma violação na prestação do serviço, pois é responsabilidade das instituições financeiras garantir a confidencialidade desses dados sensíveis. Recentemente, a 3ª Turma do Superior Tribunal de Justiça emitiu uma decisão favorável em um recurso especial, no qual uma cliente caiu no “golpe do boleto” devido ao vazamento de seus dados por parte do banco.

A jurisprudência estabelece diretrizes para determinar quando os bancos podem ser responsabilizados por golpes de engenharia social, usando como base a Lei Geral de Proteção de Dados (LGPD).

Em termos gerais, a responsabilidade das instituições financeiras depende do tipo de informação em posse dos criminosos. Se forem dados genéricos que poderiam ser obtidos de outras fontes, mesmo que sejam considerados sensíveis, não haverá uma conexão causal. Isso ocorre quando os fraudadores utilizam informações como nome, sobrenome, estado civil, profissão, endereço, telefone, origem racial ou étnica, crença religiosa, orientação política, filiação a sindicatos, informações de saúde ou dados biométricos, por exemplo.

No entanto, os bancos podem ser responsabilizados quando os dados usados pelos criminosos estão relacionados às operações financeiras. Geralmente, essas informações são exclusivamente tratadas pelas instituições, que têm o dever de armazená-las com segurança.

A ministra relatora afirmou que “dados pessoais vinculados a operações e serviços bancários são sigilosos, e é responsabilidade das instituições financeiras garantir seu tratamento seguro. O armazenamento inadequado dessas informações, que permite que terceiros tenham acesso a elas e causem prejuízos aos consumidores, constitui uma falha na prestação do serviço”.

No caso específico que foi julgado, uma mulher contratou um financiamento de veículo em uma financeira e optou por quitar a dívida antecipadamente. Ela seguiu as instruções do site da instituição e enviou um e-mail solicitando informações sobre o contrato e o valor devido. Poucos dias depois, uma funcionária da financeira entrou em contato via WhatsApp, informando que havia 32 parcelas em aberto e enviando um boleto de R$ 19,2 mil. A cliente efetuou o pagamento, mas posteriormente percebeu que havia sido vítima de fraude.

O tribunal de primeira instância considerou a dívida quitada, mas o Tribunal de Justiça de São Paulo (TJ-SP) revogou a sentença, argumentando que a fraude ocorreu devido à falta de cautela da consumidora. Alguns indícios incluíam a troca de mensagens informais via WhatsApp e inconsistências no boleto, como o banco e o beneficiário indicados, que eram diferentes dos do contrato de financiamento, além de um número incorreto do documento.

Não era razoável esperar que a cliente percebesse essas discrepâncias, uma vez que a pessoa que a contatou em nome da financeira possuía informações confidenciais sobre ela. Os fraudadores tinham conhecimento de que a mulher era cliente da empresa, que havia enviado um e-mail para quitar a dívida e que tinham informações sobre o financiamento contratado. Essas informações são sigilosas e deveriam ser protegidas pela instituição financeira.

Portanto, se esses dados chegaram ao conhecimento dos criminosos, a responsabilidade da financeira não pode ser descartada devido ao tratamento inadequado dessas informações, o que facilitou a fraude.

Publicado em Deixe um comentário

ATACADISTA É RESPONSABILIZADO LEGALMENTE POR FALHAS DE SEGURANÇA EM CASO DE ATAQUE HACKER

O atributo alt desta imagem está vazio. O nome do arquivo é image.png

A 2ª Turma Recursal do Poder Judiciário de Santa Catarina manteve uma decisão que responsabiliza duas empresas por um ataque hacker devido à falta de cuidados na contratação de um firewall para proteção do ambiente de rede. A invasão resultou em um prejuízo de R$ 3,9 mil, levando à sentença do Juizado Especial Cível de São Miguel do Oeste que determinou que cada empresa pagasse metade do prejuízo.

No caso, uma empresa do setor atacadista e varejista firmou um contrato com uma empresa que administra máquinas de pagamento por cartão de crédito. A invasão ao sistema ocorreu em janeiro de 2022, quando funcionários da empresa de atacado enfrentaram dificuldades para acessar a conta. A invasão resultou na transferência de R$ 3,9 mil para um indivíduo não autorizado.

O atacadista moveu uma ação de danos materiais contra a empresa de cartão de crédito, buscando a devolução dos fundos indevidamente transferidos. A empresa de cartão alegou culpa de terceiros e a inaplicabilidade do Código de Defesa do Consumidor.

A responsabilização das empresas baseou-se na falha concorrente, onde a empresa de cartão foi condenada a pagar R$ 1.950 ao atacadista. A operadora da máquina de cartão recorreu à Turma Recursal, mas teve seu pedido negado. A decisão destacou que a empresa atacadista foi negligente ao não contratar um firewall de proteção para a rede e ao não verificar as tentativas de acesso ao sistema. Além disso, a empresa de cartão contribuiu para o incidente devido à segurança insuficiente do sistema, incluindo senhas fracas e falta de monitoramento de IPs.

Nesse contexto, é importante ressaltar a relevância das práticas de segurança da informação, como o uso de senhas fortes, para proteger dados pessoais e informações sensíveis. A Lei 13.709/2018, conhecida como Lei Geral de Proteção de Dados (LGPD), estabelece diretrizes para a segurança e proteção de dados, e empresas que negligenciam essas práticas podem enfrentar sanções administrativas e multas.

A Associação Nacional dos Profissionais de Privacidade de Dados (ANPPD®) também destaca a importância do entendimento e discussão sobre a privacidade de dados, buscando melhorias na lei e promovendo o papel dos agentes de privacidade de dados. A adoção de medidas rigorosas de segurança da informação não apenas evita prejuízos financeiros, mas também auxilia as empresas a estarem em conformidade com a LGPD, protegendo os direitos dos titulares de dados e mantendo a confiança dos clientes.

(Fonte: Baseado em informações do TJ/SC)