Publicado em Deixe um comentário

LEIS, TECNOLOGIA E NOVOS RUMOS PARA 2025

O início de um novo ano é sempre repleto de análises e previsões em diversos campos. No setor jurídico, 2025 promete ser um ano de debates intensos e decisões importantes, com destaque para novas leis, projetos em tramitação e julgamentos de grande impacto. Aqui, exploramos os temas mais relevantes que podem moldar o cenário jurídico nos próximos meses.

A Lei das Bets e os desafios de sua implementação

Desde dezembro de 2023, a chamada “Lei das Bets” está em vigor, regulamentando as apostas esportivas no Brasil. No entanto, a eficácia da lei tem sido questionada, especialmente em relação à proteção de públicos vulneráveis. Em um movimento significativo, o Supremo Tribunal Federal (STF) determinou que o governo implemente mecanismos para impedir o uso de recursos de programas sociais, como o Bolsa Família, em apostas. Além disso, o STF antecipou a aplicação de medidas que restringem publicidade voltada a crianças e adolescentes, reforçando a preocupação com a ética na promoção desse mercado.

Reforma do Código Civil: um novo marco legislativo?

Outro ponto que desperta atenção é a reforma do Código Civil. Um anteprojeto apresentado no ano passado sugere mudanças profundas em diversas áreas do direito, como família, sucessões, empresarial, contratual e responsabilidade civil. A novidade mais comentada é a inclusão de uma seção específica para o direito digital, abordando temas como patrimônio e herança digital, inteligência artificial e proteção de menores no ambiente online. Caso aprovado, o novo Código Civil será um marco regulatório importante, adaptando-se às demandas de uma sociedade cada vez mais digital.

A responsabilidade das plataformas digitais em debate

A discussão sobre a responsabilização de plataformas digitais também promete ser um ponto alto de 2025. O STF retomará o julgamento sobre o artigo 19 do Marco Civil da Internet, que trata da responsabilidade das empresas por conteúdos publicados por terceiros. Esse debate é crucial para definir os limites entre liberdade de expressão e a necessidade de moderação de conteúdo em ambientes digitais, um tema cada vez mais urgente no Brasil e no mundo.

Regulação da inteligência artificial: um avanço necessário

O Brasil também está avançando na criação de um marco regulatório para a inteligência artificial. A proposta, que já passou pelo Senado e agora aguarda votação na Câmara, estabelece diretrizes gerais para o uso da IA. Entre os destaques, estão regras para a classificação de risco dos sistemas e a proteção de direitos autorais em relação às fontes usadas para o treinamento de modelos generativos. Este será um passo importante para equilibrar inovação tecnológica e segurança jurídica.

Economia de compartilhamento: novos desafios no judiciário

No campo da economia de compartilhamento, empresas como plataformas de transporte e hospedagem continuam no centro das atenções. O STF analisará a existência de vínculo empregatício entre motoristas de aplicativos e as empresas, enquanto o Superior Tribunal de Justiça (STJ) poderá decidir sobre a legalidade de serviços de transporte compartilhado. Esses julgamentos definirão as bases para o futuro desses modelos de negócio no Brasil.

O que esperar do futuro jurídico?

Com tantas questões em pauta, 2025 será um ano decisivo para o direito brasileiro. As discussões sobre leis, tecnologia e o papel das plataformas digitais evidenciam a necessidade de atualização constante do ordenamento jurídico, acompanhando as transformações sociais e econômicas. Fiquemos atentos às decisões que moldarão os rumos do país.

Publicado em Deixe um comentário

COMO PROTEGER USUÁRIOS DE IMPACTOS PSICOLÓGICOS DA INTELIGÊNCIA ARTIFICIAL

A crescente integração da inteligência artificial (IA) no cotidiano levanta questões fundamentais sobre os limites da responsabilidade das empresas que desenvolvem essas tecnologias, especialmente quando se trata de seu impacto emocional e psicológico sobre os usuários. Um caso recente nos Estados Unidos, envolvendo a morte de um jovem após interações com um chatbot, lança luz sobre a complexidade desses desafios, que, embora inéditos, podem se tornar cada vez mais comuns à medida que a IA se torna mais acessível.

A situação em questão envolve a alegação de que um chatbot criado por uma startup de IA foi um fator contribuidor para a morte de um adolescente, que teria se tornado emocionalmente dependente de um personagem interativo desenvolvido pela plataforma. As últimas mensagens trocadas entre o jovem e o bot indicariam uma forte conexão emocional, culminando em uma promessa do chatbot de “retornar” para o usuário, pouco antes de sua morte. Este episódio ilustra um fenômeno crescente de dependência emocional de tecnologias que simulam interações humanas, uma preocupação crescente entre especialistas em saúde mental e direito.

No contexto brasileiro, a falta de regulamentação específica para a inteligência artificial representa um obstáculo significativo à responsabilização das empresas por danos causados por essas tecnologias. Atualmente, no Brasil, não há um arcabouço legal que trate diretamente do uso de IA e suas implicações, como em casos onde sua interação com usuários resulta em danos emocionais graves. Embora existam projetos de lei em trâmite, ainda não há uma legislação consolidada que forneça um marco regulatório claro sobre o tema, o que dificulta a busca por responsabilidades legais em situações como a mencionada.

Essa lacuna normativa torna ainda mais complexo o debate sobre a responsabilização das empresas de IA em casos de danos emocionais, especialmente quando esses danos levam a consequências trágicas, como a morte. A responsabilidade civil, nesse cenário, ainda não é amplamente definida, e o campo é considerado inédito no Judiciário brasileiro. A falta de precedentes para um caso como esse e a inexistência de normas claras criam um ambiente jurídico incerto, no qual seria difícil estabelecer uma conexão direta entre o uso da tecnologia e as consequências para o usuário.

Além disso, a Lei Geral de Proteção de Dados Pessoais (LGPD) no Brasil, que regula o tratamento de dados, não abrange a regulamentação do desenvolvimento ou das interações promovidas por IA, como, por exemplo, o impacto psicológico que esses sistemas podem gerar. Embora a ANPD (Autoridade Nacional de Proteção de Dados) tenha o papel de fiscalizar a privacidade dos dados dos usuários, questões éticas e de segurança no uso da IA ainda não são devidamente regulamentadas. Isso implica que, em termos jurídicos, ainda há uma zona cinzenta que precisa ser explorada para garantir a segurança dos usuários, em especial no caso de crianças e adolescentes.

Com a proliferação de plataformas que utilizam IA, muitas das quais têm como público-alvo menores de idade, surge a necessidade urgente de uma regulamentação robusta que proteja os usuários dos potenciais danos psicológicos causados por interações com essas tecnologias. Um dos maiores desafios será encontrar o equilíbrio entre a inovação, que traz benefícios inegáveis, e a segurança, que é essencial para a preservação do bem-estar dos usuários, especialmente os mais vulneráveis.

Portanto, o caso nos Estados Unidos deve ser visto como um alerta para o Brasil e para o mundo. A regulamentação de tecnologias emergentes como a IA deve ser tratada com urgência, com o objetivo de estabelecer diretrizes claras sobre a responsabilidade das empresas que desenvolvem essas plataformas. Além disso, é imprescindível que o sistema jurídico se prepare para lidar com a nova realidade digital, garantindo que os direitos e a saúde dos usuários sejam protegidos adequadamente.

É evidente que, à medida que a IA avança, a sociedade precisa acompanhar e se adaptar às novas demandas legais, sociais e éticas que surgem. A regulação, longe de ser um obstáculo ao progresso tecnológico, deve ser vista como uma ferramenta essencial para assegurar que as inovações digitais possam ser utilizadas de maneira segura e responsável.

Publicado em Deixe um comentário

CONSULTA ESTRATÉGICA SOBRE IA E DADOS PESSOAIS VISA AMPLIAR SEGURANÇA E TRANSPARÊNCIA

Foi lançada uma consulta estratégica para subsidiar o projeto regulatório sobre Inteligência Artificial (IA) e Proteção de Dados Pessoais. A iniciativa, conduzida por um órgão regulador, permanecerá aberta por 30 dias e busca reunir contribuições de especialistas, organizações e diversos setores da sociedade para fortalecer e orientar o processo de regulamentação.

Composta por 15 perguntas organizadas em quatro blocos temáticos — Princípios da LGPD, Hipóteses Legais, Direitos dos Titulares, e Boas Práticas e Governança — a consulta tem como foco identificar práticas alinhadas às diretrizes da Lei Geral de Proteção de Dados (LGPD) e da regulamentação vigente. O objetivo é conciliar inovação tecnológica e a livre iniciativa com a proteção dos direitos dos titulares de dados pessoais.

Embora não obrigatória, como ocorre com consultas e audiências públicas, essa modalidade de coleta de subsídios é reconhecida como uma ferramenta valiosa. Ela possibilita que o regulador receba contribuições técnicas detalhadas, estudos de caso e análises de práticas internacionais. Essas informações são fundamentais para fundamentar a regulamentação, garantindo que ela seja tecnicamente robusta e atualizada diante dos desafios da IA.

Outro aspecto destacado é o potencial da consulta em identificar riscos associados ao uso de decisões automatizadas baseadas no tratamento de dados pessoais. Entre esses riscos, estão possíveis vieses algorítmicos e práticas discriminatórias, que podem comprometer os direitos e a equidade no uso de tecnologias.

A iniciativa está alinhada com a agenda regulatória de 2023-2024 e atende à necessidade de regulamentar dispositivos da LGPD, como o direito de revisão de decisões automatizadas previsto no artigo 20 da lei. A consulta é aberta a toda a sociedade, e as contribuições podem ser enviadas por meio da plataforma Participa+Brasil até o dia 5 de dezembro.

Esse movimento reflete o compromisso do regulador em promover um equilíbrio entre a inovação tecnológica e a proteção de direitos, garantindo que o avanço da inteligência artificial no país seja responsável, inclusivo e alinhado às melhores práticas.

Publicado em Deixe um comentário

RADIÔMICA E INTELIGÊNCIA ARTIFICIAL: ALIADOS NO COMBATE AO CÂNCER DE MAMA TRIPLO NEGATIVO

O câncer de mama triplo negativo (CMTN) é reconhecido por sua agressividade, caracterizada pelo rápido crescimento, alta capacidade de metástase e menor resposta a tratamentos convencionais. Diferentemente de outros subtipos de câncer de mama, o CMTN tem maior prevalência entre mulheres jovens, o que desafia as estatísticas tradicionais da doença.

Esse subtipo é identificado por exames imunohistoquímicos e definido pela ausência dos receptores de estrogênio e progesterona, além da ausência da amplificação do gene HER2. Essa configuração molecular torna o tumor insensível a terapias hormonais e direcionadas ao HER2, ampliando os desafios do tratamento. Outro aspecto crítico é sua alta heterogeneidade tumoral, o que significa que as células cancerígenas apresentam variações genéticas, moleculares e patológicas significativas. Essa variabilidade influencia diretamente a resposta ao tratamento e o prognóstico dos pacientes.

Diante desse cenário, novas estratégias diagnósticas e prognósticas são urgentes. Uma pesquisa desenvolvida por um grupo especializado em engenharia biomédica utiliza a técnica de radiômica para análise quantitativa de imagens mamárias. A radiômica combina imagens médicas avançadas com inteligência artificial, permitindo a extração de padrões e atributos invisíveis a olho nu. O objetivo principal é criar modelos preditivos para identificar precocemente o CMTN em pacientes com achados suspeitos, aprimorando a precisão do diagnóstico e a eficácia do prognóstico.

Essa abordagem inovadora visa preencher uma lacuna crítica no tratamento do CMTN, um subtipo de câncer que frequentemente exige estratégias terapêuticas abrangentes devido à sua complexidade molecular. Ao permitir uma caracterização precoce e detalhada dos tumores, o uso da radiômica pode facilitar a identificação de características específicas da heterogeneidade tumoral e auxiliar na personalização do tratamento.

A integração de imagens de mamografia e ressonância magnética no desenvolvimento de modelos radiômicos representa um avanço significativo. Essa combinação pode melhorar a precisão diagnóstica e orientar tratamentos mais eficazes, contribuindo para transformar a forma como o CMTN é gerenciado. A expectativa é que os resultados dessas pesquisas pavimentem o caminho para futuras abordagens terapêuticas personalizadas, oferecendo novas perspectivas na luta contra esse subtipo tão desafiador de câncer de mama.

Publicado em Deixe um comentário

WORLDCOIN SOB ANÁLISE: ANPD INVESTIGA PROJETO DE IDENTIDADE DIGITAL BASEADA EM BIOMETRIA

O projeto Worldcoin, que busca criar uma identidade digital global por meio de tecnologia de reconhecimento de íris, está sendo analisado pela Autoridade Nacional de Proteção de Dados (ANPD) no Brasil. A iniciativa utiliza um dispositivo conhecido como “Orb” para capturar imagens da íris e gerar um código único para cada indivíduo. De acordo com os desenvolvedores, essas imagens não são armazenadas, sendo utilizadas apenas para a verificação. Como incentivo, os participantes recebem um pagamento em criptomoeda equivalente a aproximadamente R$ 320.

O objetivo principal do projeto, segundo seus idealizadores, é promover uma forma de comprovação de identidade em um mundo cada vez mais digital, dominado por sistemas de inteligência artificial e robôs. A tecnologia também é apresentada como uma solução para prevenir fraudes e facilitar a distribuição de recursos, incluindo propostas como uma renda básica universal.

Apesar das promessas, o projeto enfrenta resistências globais. Em alguns países, como Quênia e Alemanha, as operações foram suspensas devido a preocupações relacionadas à privacidade e segurança dos dados. No Brasil, a ANPD busca garantir que o uso de informações biométricas esteja em conformidade com a Lei Geral de Proteção de Dados (LGPD). A autoridade já realizou uma reunião virtual com representantes da empresa responsável e solicitou informações complementares sobre os procedimentos adotados.

Caso a ANPD identifique riscos significativos aos direitos dos titulares de dados, medidas restritivas podem ser aplicadas. O caso reflete as tensões globais entre inovações tecnológicas e a proteção da privacidade, um debate que só tende a se intensificar no contexto do avanço digital.

Publicado em Deixe um comentário

OAB APROVA DIRETRIZES PARA O USO ÉTICO DA INTELIGÊNCIA ARTIFICIAL NA ADVOCACIA

A Ordem dos Advogados do Brasil deu um importante passo no debate sobre o uso da inteligência artificial (IA) generativa na prática jurídica ao aprovar, recentemente, recomendações específicas sobre o tema. As diretrizes foram elaboradas por um órgão interno especializado, voltado para cibersegurança, inteligência artificial e proteção de dados, e abordam pontos fundamentais para o uso responsável dessa tecnologia no exercício da advocacia.

Entre os pilares destacados estão a aplicação de legislação específica, a preservação da confidencialidade e privacidade das informações, o compromisso com a ética profissional e a transparência na comunicação sobre o uso de ferramentas de IA. Esses princípios visam não apenas garantir a segurança dos dados dos clientes, mas também assegurar que o uso da tecnologia esteja alinhado aos valores éticos da profissão. O documento também reforça a necessidade de revisar periodicamente as práticas recomendadas, acompanhando as rápidas mudanças no cenário tecnológico.

A aprovação foi vista como uma medida necessária diante dos desafios impostos pelo avanço tecnológico no campo jurídico. A Ordem reconheceu que, embora a IA tenha potencial para transformar processos e facilitar o trabalho dos profissionais, é crucial que sua aplicação ocorra de maneira responsável, protegendo os direitos dos clientes e o sigilo das informações.

Outro ponto relevante é que, embora o documento não tenha força sancionatória, ele reforça a importância de observar as diretrizes éticas já previstas no código de conduta profissional. O objetivo central é proporcionar segurança e clareza para advogados e escritórios que já utilizam ou pretendem adotar ferramentas de inteligência artificial em suas atividades.

A iniciativa da Ordem reflete um movimento necessário para equilibrar inovação tecnológica e responsabilidade profissional, consolidando um caminho ético para o uso da IA na advocacia brasileira.

Publicado em Deixe um comentário

CIBERCRIMES: A IMPORTÂNCIA DA CULTURA DE SEGURANÇA NAS ORGANIZAÇÕES BRASILEIRAS

No Cyber Security Summit 2024, em São Paulo, foi revelado que o Brasil registrou um impressionante número de mais de 700 milhões de ataques cibernéticos no último ano, representando uma média de 1.379 ataques por minuto. Esse volume coloca o país em uma posição alarmante: segundo lugar no ranking mundial de cibercrimes.

Esse cenário ressalta uma crescente sofisticação das ameaças digitais, especialmente com o avanço de tecnologias como a inteligência artificial (IA). Cada vez mais complexos, esses ataques exigem que empresas e colaboradores adotem medidas de proteção adequadas para proteger suas informações.

Nesse contexto, a segurança cibernética surge como uma responsabilidade compartilhada, que vai além da implementação de tecnologias robustas. É crucial incorporar práticas de conscientização e capacitação entre os colaboradores, fortalecendo a cultura de segurança dentro das organizações. Embora as ferramentas tecnológicas sejam fundamentais para a proteção, uma abordagem que se concentre exclusivamente nelas pode falhar em garantir a resiliência total contra as ameaças.

Para combater o crescente número de ataques, a integração da segurança no dia a dia das empresas é essencial. Isso inclui processos e campanhas que sensibilizem os colaboradores, criando uma mentalidade preventiva e fortalecendo o entendimento sobre os objetivos dos invasores. Um treinamento psicológico voltado para a cibersegurança, por exemplo, ajuda a preparar os funcionários para reconhecer e evitar golpes, reduzindo a vulnerabilidade frente às técnicas de engenharia social.

Com a soma de tecnologia e conscientização, empresas podem desenvolver uma postura mais resistente aos ataques, integrando a segurança cibernética não apenas como uma ferramenta, mas como um valor essencial no ambiente corporativo.

Publicado em Deixe um comentário

DEEPFAKES E PRIVACIDADE: QUANDO A TECNOLOGIA INVADE O DIREITO DE IMAGEM

Recentemente, um caso viral nas redes sociais chamou a atenção para os riscos do uso de deepfakes e a importância de zelar pela privacidade e segurança online. Tudo começou quando uma internauta descobriu que uma marca havia usado inteligência artificial para recriar seu rosto e promover produtos, sem o consentimento dela. O vídeo em que ela compartilha essa experiência já conta com milhões de visualizações e levantou debates sobre os perigos e a ética do uso da IA.

Deepfakes, que são vídeos e imagens criados ou alterados com IA para parecerem reais, trazem um desafio inédito. A legislação brasileira protege o direito de imagem como um direito fundamental, o que significa que o uso da imagem de uma pessoa sem sua autorização pode, sim, resultar em penalidades legais e até ações por danos morais, principalmente se a imagem for usada de forma que deturpe a identidade ou os valores da pessoa envolvida.

Além disso, o uso de deepfakes em campanhas publicitárias pode confundir o público, dando a entender que a pessoa está associada à marca ou apoia o produto, o que pode ser visto como publicidade enganosa e falsidade ideológica. Para evitar esse tipo de problema, as empresas devem agir com muito cuidado ao usarem IA em estratégias de marketing.

A IA processa e aprende com grandes volumes de dados, o que, em algumas situações, pode levar à utilização de elementos protegidos por direitos de outras pessoas. É fundamental que as marcas estejam atentas e façam uma verificação cuidadosa para garantir que o uso de inteligência artificial seja seguro e ético, respeitando os direitos das pessoas. Monitorar o uso dessas tecnologias e contar com especialistas em proteção de dados são passos essenciais para que o uso de IA esteja alinhado com a legislação e com os valores da empresa.

Inovar e usar a tecnologia de forma responsável, respeitando as pessoas e garantindo que a experiência do cliente seja positiva e de confiança.

Publicado em Deixe um comentário

COMO EMPRESAS E BANCOS ENFRENTAM A EVOLUÇÃO DO CIBERCRIME

A inovação no campo da segurança digital é um fator essencial para empresas, especialmente em tempos de crescimento de golpes sofisticados. A fraude com uso de reconhecimento facial e biometria — como o “golpe das flores” — evidencia que criminosos não dependem exclusivamente de tecnologias avançadas, mas sim da combinação de táticas de engenharia social e abordagens digitais e presenciais. Neste golpe, indivíduos são manipulados a fornecer fotos como “comprovantes de recebimento” de presentes, sem perceber que essas imagens serão usadas como prova de vida para, sem consentimento, solicitar financiamentos ou abrir créditos.

Esse exemplo alerta para a necessidade de aprimorar práticas de segurança além das medidas tecnológicas já estabelecidas. Em algumas situações, mesmo com mecanismos de validação e biometria, os bancos têm enfrentado desafios. A evolução, neste caso, está na análise contínua de dados e na conscientização dos clientes sobre abordagens suspeitas, como as ligações falsas em nome de centrais de atendimento. Para reforçar a proteção, bancos e empresas de tecnologia já implementam alertas em aplicativos e outras ferramentas para notificar sobre possíveis fraudes em tempo real.

No entanto, a segurança digital no Brasil ainda apresenta lacunas importantes. Embora a Lei Geral de Proteção de Dados (LGPD) esteja em vigor desde 2020, a adequação de pequenas e médias empresas permanece limitada. Muitos negócios de menor porte ainda precisam avançar em governança de dados, muitas vezes por conta de orçamentos restritos e pela priorização de outras áreas que trazem retornos diretos. A conscientização sobre segurança da informação, contudo, continua essencial, e não somente no nível da própria organização, mas também entre os fornecedores. Pequenas falhas de segurança em empresas terceirizadas podem colocar em risco empresas maiores, que buscam estratégias para proteger não só suas próprias operações, mas as dos parceiros e fornecedores.

O setor financeiro, devido ao seu alto valor para criminosos, tende a investir pesado em medidas de proteção, aplicando camadas de segurança em várias etapas de seus sistemas. Uma abordagem comum é a estratégia de “zero trust”, onde cada ação interna é tratada como suspeita até que seja verificada, empregando técnicas como a autenticação multifatorial e o monitoramento em tempo real de transações para detecção de anomalias. O uso de inteligência artificial e machine learning, aliado a biometria e sistemas de comportamento do usuário, é cada vez mais comum para identificar padrões incomuns e possíveis fraudes.

Para empresas que buscam melhorar suas práticas de segurança, é fundamental investir em tecnologia e capacitação interna e desenvolver uma cultura de segurança. Isso inclui o uso de dados de maneira responsável e estratégica para evitar vazamentos e abusos. O conceito de “confiança zero” ajuda a criar uma barreira sólida, dificultando tentativas de ataque. No setor financeiro, a segurança não é tratada como uma despesa, mas como um investimento crucial para a preservação da confiança dos clientes e para a reputação da instituição.

É preciso observar que o campo da segurança digital nunca é estático. As ameaças evoluem rapidamente, exigindo que a proteção também seja dinâmica e capaz de enfrentar novos desafios. Empresas devem continuar aprimorando sua capacidade de resposta e prevenção, garantindo uma segurança robusta não apenas em seu ambiente, mas também nos laços que mantêm com o ecossistema empresarial mais amplo.

Publicado em Deixe um comentário

COMO A INTELIGÊNCIA ARTIFICIAL IMPACTA A SEGURANÇA DIGITAL E O QUE AS EMPRESAS PODEM FAZER

O Brasil está enfrentando um cenário desafiador quando se trata de segurança digital. Nos últimos doze meses, o país registrou mais de 700 milhões de tentativas de ataque cibernético, uma média de quase 1.400 ataques por minuto. Esse dado coloca o Brasil entre os países com mais invasões digitais no mundo.

Esse cenário se deve, em parte, aos avanços da inteligência artificial (IA), que têm tornado os ataques mais sofisticados e difíceis de combater. Por um lado, a IA permite novas tecnologias de proteção; por outro, é também utilizada por criminosos para realizar golpes mais convincentes. Um exemplo é o “vishing”, que explora a tecnologia de voz para se passar por uma pessoa conhecida e enganar a vítima para obter dados confidenciais. Este tipo de golpe é cada vez mais comum e representa hoje uma grande parte dos ataques cibernéticos.

Por isso, investir em tecnologia de defesa é fundamental, mas é igualmente importante capacitar as equipes e criar uma cultura de segurança. Quando todos os colaboradores têm conhecimento básico sobre os riscos digitais e adotam boas práticas de segurança, a organização se torna muito mais protegida. Muitas empresas bem-sucedidas em segurança têm unido tecnologia avançada com campanhas de conscientização para fortalecer a proteção.

O custo de um ataque cibernético é alto. Segundo um relatório recente, o Brasil tem um custo médio de R$ 6,75 milhões por violação de dados, e ataques de phishing — golpes que induzem a vítima a fornecer informações confidenciais — são os que mais oneram, podendo chegar a R$ 7,75 milhões em média. Esses custos vão além da perda de dados, incluindo prejuízos à reputação da empresa e à confiança dos clientes, além de possíveis questões legais.

A proteção contra ataques cibernéticos vai além da tecnologia. Criar um ambiente onde todos compreendam a importância da segurança digital é um diferencial que ajuda a reduzir os riscos e aumenta a capacidade de resposta frente a incidentes. A segurança é tanto sobre tecnologia quanto sobre a conscientização e o cuidado no dia a dia.

Publicado em Deixe um comentário

USO DE DADOS NA INTELIGÊNCIA ARTIFICIAL: X CORP TEM PRAZO PARA ESCLARECIMENTOS À ANPD

A Autoridade Nacional de Proteção de Dados (ANPD) intensifica sua atuação sobre o uso de dados pessoais na X Corp, anteriormente conhecida como Twitter. Em resposta às recentes alterações nos termos de uso da plataforma, a ANPD convocou a empresa para esclarecer a inclusão de dados dos usuários no treinamento de inteligência artificial. A X Corp tem até 15 de novembro de 2024 para se manifestar, após a convocação formal ocorrida na última segunda-feira.

A investigação, iniciada em julho deste ano, visa assegurar que as práticas da X Corp estejam em conformidade com a Lei Geral de Proteção de Dados (LGPD). A urgência da ANPD em obter respostas decorre da iminência das novas políticas de uso de dados da plataforma, que em breve entrarão em vigor. Segundo a autoridade, a ausência de resposta à convocação pode caracterizar obstrução de fiscalização, uma infração grave conforme a LGPD, indicando que, na falta de colaboração, a ANPD agirá com as informações que tiver à disposição.

É muito importante destacar as potenciais consequências caso a X Corp não atenda às exigências da autoridade. Em caso de desrespeito à LGPD, a plataforma pode enfrentar sanções, incluindo multas substanciais e até a suspensão de serviços no Brasil. O uso de dados pessoais para IA deve ser precedido de consentimento claro e informado, em linha com as exigências rigorosas da legislação brasileira de proteção de dados.

A expectativa recai agora sobre como a X Corp responderá às demandas, especialmente em um contexto em que a transparência e a adequação às normativas da LGPD são essenciais. A ausência de uma manifestação oficial até o momento levanta questionamentos sobre a postura da empresa, mas espera-se que ela busque ajustar-se às exigências locais, evitando sanções que poderiam afetar sua operação no Brasil.

Publicado em Deixe um comentário

COMO PROTEGER DADOS EM AMBIENTES DE NUVEM HÍBRIDA E INTELIGÊNCIA ARTIFICIAL

Em tempos de transformação digital acelerada, a segurança cibernética se destaca como um pilar essencial para empresas e governos que buscam se manter à frente das ameaças. Outubro, conhecido como o mês de conscientização em segurança cibernética, serve de alerta para que organizações de todos os portes revisem e fortaleçam suas práticas de proteção. Em um cenário tecnológico que avança rapidamente, os novos modelos de armazenamento e análise de dados, como a nuvem híbrida e a inteligência artificial (IA), trazem à tona tanto oportunidades quanto desafios significativos.

A nuvem híbrida, combinando nuvens públicas e privadas, surge como uma solução prática para muitas empresas. Esse modelo permite que organizações escalem rapidamente, tirando proveito da flexibilidade da nuvem pública, ao mesmo tempo em que mantêm informações sensíveis e processos críticos em servidores privados, onde o controle e a segurança podem ser mais rigorosos. Essa abordagem híbrida promove a uniformidade na experiência de uso e facilita a gestão de dados ao longo de diferentes ambientes, o que contribui para uma melhor proteção contra incidentes.

A IA, por sua vez, adiciona um novo nível de complexidade. Capaz de analisar grandes volumes de dados e automatizar uma variedade de processos, a IA pode aumentar significativamente a eficiência operacional e gerar insights valiosos. Porém, com essa implementação vêm questões fundamentais de segurança. Sistemas de IA, por sua própria natureza, são alvos atrativos para ataques, exigindo políticas de proteção que preservem a integridade e a confidencialidade dos dados. Esse avanço tecnológico requer uma vigilância constante, uma vez que a IA também apresenta vulnerabilidades, como as que permitem adulterações e acessos não autorizados a dados.

Em um cenário que só aumenta em complexidade, um estudo recente indicou que quase 80% das empresas brasileiras registraram incidentes de segurança nos últimos 12 meses. O impacto das tecnologias emergentes, como a IA generativa, é uma preocupação crescente para muitos, que receiam o surgimento de novos desafios relacionados à privacidade e segurança.

Para que a tecnologia continue a impulsionar a inovação de forma segura, as equipes de TI precisam de soluções avançadas que permitam proteger dados em ambientes complexos, como a nuvem híbrida, sem comprometer a continuidade dos negócios. As práticas de segurança devem acompanhar o ritmo acelerado da inovação, especialmente quando se trata de integração de IA e de ambientes híbridos, onde é essencial monitorar e proteger sistemas de forma eficaz.

A segurança cibernética não deve ser vista como uma meta, mas como um processo contínuo e dinâmico, que exige a adaptação constante das práticas e tecnologias de defesa. Este mês de conscientização nos lembra da importância de manter uma abordagem integrada e flexível que atenda a todas as frentes de proteção e inovar de maneira responsável. Com uma estratégia sólida, que une os recursos da nuvem híbrida e as capacidades da IA, é possível criar um ambiente digital mais seguro e sustentável para todos os setores.