Publicado em Deixe um comentário

USO DE DADOS NA INTELIGÊNCIA ARTIFICIAL: X CORP TEM PRAZO PARA ESCLARECIMENTOS À ANPD

A Autoridade Nacional de Proteção de Dados (ANPD) intensifica sua atuação sobre o uso de dados pessoais na X Corp, anteriormente conhecida como Twitter. Em resposta às recentes alterações nos termos de uso da plataforma, a ANPD convocou a empresa para esclarecer a inclusão de dados dos usuários no treinamento de inteligência artificial. A X Corp tem até 15 de novembro de 2024 para se manifestar, após a convocação formal ocorrida na última segunda-feira.

A investigação, iniciada em julho deste ano, visa assegurar que as práticas da X Corp estejam em conformidade com a Lei Geral de Proteção de Dados (LGPD). A urgência da ANPD em obter respostas decorre da iminência das novas políticas de uso de dados da plataforma, que em breve entrarão em vigor. Segundo a autoridade, a ausência de resposta à convocação pode caracterizar obstrução de fiscalização, uma infração grave conforme a LGPD, indicando que, na falta de colaboração, a ANPD agirá com as informações que tiver à disposição.

É muito importante destacar as potenciais consequências caso a X Corp não atenda às exigências da autoridade. Em caso de desrespeito à LGPD, a plataforma pode enfrentar sanções, incluindo multas substanciais e até a suspensão de serviços no Brasil. O uso de dados pessoais para IA deve ser precedido de consentimento claro e informado, em linha com as exigências rigorosas da legislação brasileira de proteção de dados.

A expectativa recai agora sobre como a X Corp responderá às demandas, especialmente em um contexto em que a transparência e a adequação às normativas da LGPD são essenciais. A ausência de uma manifestação oficial até o momento levanta questionamentos sobre a postura da empresa, mas espera-se que ela busque ajustar-se às exigências locais, evitando sanções que poderiam afetar sua operação no Brasil.

Publicado em Deixe um comentário

O QUE PROFISSIONAIS DE SAÚDE PRECISAM SABER SOBRE REALIDADE ESTENDIDA E SEGURANÇA DIGITAL

A realidade estendida (RE), especialmente por meio de tecnologias como a realidade virtual (RV), está transformando os ambientes de assistência médica, oferecendo novas possibilidades para tratamentos, simulações e até mesmo para a reabilitação de pacientes. No entanto, o avanço rápido desta tecnologia levanta preocupações significativas sobre privacidade e segurança cibernética, especialmente pelo risco de exposição de dados sensíveis. Um recente estudo publicado na área de computação espacial e tecnologia em saúde explora exatamente essas preocupações, trazendo à tona os principais desafios e as lacunas de segurança que essa integração tecnológica apresenta para o setor de saúde.

A análise revela que, entre os estudos revisados, poucas pesquisas abordam especificamente a segurança cibernética no contexto da RV aplicada à saúde. De um conjunto de 29 estudos, apenas 3 focaram em aplicativos e serviços de assistência médica, indicando uma clara necessidade de aprofundamento nesse campo. O estudo destaca que a ameaça mais crítica à segurança de pacientes e usuários envolve a possibilidade de divulgação de informações sensíveis, uma vez que dados pessoais e relacionados à saúde podem ser copiados e comprometidos, quebrando a confidencialidade essencial nos cuidados médicos. Além disso, há a preocupação com a inferência de dados, onde informações de saúde podem ser deduzidas a partir de padrões de uso da RV, criando riscos de violação de privacidade.

Outra ameaça relevante identificada é a manipulação imersiva. Esse tipo de risco envolve a possibilidade de que sistemas de RV comprometidos possam influenciar a segurança dos usuários, manipulando-os de maneira perigosa. É um ponto de atenção que coloca os profissionais de saúde e pacientes em potencial vulnerabilidade, especialmente em casos onde a segurança dos sistemas não está totalmente garantida.

O estudo também apresenta estratégias de mitigação para lidar com essas ameaças. No entanto, tais soluções ainda precisam ser testadas e adaptadas para o ambiente clínico, onde os requisitos de segurança são mais rigorosos e complexos. Além disso, é fundamental que cada aplicação de RV seja avaliada individualmente, considerando os riscos e benefícios específicos em cada cenário de uso. Isso requer que as instituições de saúde estabeleçam políticas de governança digital e incorporem essas tecnologias em estruturas de gestão de riscos.

Embora o avanço da RE traga promessas valiosas para o setor de saúde, o estudo destaca a necessidade de priorizar medidas de segurança robustas. A integração da RE nas práticas clínicas precisa ser acompanhada de políticas que garantam tanto a proteção dos dados quanto a segurança física e emocional dos pacientes e profissionais.

Publicado em Deixe um comentário

COMO PROTEGER DADOS EM AMBIENTES DE NUVEM HÍBRIDA E INTELIGÊNCIA ARTIFICIAL

Em tempos de transformação digital acelerada, a segurança cibernética se destaca como um pilar essencial para empresas e governos que buscam se manter à frente das ameaças. Outubro, conhecido como o mês de conscientização em segurança cibernética, serve de alerta para que organizações de todos os portes revisem e fortaleçam suas práticas de proteção. Em um cenário tecnológico que avança rapidamente, os novos modelos de armazenamento e análise de dados, como a nuvem híbrida e a inteligência artificial (IA), trazem à tona tanto oportunidades quanto desafios significativos.

A nuvem híbrida, combinando nuvens públicas e privadas, surge como uma solução prática para muitas empresas. Esse modelo permite que organizações escalem rapidamente, tirando proveito da flexibilidade da nuvem pública, ao mesmo tempo em que mantêm informações sensíveis e processos críticos em servidores privados, onde o controle e a segurança podem ser mais rigorosos. Essa abordagem híbrida promove a uniformidade na experiência de uso e facilita a gestão de dados ao longo de diferentes ambientes, o que contribui para uma melhor proteção contra incidentes.

A IA, por sua vez, adiciona um novo nível de complexidade. Capaz de analisar grandes volumes de dados e automatizar uma variedade de processos, a IA pode aumentar significativamente a eficiência operacional e gerar insights valiosos. Porém, com essa implementação vêm questões fundamentais de segurança. Sistemas de IA, por sua própria natureza, são alvos atrativos para ataques, exigindo políticas de proteção que preservem a integridade e a confidencialidade dos dados. Esse avanço tecnológico requer uma vigilância constante, uma vez que a IA também apresenta vulnerabilidades, como as que permitem adulterações e acessos não autorizados a dados.

Em um cenário que só aumenta em complexidade, um estudo recente indicou que quase 80% das empresas brasileiras registraram incidentes de segurança nos últimos 12 meses. O impacto das tecnologias emergentes, como a IA generativa, é uma preocupação crescente para muitos, que receiam o surgimento de novos desafios relacionados à privacidade e segurança.

Para que a tecnologia continue a impulsionar a inovação de forma segura, as equipes de TI precisam de soluções avançadas que permitam proteger dados em ambientes complexos, como a nuvem híbrida, sem comprometer a continuidade dos negócios. As práticas de segurança devem acompanhar o ritmo acelerado da inovação, especialmente quando se trata de integração de IA e de ambientes híbridos, onde é essencial monitorar e proteger sistemas de forma eficaz.

A segurança cibernética não deve ser vista como uma meta, mas como um processo contínuo e dinâmico, que exige a adaptação constante das práticas e tecnologias de defesa. Este mês de conscientização nos lembra da importância de manter uma abordagem integrada e flexível que atenda a todas as frentes de proteção e inovar de maneira responsável. Com uma estratégia sólida, que une os recursos da nuvem híbrida e as capacidades da IA, é possível criar um ambiente digital mais seguro e sustentável para todos os setores.