À medida que a inteligência artificial se integra ao cotidiano, um de seus braços mais intrigantes e controversos avança de forma silenciosa: a IA emocional. Esta tecnologia se propõe a identificar, interpretar e até antecipar estados emocionais humanos por meio da análise de expressões faciais, tom de voz, postura corporal e outros sinais biométricos. Essa capacidade, embora promissora em setores como saúde, educação e atendimento ao consumidor, levanta um ponto central para o debate jurídico e ético: como proteger a intimidade emocional das pessoas diante da coleta e do tratamento de dados tão pessoais?
A inteligência emocional das máquinas depende de dados sensíveis. Trata-se de informações diretamente relacionadas à personalidade, à saúde mental e ao comportamento do indivíduo. Em muitos casos, são extraídas sem interação direta, apenas pela leitura de uma câmera ou microfone. Quando uma ferramenta de reconhecimento facial identifica microexpressões e infere um estado emocional como tristeza, raiva ou ansiedade, está processando uma manifestação íntima, que deveria estar resguardada por um alto grau de proteção.
A Lei Geral de Proteção de Dados Pessoais (LGPD) é clara ao tratar dados biométricos como sensíveis. A identificação facial, quando associada à inferência emocional, aprofunda ainda mais a exposição do indivíduo. A legislação exige consentimento específico e informado para o tratamento desse tipo de dado. No entanto, na prática, muitos usuários sequer percebem que estão sendo avaliados emocionalmente por algoritmos, o que compromete a transparência e enfraquece o direito à autodeterminação informativa.
É nesse ponto que se delineia uma linha ética: até onde as empresas, os governos e as plataformas digitais podem ir ao captar emoções sem que o titular dos dados tenha plena consciência disso? Se por um lado a tecnologia pode oferecer experiências personalizadas e mais empáticas, por outro, corre-se o risco de transformar emoções humanas em ativos exploráveis para fins comerciais ou de controle social.
A proteção da identidade emocional demanda responsabilidade jurídica e sensibilidade social. A tecnologia não pode operar em zonas cinzentas, onde a ausência de consentimento consciente é justificada por promessas de eficiência ou conveniência. O uso de sistemas de reconhecimento emocional em ambientes públicos, por exemplo, requer debate amplo e regulação específica. O que está em jogo é a preservação de um espaço subjetivo que pertence exclusivamente à pessoa e que não deve ser convertido em dado, sem salvaguardas rigorosas.
Como sociedade, é fundamental reconhecer que nem toda possibilidade técnica deve se converter em prática autorizada. O avanço da inteligência artificial precisa caminhar ao lado da proteção da dignidade humana. A linha vermelha, portanto, se desenha onde termina o legítimo interesse tecnológico e começa a esfera inviolável da intimidade emocional. Nesse limite, o direito à privacidade deve permanecer inegociável.