Uma equipe do órgão de defesa da privacidade da União Europeia (UE) divulgou um relatório indicando que os esforços da OpenAI para diminuir o número de resultados factualmente incorretos do ChatGPT ainda não são suficientes para atender às rigorosas políticas de dados da UE.
O relatório aponta que, embora as iniciativas para aumentar a transparência sejam positivas para evitar interpretações errôneas dos resultados do ChatGPT, essas medidas não bastam para garantir a precisão dos dados, conforme exigido pelas normas da UE.
No ano passado, as autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões relacionadas ao ChatGPT, após preocupações levantadas por reguladores nacionais sobre o serviço de inteligência artificial amplamente utilizado. Segundo o relatório, investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membro ainda estão em andamento, e, portanto, os resultados completos não podem ser divulgados. Assim, os pontos destacados no relatório devem ser vistos como observações comuns entre as autoridades nacionais.
Uma regra fundamental de proteção de dados na UE é a exatidão. No entanto, o relatório enfatiza que, devido à natureza probabilística do ChatGPT, o modelo pode gerar informações tendenciosas ou fabricadas. Além disso, os resultados fornecidos pelo ChatGPT podem ser interpretados pelos usuários como fatos precisos, sem considerar a veracidade das informações.
É importante ressaltar a necessidade contínua de melhorar os mecanismos de precisão no ChatGPT para que se alinhem plenamente com os rigorosos padrões de proteção de dados da UE, destacando os desafios e a complexidade envolvidas na gestão da precisão em sistemas de inteligência artificial.