Os esforços da OpenAI para produzir menos resultados falsos do seu chatbot ChatGPT não são suficientes para garantir a total conformidade com as regras de dados da União Europeia, disse uma força-tarefa do órgão de vigilância da privacidade da UE.
“Embora as medidas tomadas para cumprir o princípio da transparência sejam benéficas para evitar interpretações errôneas dos resultados do ChatGPT, elas não são suficientes para cumprir o princípio da precisão dos dados”, disse a força-tarefa em um relatório divulgado em seu site nesta sexta-feira.
O órgão que une os vigilantes nacionais da privacidade da Europa criou a força-tarefa no ChatGPT no ano passado, depois que reguladores nacionais liderados pela autoridade italiana levantaram preocupações sobre o serviço de inteligência artificial amplamente utilizado.
A OpenAI não respondeu imediatamente a um pedido de comentário da Reuters.
As várias investigações lançadas pelos órgãos nacionais de vigilância da privacidade em alguns Estados-membros ainda estão em curso, afirma o relatório, acrescentando que, portanto, ainda não foi possível fornecer uma descrição completa dos resultados.
As conclusões deveriam ser entendidas como um “denominador comum” entre as autoridades nacionais.
A exatidão dos dados é um dos princípios orientadores do conjunto de regras de proteção de dados da UE.
“De fato, devido à natureza probabilística do sistema, a atual abordagem de formação conduz a um modelo que também pode produzir resultados tendenciosos ou inventados”, afirma o relatório.
“Além disso, os resultados fornecidos pelo ChatGPT provavelmente serão considerados realmente precisos pelos usuários finais, incluindo informações relacionadas a indivíduos, independentemente de sua precisão real.”