Parlamentares europeus ainda não chegaram a um acordo sobre várias questões relacionadas às novas regras para a tecnologia de inteligência artificial antes de uma importante reunião na terça-feira, deixando a possibilidade de qualquer acordo fora da mesa até dezembro, de acordo com quatro fontes com conhecimento do assunto.
O projeto de regras para inteligência artificial da UE precisa de acordo no Parlamento Europeu e ser ratificado pelos Estados membros do bloco de países.
Até o momento, elas foram discutidas três vezes, em reuniões entre o parlamento e os países da UE.
Uma quarta reunião será realizada na terça-feira, um dia depois que os parlamentares da UE devem debater posição sobre modelos de fundação e sistemas de IA de alto risco, disseram as fontes.
Os modelos básicos, como o ChatGPT, da OpenAI, são sistemas de IA treinados em grandes conjuntos de dados, com a capacidade de aprenderem com novos dados para executar uma variedade de tarefas.
A Espanha, que detém a presidência da UE até dezembro, tem pressionado por um acordo e propôs compromissos em uma tentativa de acelerar o processo.
Isso incluiu uma abordagem escalonada para regulamentar os modelos de fundação, definidos como aqueles com mais de 45 milhões de usuários, de acordo com uma minuta vista pela Reuters.
A Espanha também quer obrigações adicionais para os modelos de fundação de tipo VCFM, como o ChatGPT, incluindo verificação regular voltada à descoberta de possíveis vulnerabilidades.
Os oponentes dizem que as plataformas menores podem também representar riscos.
Caso não haja um acordo, o assunto pode ficar para o início do próximo ano e pode sofrer interferência das eleições para o Parlamento Europeu em junho.
A UE começou a trabalhar no projeto de lei sobre IA em 2021. Em maio deste ano, o Parlamento Europeu concordou com o projeto de legislação, incluindo novas regras sobre o uso de reconhecimento facial, vigilância biométrica e outros aplicativos de IA.
De acordo com as propostas, as ferramentas de IA serão classificadas de acordo com seu nível de risco percebido, de baixo a inaceitável. Os governos e as empresas que usam essas ferramentas terão obrigações diferentes, dependendo da recomendação.