A OpenAI, criadora do ChatGPT, anunciou nesta segunda-feira o lançamento de um novo modelo de inteligência artificial chamado GPT-4o, que interpreta voz, texto e imagens.
A diretora de tecnologia da OpenAI, Mira Murati, disse durante conferência da companhia que o novo modelo será ofertado gratuitamente e que é mais eficiente que os modelos anteriores da empresa.
Os pesquisadores da OpenAI exibiram os novos recursos de assistente de voz do ChatGPT. Em uma demonstração, o assistente de voz do ChatGPT foi capaz de ler uma história para dormir com diferentes vozes, emoções e tons.
Em uma segunda demonstração, o assistente de voz do ChatGPT usou recursos de interpretação de imagens para resolver uma equação matemática escrita em uma folha de papel.
Exemplo de uso do novo ChatGPT

“Treinamos um único novo modelo de ponta a ponta em texto, imagem e áudio, o que significa que todas as entradas e saídas são processadas pela mesma rede neural. Como o GPT-4o é nosso primeiro modelo que combina todas essas modalidades, ainda estamos apenas começando a explorar o que o modelo pode fazer e suas limitações”, explica a OpenAI.
Os usuários pagos do GPT-4o terão limites de capacidade maiores do que os usuários pagos da empresa, disse Murati.
A OpenAI fez os anúncios um dia antes da Alphabet (GOOG; GOOGL; GOGL34; GOGL35) realizar sua conferência anual para desenvolvedores do Google, na qual a empresa deve exibir novos recursos de IA.