GPT-4o: ChatGPT evolui e fica mais rápido para ouvir, conversar e descrever objetos
Robô deve ser capaz de oferecer respostas mais rápidas com nova atualização, que será liberada gratuitamente para todos os usuários. Empresa também anunciou aplicativo para computador.
Open AI apresenta o ChatGPT-4o, modelo de inteligência artificial que 'conversa', descreve objetos e faz tradução simultânea
Reprodução/Youtube
A OpenAI, desenvolvedora do ChatGPT, anunciou nesta segunda-feira (13) o GPT-4o. Trata-se da nova versão do modelo de inteligência artificial (IA) usado pelo ChatGPT, robô conversador que ganhou fama nos últimos meses.
O GPT-4o é mais rápido para responder a comandos de áudio e melhor para descrever imagens em tempo real. Ele será liberado gradualmente para todos os usuários, inclusive quem está na versão gratuita (veja mais sobre a disponibilidade abaixo).
Em uma demonstração, o modelo conseguiu analisar o visual do usuário e dar dicas de como ele poderia se vestir para uma entrevista de emprego. No outro teste, ele foi usado para criar uma música (veja abaixo).
Initial plugin text
Este é o primeiro modelo da OpenAI criado para combinar textos, imagens e áudios em tempo real por conta própria. As gerações anteriores precisavam de outros modelos de IA para analisar comandos de voz e fotos, por exemplo. A promessa é de que a mudança deixará o ChatGPT ainda mais rápido.
Segundo a OpenAI, o GPT-4o leva em média 320 milissegundos para responder comandos de áudio – o tempo mínimo foi de 232 milissegundos. A empresa diz que ele é muito mais veloz que antecessores: em média, o GPT-3.5 leva 2,8 segundos e o GPT-4, 5,4 segundos.
Até então, o ChatGPT seguia várias etapas para analisar e responder comandos de voz. Primeiro, era preciso usar um modelo para converter o áudio para texto. Depois, o GPT-3.5 ou o GPT-4 interpretava o conteúdo e criava uma resposta. Por fim, outro modelo transformava o material de volta para áudio.
"Com o GPT-4o, treinamos um único modelo de ponta a ponta em texto, visão e áudio, o que significa que todas as entradas e saídas são processadas pela mesma rede neural", disse a OpenAI, em comunicado.
O presidente-executivo da OpenAI, Sam Altman, afirmou que este é o melhor modelo já criado pela empresa. "É inteligente, é rápido, é nativamente multimodal", disse.
Segundo a empresa, o GPT-4o também tem mais capacidade para entender textos, imagens e áudios do que seu antecessor, o GPT-4, lançado em março de 2023.
A empresa também anunciou um aplicativo do ChatGPT para computador, que se junta à versão para navegadores e um aplicativo para Android e iOS.
Nas redes sociais, usuários compararam a nova versão com a assistente virtual do filme 'Ela' ('Her', no título original), em que o protagonista se apaixona por um sistema operacional. A reação chegou a Sam Altman que postou o nome do filme em seu perfil no X (antigo Twitter).

Initial plugin text
LEIA TAMBÉM:
Confira os 5 golpes do PIX mais comuns feitos pelo celular
Influencer cria namorada virtual com seu perfil para se relacionar com fãs pelo Telegram
O que são chaves de acesso e por que elas podem pôr fim ao login com senha em apps e redes sociais
Joaquin Phoenix no filme 'Ela'
Divulgação
Quando o GPT-4o será liberado?
A OpenAI informou que começou a liberar nesta segunda os recursos de texto e foto do GPT-4o. Eles também estão disponíveis para desenvolvedores usarem as funcionalidades em seus próprios aplicativos.
Usuários da versão gratuita poderão usá-lo com um limite de mensagens que não foi informado, enquanto assinantes do ChatGPT Plus terão um limite maior.
O uso do GPT-4o com comandos de voz será liberado nas próximas semanas para quem paga pelo ChatGPT Plus.
A empresa não revelou quando os recursos de vídeos chegarão para todos os usuários, mas informou que eles chegarão primeiro para um grupo restrito de desenvolvedores parceiros.
Como usar o ChatGPT no dia a dia
ChatGPT: como usar o robô no dia a dia
Conheça o Sora, gerador de vídeos realistas da OpenAI
Conheça o Sora, gerador de vídeos realistas da dona do ChatGPT