A OpenAI revelou um novo modelo de inteligência artificial chamado CriticGPT. Ele é baseado no GPT-4, mas com outra especialidade: encontrar erros em códigos gerados pelo ChatGPT. A ideia é que ele ajude os humanos na tarefa de treinar modelos de IA.
Pode parecer estranho, mas a empresa explica: seus modelos são treinados usando uma técnica chamada aprendizagem por reforço com feedback humano (ou RLHF, na sigla em inglês). Nesta técnica, os humanos avaliam as respostas dadas por modelos de IA. A ideia é aperfeiçoar o modelo, para que os resultados sejam mais úteis em situações reais e mais próximos ao desejado pelos humanos.
![Óculos na mesa diante de uma tela com códigos](https://files.tecnoblog.net/wp-content/uploads/2021/08/codigo-oculos-1060x596.jpg)
Quando o Bate-papoGPT gera um código, estes humanos, chamados treinadores de IA, revisam a resposta e apontam os erros, para que o modelo “aprenda” o que fazer. O problema é que os humanos também podem errar e não perceber o que está errado em uma resposta.
O CriticGPT pode ajudar nisso. A ferramenta encontra erros nos códigos gerados pelo ChatGPT e escreve uma crítica (daí seu nome) explicando o problema.
![Esquema mostra o CriticGPT. Usuário pede um código (bloco acima na tela), ChatGPT gera um código (bloco preto na parte de baixo da tela), CriticGPT destaca trecho do código e faz avaliação (bloco roxo na parte direita da tela)](https://files.tecnoblog.net/wp-content/uploads/2024/06/criticgpt-1060x530.webp)
Segundo a OpenAI, os treinadores de IA preferiram as críticas feitas por outros treinadores com ajuda do CriticGPT em 60% dos casos, em comparação com críticas feitas apenas por humanos.
A empresa diz que a “parceria” resulta em avaliações mais abrangentes do que as feitas apenas por humanos e em menos alucinações do que as feitas só pela IA.
Feedback humano também ajudou CriticGPT
Um ponto curioso é que o próprio CriticGPT foi desenvolvido usando RLHF. Os treinadores de IA colocaram manualmente erros em códigos criados pelo ChatGPT e escreveram avaliações como explicando os problemas, como se fossem descobertos por eles.
Depois, estes funcionários verificaram várias avaliações feitas pela CriticGPT e escolheram a melhor, como forma de reforçar para o modelo o que ele deveria fazer.
![Inteligência artificial](https://files.tecnoblog.net/wp-content/uploads/2023/06/ia-3-1060x596.png)
O próprio ChatGPT poderia ser usado para avaliar os códigos, mas o modelo especializado se sai melhor na tarefa. Treinadores de IA consideraram a crítica do CriticGPT melhor que a do ChatGPT em 63% dos casos. Para eles, a nova IA produz menos sintomas inúteis e menos alucinações.
Apesar das vantagens, o CriticGPT não é perfeito. A OpenAI admite que ele também pode alucinar, levando os treinadores a cometerem erros. Além disso, o modelo foi treinado com respostas curtas e códigos com apenas um erro — para tarefas mais complexas, novos métodos serão necessários.
Com informações: OpenAI, Ars Técnica