SEAL – a Inteligência artificial com auto-aperfeiçoamento

O MIT desenvolveu o SEAL, uma técnica revolucionária que permite que modelos de linguagem como o ChatGPT aprendam e melhorem sozinhos, sem intervenção humana. Entenda como funciona e o que isso significa para o futuro da inteligência artificial.

O MIT cria SEAL: o futuro da IA que aprende sozinha

Pesquisadores do Massachusetts Institute of Technology (MIT) estão revolucionando a inteligência artificial com uma nova técnica chamada SEAL (Self-Adapting LLMs).
O método permite que modelos de linguagem (LLMs) — como o ChatGPT — melhorem a si mesmos, gerando seus próprios dados de treinamento e ajustando seus parâmetros de forma autônoma.

A pesquisa, liderada por cientistas do Improbable AI Lab, foi apresentada na Conferência NeurIPS 2025 e já está disponível como código aberto no GitHub, sob licença MIT — permitindo seu uso comercial e corporativo.

O que é o SEAL e por que ele é tão inovador?

Tradicionalmente, modelos de linguagem dependem de dados externos e ajustes feitos por engenheiros humanos. O SEAL muda completamente esse paradigma. Ele permite que o próprio modelo crie seus dados sintéticos e decida como deve se reentreinar.

Isso significa que o modelo pode evoluir sozinho — aprendendo com base em seus próprios resultados, sem precisar de reconfigurações manuais.
É um passo em direção a sistemas de IA realmente adaptativos e contínuos.

Como o SEAL funciona

A técnica SEAL se baseia em dois ciclos de aprendizado:

  1. Ciclo interno (ajuste supervisionado): o modelo faz um “autoedit” — uma autoedição em linguagem natural que explica como ele deve se atualizar.
  2. Ciclo externo (aprendizado por reforço): o sistema avalia se a autoedição melhorou o desempenho e reforça as estratégias que trouxeram bons resultados.

Esses “autoedits” são como anotações de estudo que o próprio modelo cria para se ensinar — uma abordagem inspirada em como humanos reorganizam informações para aprender melhor.

SEAL modelo que se auto aperfeiçoa

Resultados que superaram o GPT-4.1

O SEAL foi testado em dois cenários principais:

  • Incorporação de conhecimento: o modelo aumentou sua precisão em perguntas e respostas de 33,5% para 47%, superando até os resultados de dados gerados pelo GPT-4.1.
  • Aprendizado com poucos exemplos (few-shot learning): a taxa de sucesso saltou de 20% para 72,5% após o uso do aprendizado por reforço — enquanto modelos convencionais ficaram em 0%.

Esses números mostram que o SEAL não apenas aprende sozinho, como também aprende melhor.

Desafios e limitações

Nem tudo é perfeito — o SEAL ainda enfrenta obstáculos:

  • Esquecimento catastrófico: ao aprender algo novo, o modelo pode “esquecer” tarefas antigas.
  • Custo computacional elevado: cada autoedição exige testes e ajustes que podem levar até 45 segundos.
  • Dependência de tarefas rotuladas: o modelo ainda precisa de um tipo de “recompensa” mensurável para saber se está aprendendo bem.

Mesmo assim, os pesquisadores acreditam que novas versões do SEAL, combinadas com avanços em aprendizado por reforço, podem superar essas limitações em breve.

O que vem a seguir para o SEAL e para a IA adaptativa

Os pesquisadores do MIT afirmam que, quanto maior o modelo, melhor ele se autoaperfeiçoa — assim como humanos que refinam suas técnicas de estudo ao longo do tempo.

No futuro, o SEAL pode ser usado para:

  • aprendizado contínuo em sistemas corporativos,
  • autotreinamento de assistentes virtuais,
  • e modelos de IA com memória persistente, capazes de evoluir com o mundo real.

Em uma era em que a expansão dos modelos está limitada pela falta de dados, abordagens como o SEAL podem ser a próxima grande fronteira da IA generativa.


Auto aperfeiçoamento

Acesse o projeto SEAL e conheça os detalhes técnicos:
https://jyopari.github.io/posts/seal

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *