Додому Últimas notícias e artigos Repensando a eficiência da IA: a ascensão do escalonamento do treinamento ao...

Repensando a eficiência da IA: a ascensão do escalonamento do treinamento ao teste

Durante anos, o plano para a construção de Grandes Modelos de Linguagem (LLMs) concentrou-se em um único objetivo: otimizar custos de treinamento. No entanto, à medida que a IA passa dos laboratórios de investigação para aplicações do mundo real, surge um novo problema. O custo de realmente usar esses modelos — o estágio de inferência — é frequentemente ignorado durante a fase de design, levando a enormes ineficiências quando os modelos são implantados em escala.

Pesquisadores da Universidade de Wisconsin-Madison e da Universidade de Stanford estão desafiando esse status quo. Eles introduziram uma nova estrutura chamada Leis de escalonamento do treinamento para teste (T2), que sugere que, para construir a IA mais eficaz, devemos parar de olhar para o treinamento e a inferência como orçamentos separados e começar a tratá-los como um só.

O Conflito: Treinamento vs. Inferência

Para entender por que isso é importante, devemos examinar as duas maneiras diferentes pelas quais o “escalonamento” funciona atualmente:

  1. Escalonamento de pré-treinamento (regra da chinchila): Tradicionalmente, os desenvolvedores seguem a “regra da chinchila”, que sugere uma proporção específica de dados de treinamento para o tamanho do modelo (aproximadamente 20 tokens por parâmetro). Isso otimiza quanto custa para criar o modelo.
  2. Escalonamento em tempo de teste (raciocínio em tempo de inferência): Esta é a prática de deixar um modelo “pensar mais” durante a implantação. Em vez de pegar a primeira resposta dada por um modelo, os desenvolvedores geram múltiplas amostras de raciocínio (amostrando $k$ vezes) para encontrar o resultado mais preciso. Isso é comum em tarefas complexas como codificação ou matemática.

O problema: Esses dois processos estão atualmente desconectados. Se você construir um modelo massivo, “ótimo para chinchila”, cada consulta se tornará extremamente cara. Se você tentar usar o “escalonamento em tempo de teste” (pedir ao modelo para tentar várias vezes para garantir a precisão), seus custos operacionais dispararão.

A solução T2: modelos menores, mais dados, mais amostras

A estrutura T2 fornece uma fórmula matemática que otimiza conjuntamente três variáveis:
* $N$ : Tamanho do modelo (parâmetros)
* $D$ : Volume de dados de treinamento (tokens)
* $k$ : Número de amostras de raciocínio na inferência

A pesquisa comprova uma estratégia contraintuitiva: Para maximizar o desempenho sob um orçamento fixo, é melhor treinar um modelo muito menor com uma enorme quantidade de dados do que treinar um modelo grande seguindo regras tradicionais.

Ao “overtraining” um modelo compacto, os desenvolvedores economizam sobrecarga computacional suficiente para permitir a execução do mesmo modelo várias vezes durante a inferência. Essencialmente, você troca o alto custo de um modelo “pesado” pela alta frequência de um modelo “leve”.

Desempenho e compensações no mundo real

Para validar isso, os pesquisadores testaram mais de 100 modelos e treinaram 21 novos do zero. Os resultados foram claros: modelos pequenos altamente treinados superaram consistentemente modelos maiores e tradicionalmente otimizados em tarefas que envolvem aritmética, raciocínio espacial e recuperação de conhecimento.

Contudo, esta estratégia não é uma “bala de prata” universal. Os pesquisadores observaram várias considerações importantes:

  • Especificidade da tarefa: T2 é feito sob medida para aplicações de raciocínio pesado (como codificação ou lógica). Oferece menos benefícios para tarefas de “pesado conhecimento”, como modelos simples de chat onde o objetivo é apenas recuperar informações.
  • O Data Wall: Há um limite físico para o quanto você pode treinar demais um modelo. Se você levar essa estratégia longe demais, poderá ficar sem dados de treinamento de alta qualidade disponíveis na Internet.
  • Obstáculos de ajuste fino: Modelos extremamente sobretreinados às vezes podem ser “teimosos” e mais difíceis de ajustar para tarefas específicas, embora os pesquisadores tenham descoberto que isso não anulou os ganhos gerais de eficiência.

Por que isso é importante para a indústria de IA

Essa mudança representa uma oportunidade significativa para desenvolvedores empresariais. Atualmente, o alto custo dos “modelos de fronteira” (os modelos enormes e caros como o GPT-4) atua como uma barreira para o dimensionamento de fluxos de trabalho “agenticos” – agentes de IA que precisam raciocinar, fazer loops e verificar seu próprio trabalho.

A estrutura T2 fornece um modelo para democratizar o raciocínio de alto nível. Mostra que não é necessário ter o maior modelo do mundo para alcançar um desempenho de elite; você só precisa de uma alocação mais inteligente do seu orçamento total de computação.

Conclusão: Mudando o foco de “quão grande podemos construí-lo?” para “quão eficientemente podemos usá-lo?”, as leis de escala T2 permitem que os desenvolvedores obtenham capacidades de raciocínio superiores usando modelos menores e mais econômicos.

Exit mobile version