WizardLM 2: A Nova Geração de Modelos de Linguagem da Microsoft AI Superando o GPT-4
O cenário da inteligência artificial generativa está em constante evolução, e abril trouxe um marco significativo com a introdução do WizardLM 2, uma nova família de modelos de linguagem de grande escala (LLMs) de código aberto desenvolvida pela Microsoft AI. Este lançamento representa um avanço considerável, com o WizardLM 2 demonstrando um desempenho superior ao do GPT-4 (versão de março) da OpenAI em benchmarks específicos como o MT-Bench.
O Que é o WizardLM 2 e Por Que Ele se Destaca?
O WizardLM 2 é a mais recente iteração da série WizardLM, fruto de um ano de trabalho dedicado ao aprimoramento do pós-treinamento de LLMs. De acordo com a página oficial do modelo no Hugging Face, o WizardLM 2 é um modelo Mixtral 8x22B, afinado (fine-tuned) e treinado com base em preferências, o que o posiciona como um LLM de última geração. Sua arquitetura e treinamento foram projetados para oferecer melhorias substanciais em diversas áreas, incluindo:
- Chat Complexo: Capacidade de manter conversas mais coerentes, informativas e envolventes.
- Codificação: Habilidade aprimorada na geração e compreensão de código em diversas linguagens de programação.
- Multilinguismo: Suporte e desempenho robusto em múltiplos idiomas.
- Raciocínio: Maior capacidade de realizar inferências lógicas e resolver problemas complexos.
- Agentes Inteligentes: Melhor desempenho quando integrado a sistemas de agentes autônomos.
Um dos grandes diferenciais do WizardLM 2 é seu caráter de código aberto, o que democratiza o acesso a tecnologias de ponta e fomenta a inovação na comunidade de inteligência artificial.
A Família de Modelos WizardLM 2
A nova família WizardLM 2 inclui três modelos principais, cada um com características distintas:
- WizardLM-2 8x22B: Considerado o modelo mais avançado da família, demonstra um desempenho altamente competitivo em tarefas complexas, superando inclusive modelos proprietários de renome.
- WizardLM-2 70B: Um modelo com 70 bilhões de parâmetros que se destaca por suas capacidades de raciocínio de alto nível, sendo uma excelente escolha para aplicações que exigem profundidade e precisão.
- WizardLM-2 7B: O modelo mais rápido da família, com 7 bilhões de parâmetros, alcança um desempenho comparável a modelos de código aberto até 10 vezes maiores, tornando-o ideal para cenários onde a velocidade de inferência é crucial.
Análise de Desempenho: WizardLM 2 no MT-Bench
O desempenho do WizardLM 2 foi rigorosamente avaliado utilizando o MT-Bench, um framework de avaliação automática baseado no GPT-4 proposto pela lmsys para medir a capacidade dos LLMs em manter conversas coerentes, informativas e engajadoras. Os resultados, conforme divulgados pela Microsoft AI, são impressionantes:
- O WizardLM-2 8x22B demonstrou um desempenho altamente competitivo em comparação com trabalhos proprietários avançados, como o GPT-4-Turbo e o Claude 3. No MT-Bench, o WizardLM-2 8x22B alcançou uma pontuação de 9.12, superando o GPT-4-0314 (8.96) e ficando muito próximo do GPT-4-1106-Preview (9.32) e Claude 3 Opus (9.43).
- O WizardLM-2 70B obteve uma pontuação de 8.92 no MT-Bench, superando modelos como o Mistral Large (8.66).
- O WizardLM-2 7B, com uma pontuação de 8.28, também mostrou um desempenho notável, superando o Starling-LM 7B Beta (8.12).
Esses números indicam que o WizardLM 2 não apenas compete em pé de igualdade com os principais modelos do mercado, mas em alguns casos, os supera, especialmente considerando sua natureza de código aberto.
Metodologia de Desenvolvimento Inovadora
O sucesso do WizardLM 2 reside em uma metodologia de treinamento e desenvolvimento sofisticada. A equipe da Microsoft AI detalha várias técnicas e abordagens empregadas:
Pré-processamento de Dados
Um rigoroso pré-processamento de dados é fundamental. Isso inclui:
- Análise de Dados: Utilização de pipelines para obter a distribuição de diferentes atributos para novos dados de origem, permitindo uma compreensão preliminar dos dados.
- Amostragem Ponderada (Weighted Sampling): Ajuste dos pesos de vários atributos nos dados de treinamento com base na experiência experimental, já que a distribuição dos melhores dados de treinamento nem sempre é consistente com a distribuição natural do corpus de chat humano.
- Aprendizado Progressivo (Progressive Learning): Ao contrário da prática comum de usar todos os dados para treinamento de uma só vez, o WizardLM 2 utiliza partições de dados diferentes e treina progressivamente estágio por estágio. Isso permite alcançar melhores resultados com menos dados, alimentando fatias de dados para o Evol-Instruct para obter pares de instrução/resposta mais diversos e complexos.
Evol-Instruct e AI Align AI (AAA)
Técnicas avançadas como o Evol-Instruct são empregadas para gerar instruções de alta qualidade automaticamente, aprimorando a lógica, correção e afinidade do modelo. Além disso, o framework AI Align AI (AAA) é uma inovação crucial onde múltiplos LLMs de ponta são agrupados para ensinar e aprimorar uns aos outros. Este processo envolve:
- Co-ensino (Co-Teaching): Coleta de WizardLMs e vários modelos de código aberto e proprietários licenciados, permitindo que eles co-ensinem e melhorem uns aos outros. O ensino contém chat simulado, julgamento de qualidade, sugestões de melhoria e fechamento de lacunas de habilidade.
- Auto-ensino (Self-Teaching): O WizardLM pode gerar novos dados de treinamento evolutivos para aprendizado supervisionado e dados de preferência para aprendizado por reforço via aprendizado ativo a partir de si mesmo.
Técnicas de Aprendizado
O treinamento do WizardLM 2 utiliza uma combinação de:
- Aprendizado Supervisionado (Supervised Learning).
- Stage-DPO (Direct Preference Optimization): Para um aprendizado por reforço offline mais eficaz, os dados de preferência são divididos em diferentes fatias, melhorando progressivamente o modelo estágio por estágio.
- RLEIF (Reinforcement Learning from Evolved Instructions Feedback): Emprega um modelo de recompensa de qualidade de instrução (IRM) combinado com o modelo de recompensa de supervisão de processo (PRM) para alcançar uma correção mais precisa no aprendizado por reforço online.
Como Acessar e Utilizar o WizardLM 2
Os pesos dos modelos WizardLM-2 8x22B e WizardLM-2 7B já estão disponíveis no Hugging Face. Para usuários que desejam executar esses modelos localmente, uma opção popular é o LM Studio. O processo geralmente envolve:
- Baixar e instalar o LM Studio.
- Na interface do LM Studio, pesquisar pelo nome do modelo desejado (ex: "WizardLM-2-8x22B" ou "WizardLM-2-7B").
- Selecionar a versão quantizada (GGUF) apropriada para o seu hardware.
- Fazer o download do modelo.
- Carregar o modelo na aba de chat e começar a interagir.
É importante notar que a Microsoft AI informa que o WizardLM-2 adota o formato de prompt do Vicuna e suporta conversas multi-turno.
Conclusão: O Impacto do WizardLM 2 na Inteligência Artificial
O lançamento do WizardLM 2 pela Microsoft AI é um evento de grande relevância para a comunidade de inteligência artificial. Ao oferecer modelos de linguagem de código aberto com desempenho comparável e, em alguns casos, superior a modelos proprietários de ponta, a Microsoft impulsiona a pesquisa, o desenvolvimento e a aplicação de LLMs em uma escala mais ampla. A transparência em sua metodologia de treinamento, detalhando técnicas como Evol-Instruct e o framework AAA, também contribui para o avanço do conhecimento na área. Sem dúvida, o WizardLM 2 será uma ferramenta valiosa para desenvolvedores, pesquisadores e empresas que buscam explorar o potencial dos modelos de linguagem de grande escala.