Chain of Draft: A Revolucionária Estratégia de Prompting de IA da Zoom que Supera o Chain of Thought

O Avanço das Estratégias de Prompting em Inteligência Artificial

A Inteligência Artificial (IA) tem evoluído a passos largos, e grande parte desse progresso se deve ao desenvolvimento de modelos de linguagem avançados (LLMs). No entanto, a eficácia desses modelos muitas vezes depende da forma como são "instruídos" ou "promptados". Uma das estratégias de prompting mais conhecidas, o Chain of Thought (CoT), impulsionou a IA para uma nova era de leis de escalabilidade, permitindo que os modelos realizassem raciocínios complexos passo a passo. Contudo, o CoT apresenta desvantagens significativas, como lentidão inerente e alto custo de tokens.

Recentemente, pesquisadores da Zoom Communications, a renomada empresa de videoconferência, apresentaram uma nova abordagem promissora: o Chain of Draft (CoD). Esta estratégia inovadora visa otimizar o processo de pensamento dos LLMs, tornando-os mais eficientes e alinhados com a forma como os humanos realmente pensam.

Entendendo o Chain of Thought (CoT) e Suas Limitações

O Chain of Thought é uma técnica que permite aos LLMs decompor problemas complexos em etapas menores e sequenciais. Ao gerar uma "cadeia de pensamentos", o modelo verbaliza seu processo de raciocínio antes de chegar à resposta final. Isso melhora a capacidade de resolução de problemas complexos e tarefas que exigem múltiplas etapas de inferência.

Como descrito no vídeo, o CoT funciona permitindo que os modelos reflitam sobre os problemas, busquem soluções potenciais e, ao final, escolham a melhor. Embora eficaz para tarefas que exigem um raciocínio estruturado, essa abordagem é inerentemente lenta e consome muitos tokens, pois o modelo precisa produzir uma grande quantidade de texto intermediário. Isso leva a um aumento nos custos computacionais e na latência, tornando-o menos prático para aplicações em tempo real onde a eficiência é crucial. A verbosidade do CoT contrasta com a forma como os humanos tipicamente abordam a resolução de problemas, onde muitas vezes se baseiam em rascunhos concisos ou anotações para capturar apenas insights essenciais, sem elaborações desnecessárias.

Chain of Draft (CoD): Pensando Mais Rápido e Escrevendo Menos

Diante das limitações do CoT, os pesquisadores da Zoom propuseram o Chain of Draft (CoD), uma estratégia de prompting inspirada nos processos cognitivos humanos. A ideia central, conforme apresentada no artigo "Chain of Draft: Thinking Faster by Writing Less", é que os LLMs gerem rascunhos concisos e densos em informação em cada etapa do processo de resolução de problemas, em vez de etapas intermediárias verbosas.

Como Funciona o Chain of Draft?

O CoD incentiva os LLMs a focar apenas nas informações críticas necessárias para progredir na solução de um problema. Em vez de detalhar cada passo intermediário, o modelo cria "rascunhos" que capturam a essência do pensamento. Este processo reduz significativamente a verbosidade e, consequentemente, a latência e os custos computacionais, sem sacrificar a precisão.

A intuição por trás do CoD está enraizada em como os humanos externalizam o pensamento. Ao resolver tarefas complexas, como problemas matemáticos, redação de ensaios ou codificação, frequentemente anotamos apenas os pontos cruciais que nos ajudam a avançar. Ao emular esse comportamento, os LLMs podem se concentrar em avançar em direção às soluções sem a sobrecarga do raciocínio verboso.

No vídeo, é apresentado um exemplo simples de um problema aritmético: "Jason tinha 20 pirulitos. Ele deu alguns pirulitos para Denny. Agora Jason tem 12 pirulitos. Quantos pirulitos Jason deu para Denny?".

  • Abordagem Padrão: O modelo simplesmente responderia "8".
  • Chain of Thought (CoT): O modelo detalharia cada passo: "1. Inicialmente, Jason tinha 20 pirulitos. 2. Depois de dar alguns para Denny, Jason agora tem 12 pirulitos. 3. Para descobrir quantos pirulitos Jason deu para Denny, precisamos calcular a diferença..." e assim por diante, até chegar a "8 pirulitos".
  • Chain of Draft (CoD): A resposta seria algo como "20 - x = 12; x = 20 - 12 = 8. #### 8". O CoD condensa o processo de raciocínio em representações abstratas e mínimas, focando na equação essencial.

Vantagens do Chain of Draft

Os resultados apresentados no estudo indicam que o CoD atinge uma precisão comparável ou até superior ao CoT, utilizando significativamente menos tokens e com menor latência. Por exemplo, em testes com o modelo GPT-4o no benchmark GSM8K (problemas matemáticos), o CoT alcançou 95.4% de precisão usando 205.1 tokens e 4.2 segundos de latência. Já o CoD obteve 91.1% de precisão com apenas 43.9 tokens e 1.0 segundo de latência. Com o Claude 3.5 Sonnet, o CoD superou o CoT em precisão (91.4% vs 95.8% do CoT, mas neste caso específico, o CoT foi superior em precisão, enquanto CoD ainda mostrou melhorias em eficiência de tokens - 39.8 tokens e 1.6s para CoD vs 190 tokens e 3.1s para CoT) e manteve a superioridade em eficiência de tokens e latência.

Essa eficiência torna os LLMs mais práticos para aplicações do mundo real, onde o tempo de resposta e o custo são fatores críticos.

A Implementação Prática do Chain of Draft

Uma das grandes vantagens do Chain of Draft é sua facilidade de implementação. Conforme destacado, não são necessárias atualizações nos modelos de IA, nem processos complexos como fine-tuning ou aprendizado por reforço. A mudança ocorre diretamente no prompt fornecido ao modelo.

A instrução para o CoD seria algo como: "Pense passo a passo, mas mantenha apenas um rascunho mínimo para cada etapa de pensamento, com no máximo X palavras. Retorne a resposta ao final da resposta após um separador ####". Isso orienta o modelo a ser conciso, mas ainda assim mostrar seu "rascunho" de pensamento.

O Futuro das Estratégias de Prompting com Inteligência Artificial

O Chain of Draft é um exemplo de como a pesquisa contínua em estratégias de prompting está refinando a maneira como interagimos e utilizamos os modelos de linguagem. Embora o CoT tenha sido um marco, abordagens como o CoD e outras evoluções, como o Skeleton-of-Thought (SoT) – que primeiro guia o LLM a gerar um esboço da resposta –, demonstram um movimento em direção a uma IA mais eficiente, econômica e alinhada com os processos de pensamento humanos.

Essas inovações são cruciais para a democratização e aplicação mais ampla da Inteligência Artificial em diversos setores, reduzindo barreiras de custo e complexidade. A capacidade de obter resultados de alta qualidade com menos recursos computacionais abre um leque de possibilidades para o futuro da IA.

Para empresas e desenvolvedores que buscam otimizar suas interações com LLMs, explorar e adotar novas estratégias de prompting como o Chain of Draft pode representar um ganho significativo em eficiência e uma redução nos custos operacionais. A pesquisa da Zoom Communications é um passo importante nessa direção, mostrando que mesmo gigantes da tecnologia em outras áreas podem contribuir significativamente para o avanço da IA.

Este conteúdo foi inspirado e expandido a partir de informações apresentadas em um vídeo sobre o tema, que também menciona o patrocínio da HubSpot, uma empresa que oferece um AI Playbook com guias sobre ferramentas de IA para empreendedores.