O cenário da inteligência artificial (IA) está em constante ebulição, e a equipe por trás do DeepSeek parece ter despertado com um lançamento significativo: o novo modelo de código aberto DeepSeek R1 0528. Este modelo representa uma atualização importante em suas capacidades de raciocínio, prometendo elevar o padrão para modelos de linguagem de grande escala (LLMs) acessíveis à comunidade.
O DeepSeek R1 0528 é a mais recente adição ao portfólio da DeepSeek AI, focado em aprimorar as habilidades de raciocínio de seus modelos.
Lançado discretamente, sem um anúncio oficial grandioso, o DeepSeek R1 0528 já está disponível para a comunidade e desenvolvedores. A notícia foi disseminada inicialmente através de canais como o Twitter, com usuários como Vincent (@AwadVincent) destacando a disponibilização imediata do modelo para todos.
Este modelo é massivo em termos de contagem total de parâmetros, chegando a impressionantes 671 bilhões. No entanto, durante a inferência (o processo de usar o modelo para gerar resultados), apenas 37 bilhões de parâmetros estão ativos. Isso é possível graças à sua arquitetura Sparse Mixture of Experts (MoE). A arquitetura MoE permite que o modelo seja muito grande e poderoso, mas eficiente em termos de computação, pois apenas os "especialistas" relevantes dentro da rede neural são ativados para cada tarefa específica. Essa abordagem busca entregar alto desempenho e eficiência, conforme mencionado na apresentação do vídeo.
A acessibilidade é um ponto chave para o DeepSeek R1 0528.
O modelo foi oficialmente disponibilizado através do perfil da DeepSeek AI na plataforma Hugging Face, um hub central para modelos de IA de código aberto. A ausência de um "model card" detalhado no momento do lançamento inicial gerou discussões na comunidade, com notas sobre a criação de arquivos README e ajustes de configuração sendo rapidamente adicionados.
O DeepSeek R1 0528 é distribuído sob a licença MIT. Esta é uma licença de software livre permissiva, o que significa que oferece grande liberdade para os usuários modificarem, distribuírem e usarem o software, inclusive para fins comerciais, com poucas restrições. Isso fomenta a inovação e a adoção pela comunidade de desenvolvedores.
Apesar do lançamento recente, os primeiros resultados de benchmark do DeepSeek R1 0528 são promissores.
Relatórios iniciais, como os visualizados no vídeo, indicam um desempenho notável no benchmark MMLU (Massive Multitask Language Understanding). O MMLU é um teste abrangente que avalia a compreensão de linguagem em diversas tarefas. O DeepSeek R1 0528 alcançou uma pontuação de 73.4, demonstrando forte capacidade de compreensão.
Nos benchmarks apresentados, o DeepSeek R1 0528 se posiciona competitivamente, ficando próximo de modelos como o O4-Mini (High) e superando modelos estabelecidos como o Grok-3 Mini e sua atualização de janeiro de 2025 (03-Mini-2025-01-31 High). Essa performance é particularmente impressionante para um modelo de código aberto, especialmente ao competir com modelos proprietários.
O foco principal desta atualização é o aprimoramento do raciocínio de longo prazo. O modelo foi projetado para ser mais inteligente e pronto para casos de uso do mundo real, com uma capacidade aprimorada em relação ao modelo DeepSeek original. A sua performance em questões difíceis no benchmark MMLU (Hard: 52.7) também reforça essa capacidade de raciocínio geral competitivo.
Existem algumas maneiras de interagir e utilizar o DeepSeek R1 0528.
O modelo pode ser acessado através da API oficial da DeepSeek. Além disso, a plataforma OpenRouter oferece acesso ao DeepSeek R1 0528, tanto em uma versão gratuita (com possíveis limites de taxa) quanto em uma versão paga sem esses limites. Essa flexibilidade permite que desenvolvedores de diferentes escalas possam experimentar o modelo.
Usuários também podem interagir com o DeepSeek R1 0528 através do chatbot da DeepSeek, ativando o "DeepThink mode". Esta é uma forma acessível para testar as capacidades do modelo em tarefas conversacionais e de raciocínio.
Conforme listado na OpenRouter, o contexto do DeepSeek R1 0528 (free) é de aproximadamente 164K tokens, embora o vídeo mencione 136.84K para a versão paga na mesma plataforma. Os custos para a versão paga na OpenRouter são de $1.95 por milhão de tokens de entrada e $5.00 por milhão de tokens de saída. Estes valores são considerados razoáveis, especialmente para um modelo com foco em raciocínio.
O vídeo demonstra algumas aplicações práticas do DeepSeek R1 0528, testando suas habilidades em diferentes domínios.
Em um problema de raciocínio matemático de múltiplas etapas (o problema do trem), o DeepSeek R1 0528 foi capaz de seguir a cadeia de pensamentos, realizar as conversões de unidades necessárias e chegar à resposta correta (distância total de 60 milhas e velocidade média de 48 mph). Isso demonstra sua capacidade de lidar com problemas que exigem atenção aos detalhes e cálculos sequenciais.
Quando solicitado a criar um "skybox" de pôr do sol no estilo de um jogo da Sega do início dos anos 2000, o modelo demonstrou uma capacidade de geração de código criativo, produzindo um resultado visualmente interessante e alinhado com a estética solicitada.
Outro teste envolveu a criação de uma landing page SaaS moderna com múltiplos recursos. O DeepSeek R1 0528 gerou o código HTML, CSS e JavaScript, resultando em uma página funcional e esteticamente agradável, com animações e seções bem definidas, como depoimentos de clientes e planos de preços. Este teste destacou sua capacidade em tarefas de desenvolvimento front-end complexas.
Em um cenário de senso comum sobre John não levar seu guarda-chuva em um dia chuvoso, o DeepSeek R1 0528 não apenas identificou o resultado mais provável (John se molhar), mas também analisou as razões para esse resultado (efeito da chuva, ausência de proteção, imediatismo, probabilidade) e sugeriu ações contrafactuais que John poderia ter tomado para evitar se molhar, como verificar a previsão do tempo ou carregar um guarda-chuva. Isso demonstra uma compreensão robusta de cenários do mundo real e raciocínio hipotético.
O DeepSeek R1 0528 surge como uma adição promissora ao ecossistema de IA de código aberto.
Seus principais pontos fortes residem em seu desempenho de raciocínio, especialmente em tarefas complexas e de múltiplas etapas, sua arquitetura MoE eficiente e sua acessibilidade através da licença MIT e diversas plataformas. A capacidade de competir e até superar modelos proprietários em certos benchmarks é um testemunho de seu potencial.
Este lançamento pode ser visto como um passo intermediário em direção ao DeepSeek R2, o próximo grande modelo da empresa. Os avanços vistos no DeepSeek R1 0528, especialmente em raciocínio e eficiência, certamente servirão de base para futuras iterações ainda mais poderosas.
Conclusão
O DeepSeek R1 0528 é mais do que apenas uma atualização incremental; é uma demonstração do compromisso da DeepSeek AI em avançar as fronteiras da IA de código aberto com foco em capacidades de raciocínio robustas. Com um desempenho impressionante em benchmarks e testes práticos, este modelo está bem posicionado para se tornar uma ferramenta valiosa para desenvolvedores e pesquisadores. À medida que a comunidade explora suas capacidades, podemos esperar ver aplicações inovadoras e um impulso contínuo na evolução dos modelos de linguagem de grande escala. A expectativa agora se volta para o que o futuro reserva com o aguardado DeepSeek R2.
Exploramos as consequências das armas nucleares no espaço para a Terra e a importância de leis internacionais
Descubra como a HeyRosie, uma startup de Inteligência Artificial, está revolucionando o atendimento telefônico para pequenos negócios, oferecendo uma solução mais eficiente e acessível. Conheça os insights de Jordan Gal.
Explore os limites do ChatGPT Operator da OpenAI! Testamos sua capacidade de multitarefa, desde encontrar produtos a criar planos de negócios com IA. Veja os sucessos e desafios.