Nos últimos anos, quando se fala em inteligência artificial (IA) logo se pensa no ChatGPT que se destacou pela habilidade de compreender e gerar respostas. Apesar do ChatGPT ser o mais popular entre todos os chatbots com funções semelhantes, empresas como Google, Meta e X lançaram suas versões que competem com resultados cada vez melhores. Além de aplicações cada vezmais diversas.
Em 2024, a OpenAI resolveu avançar ainda mais com o anúncio dos modelos de raciocínio, chamados de o1 e o3. Esses modelos são treinados para lidar com problemas que exigem raciocínio como a resolução de problemas matemáticos e deduções em tempo real. Esses modelos de raciocínio usam diferentes técnicas que tentam imitar a forma como o cérebro humano raciocinia.
Em pouco mais de 1 mês do anúncio do o3, a China entrou no jogo quando a empresa DeepSeek lançou seu modelo DeepSeek-R1. O que chamou atenção é que o modelo parece ter superado outros LLMs disponíveis de empresas grandes. Isso chamou atenção de diversos experts em inteligência artificial que já comentaram sobre o assunto. O modelo chinês estabeleceu novos recordes de desempenho em benchmarks globais.
Os Large Language Models (LLMs) modelos treinados com uma grande quantidade de dados textuais que são de diferentes tipos. A maioria dos LLM são construídos com uso de Transformers e suas camadas de atenção além da presença de redes neurais. Os Transformers foram introduzidos pela Google em 2017 e funcionam para capturar relações complexas entre palavras e contextos em uma sequência.
Alguns LLMs disponíveis hoje são GPT da OpenAI, o Gemini da Google, Grok do X e o Llama do Meta. Esses modelos conseguem realizar tarefas como responder a perguntas, escrever textos criativos e alguns conseguem até gerar imagens. Apesar disso, esses modelos possuem limitações principalmente no quesito mais lógico e com isso, uma corrida para modelos melhores, como modelos de raciocínio, começou.
Em 2024, a OpenAI surpreendeu ao anuciar o modelos de raciocínio chamados de o1 e o3. Esses modelos são treinados de forma a incorporar lógica, dedução e capacidade analítica em suas operações. Eles são construídos para simular como é o processo de pensamento humano como fazer inferência entre fatos e informações e tomar decisões durante o processo de decisão.
Geralmente, os LLMs tradicionais respondem perguntas utilizando a base de dados deles, já os modelos de raciocínio analisam diferentes fatores e informações desdobrando a pergunta em várias outras. Um exemplo é que um problema matemático pode ser dividido em várias partes onde abre cada etapa do processo.
A empresa DeepSeek é uma startup chinesa que foi fundada oficialmente em 2023 como uma empresa paralela da High-Flyer de 2015. Desde 2023, a DeepSeek lança modelos como seu primeiro chamado DeepSeek Coder. Em janeiro desse ano, a empresa impressionou o mundo inteiro ao anunciar o DeepSeek-R1 que é um modelo de raciocínio que possui desempenho comparável e até melhor que os do o1 da OpenAI.
Mas o que chama atenção no DeepSeek-R1 foi principalmente no uso de recursos que foram limitados em comparação aos outros sendo muito mais eficiente. Além disso, ele foi lançado como um modelo aberto para que pesquisadores ao redor do mundo possam estudá-lo e melhorá-lo. O modelo pode ser reutilizado e é muito mais barato do que os modelos dos concorrentes que tem custo e tamanho maiores.
Para colocar o DeepSeek-R1 em jogo, a empresa fez alguns testes clássicos que foram detalhados em um artigo publicado pela empresa. Nesses testes, o modelo chegou a 97,3% de acerto no conjunto MATH-500 de problemas matemáticos desenvolvidos por pesquisadores da Universidade da Califórnia. Além disso, o modelo conseguiu superar 96,3% dos participantes humanos na competição Codeforces
Os resultados estão no mesmo nível das habilidades do modelo o1 da OpenAI e até consegue superar em algumas tarefas. Ainda falta a comparação com o modelo o3 que foi lançado no final de 2024. Outros testes ainda estão sendo feito, segundo a matéria da revista Nature, em cálculos específicos de óptica quântica, o DeepSeek-R1 superou o o1.
Gibney 2025 China’s cheap, open AI model DeepSeek thrills scientists Nature