Alibaba lança modelo de IA que bate nas da OpenAI e DeepSeek
O QwQ-32B é uma inteligência artificial racional que segundo o conglomerado compete com os principais modelos da indústria

Após a febre do DeepSeek nas primeiras semanas do ano, o Alibaba Group anunciou seu próprio modelo de inteligência artificial nos últimos dias. Com o nome de QwQ-32B, a tecnologia saiu do modelo de preview e, segundo a companhia, bate de frente com modelos da OpenAI e até mesmo contra a própria DeepSeek.
Em um comunicado divulgado pelo grupo chinês, o novo modelo de IA entrega uma performance excepcional e ultrapassa “quase que inteiramente OpenAI-o1-mini e rivalizando com o modelo de raciocínio de código aberto mais forte, o DeepSeek-R1”.
Segundo a nota, o modelo alcança alto desempenho em operações matemáticas, codificação e capacidades de uso geral. Os criadores por trás da tecnologia apontam que o novo recurso possui um tipo de espírito filosófico para resolver problemas do nosso mundo com “admiração”.
O objetivo da empresa é alcançar um estado de inteligência artificial geral (AGI) — assim como diversas outras companhias almejam. A ideia é que o modelo seja capaz de performar operações ao nível cognitivo e até mesmo no campo do aprendizado de máquina, embora o conceito da AGI seja um tanto quanto abstrato até o momento.
QwQ-32B é uma IA racional
Por mais que o lançamento do QwQ-32B pareça novo, o modelo de inteligência artificial da companhia chinesa tinha uma versão de prévia até algumas semanas atrás. A tecnologia foi desenvolvida pela Qwen Team e chegou a ser testada por diversos desenvolvedores.
O QwQ (Qwen with Questions) assume o formato de um clássico modelo racional, realizando uma série de questionamentos e reflexões antes de responder às perguntas dos usuários. Isso faz com que a ferramenta seja mais indicada para determinados fluxos de trabalho, como codificação e problemas matemáticos.
Por outro lado, os modelos racionais podem não ser ideais para os usuários comuns. Por “pensar demais”, essas ferramentas tendem a demorar um pouco mais a responder, e geralmente são mais indicadas para profissionais que necessitam de um nível de precisão maior.

Inclusive, vale lembrar que o modelo do Alibaba atua com somente 32 bilhões de parâmetros, ou seja, um número consideravelmente inferior aos 671 bilhões presentes no R1 da DeepSeek. Apesar da diferença, o conglomerado chinês aponta similaridades na performance.
Em um artigo recente feito por pesquisadores da a Tencent AI Lab e da Shanghai Jiao Tong University, a versão preview do QwQ-32B foi testada contra outros modelos. Ao solicitarem a resposta para a equação 2 + 3, o modelo da Qwen utilizou 901 tokens para responder à pergunta, enquanto LLMs (Grandes modelos de linguagem) utilizaram entre 10 e 50 tokens.
Os LLMs são modelos de aprendizado de máquina, ou seja, uma espécie de inteligência artificial que processa dados, compreende e gera respostas em uma linguagem fácil dos humanos entenderes.
Alibaba e a expansão de IA
Com o anúncio da versão estável do QwQ-32B, o Alibaba teve uma alta de 8% em suas ações listadas em Hong Kong. A companhia está muito interessada em expandir as capacidades de inteligência artificial e anunciou na última semana um investimento de US$ 53 bilhões (Cerca de R$ 304 bilhões) para os próximos três anos.
O objetivo é avançar a infraestrutura da empresa em computação em nuvem e IA, e o próprio CEO da empresa, Eddie Wu, entende o momento da inteligência artificial como uma oportunidade única em uma geração, mirando a AGI como a missão central da empresa ao longo prazo.

Inclusive, essa não é exatamente a primeira IA que o Alibaba lança, já que a empresa foi responsável pelo Qwen 2.5 Max em janeiro. A tecnologia promete superar “quase todos” os aspectos do GPT-4o, Llama-3.1-405B [da Meta] e o DeepSeek-V3, mas não tem recebido tanta relevância como o mais recente QwQ.
Com a febre do DeepSeek no início do ano, o mundo passou a olhar as inteligências artificiais chinesas com outros olhos. A grande questão do modelo é seu baixo custo de desenvolvimento na casa dos US$ 6 milhões (R$ 34 milhões) e já teria feito com que a startup chegasse a um valor na casa de US$ 1 bilhão (R$ 5 bilhões).