Mistral AI • LLM
Mistral-Small-3.2-24B-Instruct-2506 is an updated 24B parameter model from Mistral optimized for instruction following, repetition reduction, and improved function calling. Compared to the 3.1 release, version 3.2 significantly improves accuracy on...
Context Window
128K tokens
Preço Input/1M
$0.07
Preço Output/1M
$0.20
Parâmetros
—
Resultados do Mistral: Mistral Small 3.2 24B nos principais benchmarks de avaliação de modelos de IA. Scores mais altos indicam melhor performance.
| Benchmark | Score | Máximo | Metodologia |
|---|---|---|---|
| LiveCodeBench | 27.5 | 100.0 | Artificial Analysis official API - Intelligence/Coding/Math indices |
| AA Coding Index | 13.3 | 100.0 | Artificial Analysis official API - Intelligence/Coding/Math indices |
| Benchmark | Score | Máximo | Metodologia |
|---|---|---|---|
| MATH-500 | 88.3 | 100.0 | Artificial Analysis official API - Intelligence/Coding/Math indices |
| AA Math Index | 27.0 | 100.0 | Artificial Analysis official API - Intelligence/Coding/Math indices |
| AIME 2025 | 27.0 | 100.0 | Artificial Analysis official API - Intelligence/Coding/Math indices |
| Benchmark | Score | Máximo | Metodologia |
|---|---|---|---|
| AA Intelligence Index | 15.1 | 100.0 | Artificial Analysis official API - Intelligence/Coding/Math indices |
| Benchmark | Score | Máximo | Metodologia |
|---|---|---|---|
| MMLU Pro | 68.1 | 100.0 | Artificial Analysis official API - Intelligence/Coding/Math indices |
| GPQA Diamond | 50.5 | 100.0 | Artificial Analysis official API - Intelligence/Coding/Math indices |
O Mistral: Mistral Small 3.2 24B é um modelo de inteligência artificial desenvolvido pela Mistral AI, classificado como modelo de linguagem (LLM). É um modelo multimodal, capaz de processar texto, imagens e potencialmente outros tipos de mídia. Como modelo de código aberto, está disponível para download, personalização e deploy on-premises. Com uma janela de contexto de 128K tokens, é adequado para processamento de documentos longos como contratos, livros e bases de código completas.
O Mistral: Mistral Small 3.2 24B é cobrado por uso, com preço de US$ 0.075/1M tokens de input e US$ 0.2/1M tokens de output. Para contextualizar: 1 milhão de tokens equivale a aproximadamente 750 mil palavras, ou cerca de 10 livros de tamanho médio. Com esse preço agressivo, é uma das opções mais econômicas do mercado, ideal para aplicações de alto volume como chatbots, análise de documentos em massa e automações.
Para o mercado brasileiro, é importante considerar o IOF de 6,38% sobre transações internacionais e a variação cambial do dólar. Com o câmbio atual, o custo do Mistral: Mistral Small 3.2 24B em reais fica em torno de R$ 0.46/1M tokens de input (estimativa com IOF incluso).
O Mistral: Mistral Small 3.2 24B foi avaliado em 8 benchmarks diferentes, cobrindo categorias como Coding, Math, overall, Reasoning. Os resultados mostram performance sólida nas avaliações disponíveis.
É importante notar que benchmarks medem aspectos específicos e não capturam toda a experiência de uso. Fatores como qualidade da resposta em português, aderência a instruções complexas e comportamento em conversas longas variam significativamente entre modelos e nem sempre são refletidos nos scores padrão.
O Mistral: Mistral Small 3.2 24B é adequado para diversas aplicações de inteligência artificial: análise de documentos longos (contratos, processos jurídicos, bases de código), automação com tool calling (integração com APIs, banco de dados, sistemas externos), análise de imagens e documentos visuais (OCR, diagramas, screenshots), processamento multimodal combinando texto e imagens, chatbots de alto volume e atendimento automatizado, geração de texto, resumo, tradução e assistência geral.
No ecossistema de modelos de IA em 2026, o Mistral: Mistral Small 3.2 24B compete diretamente com modelos de nível similar. A Mistral AI compete neste segmento contra OpenAI, Anthropic, Google e Meta. A escolha entre modelos depende do caso de uso específico, orçamento, requisitos de latência e necessidade de funcionalidades como multimodalidade e tool calling.
Para uma comparação detalhada lado a lado, utilize nossa ferramenta de comparação ou consulte o ranking geral de modelos.
Para usuários brasileiros, a performance em português é um critério fundamental na escolha de um modelo de IA. A maioria dos benchmarks internacionais testa apenas em inglês, o que pode mascarar diferenças significativas na qualidade de resposta em outros idiomas. O Mistral: Mistral Small 3.2 24B oferece suporte multimodal que funciona em múltiplos idiomas, mas a qualidade em português brasileiro pode variar dependendo da tarefa específica.
Recomendamos testar o modelo com prompts representativos do seu caso de uso em português antes de tomar uma decisão. O SWEN.AI está desenvolvendo um benchmark proprietário em PT-BR com tarefas aderentes ao mercado brasileiro para fornecer comparações mais precisas.
Mistral-Small-3.2-24B-Instruct-2506 is an updated 24B parameter model from Mistral optimized for instruction following, repetition reduction, and improved function calling. Compared to the 3.1 release, version 3.2 significantly improves accuracy on...
O Mistral: Mistral Small 3.2 24B custa US$ 0.075/1M tokens de input e US$ 0.2/1M tokens de output. Para uso intensivo (ex.: chatbot de WhatsApp com 100k mensagens/mês), o custo pode variar de R$ 50 a R$ 5.000 dependendo do volume.
A maioria dos modelos de IA modernos, incluindo o Mistral: Mistral Small 3.2 24B, suporta português brasileiro. No entanto, a qualidade pode variar — modelos como Claude e Gemini tendem a ter melhor performance em PT-BR. Recomendamos testar com prompts específicos do seu caso de uso.
Nos benchmarks disponíveis, o Mistral: Mistral Small 3.2 24B obteve scores como: LiveCodeBench: 27.5/100, AA Coding Index: 13.3/100, MATH-500: 88.3/100. Consulte a tabela completa acima para comparação detalhada.
Sim, o Mistral: Mistral Small 3.2 24B é um modelo de código aberto. Isso significa que você pode fazer deploy on-premises, personalizar via fine-tuning e ter controle total sobre os dados. Verifique a licença específica no repositório oficial.
Última atualização: 23 de abril de 2026