
GPT 4o Mini
GPT-4o mini 是 OpenAI 最新推出的高性价比小型模型,旨在让人工智能技术更加普及和经济实惠。该模型在文本理解和多模态推理方面表现卓越,性能超越了之前的模型如 GPT-3.5 Turbo。凭借 128K 令牌的上下文窗口和对文本及视觉数据的支持,它能够提供低成本、实时应用,例如客户服务聊天机器人。其定价为每百万输入令牌 15 美分,每百万输出令牌 60 美分,相比前代模型显著更具成本优势。安全性方面,该模型内置了安全措施并提升了对安全威胁的抵御能力。
智力(较弱)
速度(较慢)
输入支持模态
是
是否推理模型
128,000
上下文窗口
16,384
最大输出令牌数
2023-10-01
知识截止
定价
¥1.08 /M tokens
输入
¥4.32 /M tokens
输出
¥1.89 /M tokens
混合价格
快速简易对比
GPT-5-high
GPT-5‑pro
GPT-4.1 nano
¥0.1
基础参数
GPT-4o mini的技术参数
参数数量
未公布
上下文长度
128.00k tokens
训练数据截止
2023-10-01
开源分类
Proprietary
多模态支持
文本、图像
吞吐量
92
发布日期
2024-07-18
响应速度
63.792,427 tokens/s
基准测试得分
以下是GPT-4o mini在各种标准基准测试中的表现。这些测试评估了模型在不同任务和领域的能力。
智能指数
35.68
大语言模型智能水平
编码指数
23.15
AI模型在编码任务上的能力表现的指标
数学指数
45.27
解决数学问题、数学推理或执行与数学相关的任务方面的能力指标
MMLU Pro
64.8
海量多任务多模式理解-测试对文本、图像、音频和视频的理解
GPQA
42.6
研究生物理问题评估-用钻石科学级别的问题测试高级物理知识
HLE
4
模型在 Hugging Face Open LLM Leaderboard 上的综合平均得分
LiveCodeBench
23.4
特定的、专注于评估大型语言模型在真实世界代码编写和解决编程竞赛问题能力评分
SciCode
22.9
模型在科学计算或特定科学领域的代码生成方面的能力
HumanEval
87.6
AI模型在 HumanEval 这个特定的基准测试集上取得的成绩
Math 500 评分
78.9
前500道更大型、更知名的数学基准测试评分
AIME 评分
11.7
一个衡量AI模型在解决高难度数学竞赛问题(特指AIME级别)方面能力的指标
精选推荐AI模型
GLM 4.5
chatglm

¥0.43
输入tokens/百万
¥1.01
输出tokens/百万
131k
上下文长度
Gemini 2.0 Flash Lite (Preview)
google

¥0.58
输入tokens/百万
¥2.16
输出tokens/百万
1M
上下文长度
Qwen2.5 Coder Instruct 32B
alibaba

¥0.65
输入tokens/百万
¥0.65
输出tokens/百万
131k
上下文长度
Deepseek R1
deepseek

¥3.96
输入tokens/百万
¥15.77
输出tokens/百万
128k
上下文长度
Gemini 2.0 Flash (experimental)
google

¥0.72
输入tokens/百万
¥2.88
输出tokens/百万
1M
上下文长度
Gemini 2.0 Pro Experimental (Feb '25)
google

-
输入tokens/百万
-
输出tokens/百万
2M
上下文长度
Llama 3.2 Instruct 11B (Vision)
meta

¥0.43
输入tokens/百万
¥0.43
输出tokens/百万
128k
上下文长度
O1 Preview
openai

¥108
输入tokens/百万
¥432
输出tokens/百万
128k
上下文长度