模型简介
该模型是一个高效的fasttext分类器,专门用于识别数学相关内容。它在160万条记录的平衡数据集上训练,测试F1得分达到0.99,特别适合用于增强LLM的数学能力预训练数据整理。
模型特点
高性能分类
在测试集上达到0.99的F1分数,能够准确区分数学和非数学内容
极速处理
在CPU上可实现约2000文档/秒的高吞吐量处理
数据整理专用
专为LLM预训练数据整理设计,特别适合增强模型的数学能力
平衡数据集
使用50:50比例的数学和非数学内容混合数据集训练
模型能力
文本分类
数学内容识别
高速文本处理
使用案例
LLM预训练
数学能力增强
用于筛选和增强LLM预训练数据中的数学相关内容
可帮助提升LLM的数学推理能力,如QWEN2.5-MATH所示例
内容过滤
数学内容筛选
从大量文本中快速识别数学相关内容
高效分离数学和非数学内容
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文