合成数据微调
Stockmark 2 100B Instruct Beta
MIT
Stockmark-2-100B是一个专注于日语能力的1000亿参数大语言模型,基于1.5万亿token的多语言数据预训练,并通过日语合成数据增强指令跟随能力。
大型语言模型
Transformers
支持多种语言
S
stockmark
1,004
9
Synthpose Vitpose Huge Hf
Apache-2.0
SynthPose是基于VitPose巨型主干网络的关键点检测模型,通过合成数据微调预测52个人体关键点,适用于运动学分析。
姿态估计
Transformers
S
stanfordmimi
1,320
1
Synthpose Vitpose Base Hf
Apache-2.0
SynthPose是基于VitPose Base的2D人体姿态估计模型,通过合成数据微调,可预测52个解剖学关键点
姿态估计
Transformers
S
stanfordmimi
931
3
Ministral 4b Instruct
Apache-2.0
Ministral是一个基于40亿参数的类GPT模型,采用与Mistral模型相同的架构,但规模更小,主要用于英语文本生成任务。
大型语言模型
Transformers
英语
M
ministral
151
5
Thai Trocr Thaigov V2
基于视觉编码器-解码器架构的泰文手写识别模型,适用于各类泰文OCR任务
图像生成文本
Transformers
其他
T
kkatiz
339
13
Discolm German 7b V1 AWQ
Apache-2.0
DiscoLM German 7B v1 是一个基于Mistral架构的7B参数德语语言模型,支持德语和英语,采用Apache-2.0许可证发布。
大型语言模型
Transformers
支持多种语言
D
TheBloke
81
4
Openhermes Llama 3B
Apache-2.0
基于OpenLlama-3B微调的指令跟随模型,专为角色扮演、指令跟随和代码生成优化
大型语言模型
Transformers
英语
O
cfahlgren1
81
3
Long T5 Tglobal Base Synthsumm Direct
Apache-2.0
基于Long-T5架构的文本摘要模型,使用合成数据集synthsumm微调,专注于长文本摘要任务。
文本生成
Transformers
英语
L
pszemraj
15
1
Openhermes 2 Mistral 7B
Apache-2.0
OpenHermes 2 Mistral 7B 是基于 Mistral-7B 微调的先进语言模型,主要使用 GPT-4 生成的合成数据进行训练,擅长对话和指令跟随任务。
大型语言模型
Transformers
英语
O
teknium
5,740
256
Open Llm Search
Open LLM Search是基于Together AI的llama-2-7b-32k模型的专门改编版本,专为从网页中提取信息而构建。
大型语言模型
Transformers
英语
O
masonbarnes
43
10
Trocr Small Photomath
TrOCR是基于Transformer的光学字符识别模型,专为数学表达式识别微调,采用编码器-解码器架构,结合BEiT图像编码器和RoBERTa文本解码器。
文字识别
Transformers
T
vukpetar
389
6