Stockmark 2 100B Instruct Beta
MIT
Stockmark-2-100B是一个专注于日语能力的1000亿参数大语言模型,基于1.5万亿token的多语言数据预训练,并通过日语合成数据增强指令跟随能力。
大型语言模型
Transformers

支持多种语言
S
stockmark
1,004
9
Synthpose Vitpose Huge Hf
Apache-2.0
SynthPose是基于VitPose巨型主干网络的关键点检测模型,通过合成数据微调预测52个人体关键点,适用于运动学分析。
姿态估计
Transformers

S
stanfordmimi
1,320
1
Synthpose Vitpose Base Hf
Apache-2.0
SynthPose是基于VitPose Base的2D人体姿态估计模型,通过合成数据微调,可预测52个解剖学关键点
姿态估计
Transformers

S
stanfordmimi
931
3
Ministral 4b Instruct
Apache-2.0
Ministral是一个基于40亿参数的类GPT模型,采用与Mistral模型相同的架构,但规模更小,主要用于英语文本生成任务。
大型语言模型
Transformers

英语
M
ministral
151
5
Thai Trocr Thaigov V2
基于视觉编码器-解码器架构的泰文手写识别模型,适用于各类泰文OCR任务
图像生成文本
Transformers

其他
T
kkatiz
339
13
Discolm German 7b V1 AWQ
Apache-2.0
DiscoLM German 7B v1 是一个基于Mistral架构的7B参数德语语言模型,支持德语和英语,采用Apache-2.0许可证发布。
大型语言模型
Transformers

支持多种语言
D
TheBloke
81
4
Openhermes Llama 3B
Apache-2.0
基于OpenLlama-3B微调的指令跟随模型,专为角色扮演、指令跟随和代码生成优化
大型语言模型
Transformers

英语
O
cfahlgren1
81
3
Long T5 Tglobal Base Synthsumm Direct
Apache-2.0
基于Long-T5架构的文本摘要模型,使用合成数据集synthsumm微调,专注于长文本摘要任务。
文本生成
Transformers

英语
L
pszemraj
15
1
Openhermes 2 Mistral 7B
Apache-2.0
OpenHermes 2 Mistral 7B 是基于 Mistral-7B 微调的先进语言模型,主要使用 GPT-4 生成的合成数据进行训练,擅长对话和指令跟随任务。
大型语言模型
Transformers

英语
O
teknium
5,740
256
Open Llm Search
Open LLM Search是基于Together AI的llama-2-7b-32k模型的专门改编版本,专为从网页中提取信息而构建。
大型语言模型
Transformers

英语
O
masonbarnes
43
10
Trocr Small Photomath
TrOCR是基于Transformer的光学字符识别模型,专为数学表达式识别微调,采用编码器-解码器架构,结合BEiT图像编码器和RoBERTa文本解码器。
文字识别
Transformers

T
vukpetar
389
6
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文