Reasoning TIES Coder V1.1
Apache-2.0
这是一个使用TIES方法合并的32B参数规模的大语言模型,基于Rombo-LLM-V3.1-QWQ-32b基础模型融合了多个FuseAI预览模型
大型语言模型
Transformers

R
BenevolenceMessiah
74
2
Unhinged Author 70B
基于TIES方法合并的70B参数大语言模型,以Steelskull/L3.3-MS-Nevoria-70b为基础模型融合了DeepSeek-R1-Distill-Llama-70B模型
大型语言模型
Transformers

U
FiditeNemini
44
3
Calme 3.2 Instruct 78b
其他
calme-3.2-instruct-78b是基于Qwen2.5-72B的高级迭代版本,通过自我合并和微调增强能力的通用领域大语言模型。
大型语言模型
Transformers

英语
C
MaziyarPanahi
2,212
127
Deberta V3 Base Zeroshot V2.0
MIT
基于DeBERTa-v3-base架构的零样本分类模型,专为无需训练数据的文本分类任务设计
文本分类
Transformers

英语
D
MoritzLaurer
7,845
8
Deberta V3 Base Zeroshot V2.0 C
MIT
基于DeBERTa-v3-base的零样本分类模型,专为无需训练数据的分类任务设计,使用商业友好数据训练
文本分类
Transformers

英语
D
MoritzLaurer
504
0
Yamshadowexperiment28 7B
Apache-2.0
截至2024年4月8日,山影实验28号-7B是Open LLM排行榜上性能最佳的7B参数模型。
大型语言模型
Transformers

Y
automerger
101
24
UNA TheBeagle 7b V1
TheBeagle是基于The Bagel数据集训练的70亿参数模型,采用DPO(直接偏好优化)和UNA(统一神经架构)技术优化,在多任务中表现优异。
大型语言模型
Transformers

U
fblgit
88
37
Tinyllama 1.1B Intermediate Step 1195k Token 2.5T
Apache-2.0
TinyLlama是一个1.1B参数的小型Llama模型,在3万亿token上预训练,设计用于资源有限的环境。
大型语言模型
Transformers

英语
T
TinyLlama
419
52
Deberta V3 Base Zeroshot V1.1 All 33
MIT
基于DeBERTa-v3的零样本分类模型,支持33个数据集和387个类别的通用文本分类任务
文本分类
Transformers

英语
D
MoritzLaurer
7,152
28
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文