MT Gen1 Gemma 3 12B
这是一个使用mergekit工具合并的预训练语言模型,采用DARE TIES方法融合了多个Gemma3-12B变体模型。
大型语言模型
Transformers

M
zelk12
118
3
Fin Mpnet Base
这是一个经过微调的sentence-transformers模型,专为金融文档检索任务优化,同时保持通用性能。
文本嵌入
其他
F
mukaj
131.16k
7
Magnamellrei V1 12B
Apache-2.0
MagnaMellRei-v1-12B是通过mergekit工具使用SLERP方法合并的两个12B参数模型得到的混合模型
大型语言模型
Transformers

M
grimjim
17
3
Gemma 3 27b Half Full
Gemma 3 27B 合并模型是通过线性合并法融合了预训练模型和指令调优模型的大语言模型
大型语言模型
Transformers

G
Columbidae
16
1
Orpheus Cml FR
基于canopylabs/orpheus-3b-0.1-pretrained微调的法语文本生成模型
大型语言模型
Transformers

法语
O
kadirnar
24
2
EXAONE 3.5 2.4B Fine Tuning
Hugging Face提供的Transformer模型库,支持多种自然语言处理任务
大型语言模型
Transformers

E
good593
65
2
Qwen2.5 14B YOYO V5
Apache-2.0
Qwen2.5-YOYO第五代模型,整合了多个先进模型的特点,优化了模型合并公式,支持100万token上下文。
大型语言模型
Safetensors
支持多种语言
Q
YOYO-AI
33
3
Thor V2.5 8b FANTASY FICTION 128K Q4 K M GGUF
这是一个基于GGUF格式转换的8B参数规模的幻想小说专用语言模型,支持128K上下文长度。
大型语言模型
英语
T
MrRobotoAI
22
0
Qwq 32B Preview Pruned
未提供具体模型信息,可能是一个通用的transformers库模型
大型语言模型
Transformers

Q
LordNoah
110
2
Modernbert Base Zeroshot V2.0
Apache-2.0
基于ModernBERT-base微调的零样本分类器,高效快速且内存占用低,适用于多种文本分类任务。
文本分类
Transformers

M
MoritzLaurer
261
17
Modernbert Large Zeroshot V2.0
Apache-2.0
基于ModernBERT-large微调的零样本分类器,高效快速且内存占用低,适用于多种文本分类任务。
大型语言模型
Transformers

M
MoritzLaurer
25.66k
47
Doge 20M Instruct
Apache-2.0
Doge 20M 是一个基于动态掩码注意力机制的小型语言模型,支持指令跟随和问答任务。
大型语言模型
Transformers

英语
D
SmallDoge
5,010
4
Ruri Large V2
Apache-2.0
Ruri是一个日语通用文本嵌入模型,专注于句子相似度计算和特征提取,支持长文本处理。
文本嵌入
日语
R
cl-nagoya
3,672
9
Esmplusplus Large
ESM++是对ESMC的忠实实现,支持批处理操作且完全兼容Huggingface生态,无需依赖ESM官方Python包。
蛋白质模型
Transformers

E
Synthyra
8,314
9
Cydonia V1.3 Magnum V4 22B
其他
这是一个基于Cydonia-22B-v1.3和Magnum-v4-22B合并的22B参数语言模型,使用SLERP方法融合
大型语言模型
Transformers

C
knifeayumu
822
41
Conan Embedding V1 Q4 K M GGUF
Conan-embedding-v1是由腾讯BAC团队开发的中文文本嵌入模型,基于sentence-transformers库实现,适用于多种中文自然语言处理任务。
文本嵌入
C
lagoon999
30
7
Maux Gte Persian
这是一个从阿里巴巴NLP/gte-multilingual-base微调的sentence-transformers模型,专门用于处理波斯语的语义文本任务。
文本嵌入
其他
M
xmanii
662
5
Dinov2.large.patch 14.reg 4
Apache-2.0
DINOv2是一个基于视觉变换器的图像特征提取模型,通过引入寄存器机制提升了特征提取能力。
图像特征提取
D
refiners
15
0
Gemma 2 9b It SimPO
MIT
基于SimPO目标在gemma2-ultrafeedback-armorm数据集上微调的Gemma 2.9B模型,用于偏好优化任务
大型语言模型
Transformers

G
princeton-nlp
21.34k
164
Pickscore V2
MIT
该模型基于MIT许可证发布,具体信息暂不可知。
大型语言模型
Transformers

P
hcaoaf
28
2
Biomed Right
基于Transformers库的零样本分类模型,能够在没有特定任务训练数据的情况下进行分类任务。
文本分类
Transformers

B
gritli
15
0
Labse Ru Turbo
MIT
用于计算俄语句子嵌入的BERT模型,基于cointegrated/LaBSE-en-ru开发,优化了俄语处理性能
文本嵌入
Transformers

其他
L
sergeyzh
3,987
15
Tybert
Apache-2.0
由Trendyol预训练的土耳其语Bert模型,适用于多种自然语言理解任务。
大型语言模型
Transformers

其他
T
Trendyol
54
6
Safety Helmet Detection
MIT
基于 MIT 许可证的开源模型,具体功能和用途需参考完整文档
大型语言模型
Transformers

S
gghsgn
20
0
Xlm Roberta Large Xnli
基于Transformers.js的法语零样本分类模型,支持对法语文本进行多类别分类而无需特定训练
零样本分类
Transformers

法语
X
xavierbarbier
16
1
Xfinder Llama38it
xFinder-llama38it 是基于 Llama3-8B-Instruct 微调的关键答案提取模型,旨在提高大型语言模型输出的关键答案提取准确性和鲁棒性。
大型语言模型
Transformers

英语
X
IAAR-Shanghai
189
5
Llama 3 6B V0.1
全球首个60亿参数的Llama-3基础模型,通过降级循环技术从Meta-Llama-3-8B创建,并在10亿英文文本标记上进行了持续预训练
大型语言模型
Transformers

英语
L
prince-canuma
14
14
Meowgpt 3.5 11B
MeowGPT-3.5是基于GPT-3.5架构的合并模型,专注于文本生成任务。
大型语言模型
Transformers

M
Chickaboo
16
1
Eris LelantaclesV2 7b
该模型是通过SLERP方法合并Eros-7b-test和Eris-Lelanacles-7b两个7B参数模型得到的混合模型
大型语言模型
Transformers

E
ChaoticNeutrals
22
4
Roberta Large InBedder
MIT
InBedder是一款专为遵循指令而设计的文本嵌入器,能够通过回答问题的方式捕捉用户指令指定的文本特征。
文本嵌入
Transformers

英语
R
BrandonZYW
17
2
Curie 7B V1
Apache-2.0
Curie-7B-v1是一个通过微调英语大语言模型(LLMs)用于波兰语文本生成的模型,在波兰语文本生成和多项NLP任务中表现出色。
大型语言模型
Transformers

其他
C
szymonrucinski
26
5
Xtremedistil L6 H256 Zeroshot V1.1 All 33
MIT
这是一个超小体积、高效能的零样本分类模型,专为边缘设备和浏览器应用设计。
文本分类
Transformers

英语
X
MoritzLaurer
593
6
Llama 2 7b Chat Med
Apache-2.0
这是一个基于Apache-2.0许可证发布的模型,具体信息暂不可用。
大型语言模型
Transformers

L
darwin2025
29
1
Deepsex 6b Chat
Apache-2.0
大型语言模型
Transformers

D
TriadParty
77
3
Chinese Porn Novel
Apache-2.0
该模型是一个基于Apache-2.0许可证的开源人工智能模型,具体功能需根据实际模型类型确定
大型语言模型
Transformers

C
qgyd2021
199
9
Chkpt E10S441L10 20 139 3060
MIT
该模型基于MIT许可证发布,具体信息暂不可知。
大型语言模型
Transformers

C
sarthakmp
16
0
Unichart Opencqa 960
Gpl-3.0
一个基于GPL-3.0许可证发布的开源模型,具体功能和应用领域需进一步确认
大型语言模型
Transformers

U
ahmed-masry
46
0
Chatdoctor
Apache-2.0
这是一个基于Apache-2.0许可证的开源模型,具体功能和用途需要根据实际模型确定
大型语言模型
Transformers

C
mncai
124
12
Instructor Xl
Apache-2.0
Instructor是一种通过指令微调的文本嵌入模型,能够根据任意任务和领域生成定制化的文本嵌入向量,无需额外微调。
文本嵌入
Transformers

英语
I
hkunlp
149.36k
566
Chinese Lert Small
Apache-2.0
LERT是一款基于语言学理论驱动的预训练语言模型,旨在通过语言学知识提升模型性能。
大型语言模型
Transformers

中文
C
hfl
538
12
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文