低资源高效
Phi 4 Reasoning Plus
MIT
Phi-4推理增强版是微软研究院开发的140亿参数开源推理模型,通过监督微调和强化学习优化,专注于数学、科学和编程领域的高级推理能力。
大型语言模型
Transformers
支持多种语言
P
unsloth
189
2
Phi 4 Reasoning Plus GGUF
MIT
Phi-4-reasoning-plus 是由微软研究院开发的开源推理模型,专注于数学、科学和编程领域的高级推理能力。
大型语言模型
支持多种语言
P
unsloth
109.62k
47
T5 Small Finetuned Xsum
Apache-2.0
基于T5-small模型在XSum数据集上微调的文本摘要模型
文本生成
Transformers
T
bdwjaya
103
0
Llama 3.1 8B SuperNova EtherealHermes GGUF
Apache-2.0
基于Llama-3.1架构的8B参数大语言模型,提供多种量化版本的GGUF格式文件
大型语言模型
英语
L
tensorblock
44
1
Ket5 News Summarizer
Apache-2.0
基于T5架构的韩语文本摘要模型,专门针对新闻报道进行微调训练
文本生成
支持多种语言
K
onebeans
40
1
Aya Vision 8b
Aya Vision 8B是一个开放权重的80亿参数多语言视觉语言模型,支持23种语言的视觉和语言任务。
图像生成文本
Transformers
支持多种语言
A
CohereLabs
29.94k
282
Qwen2.5 0.5B Portuguese V1
MIT
基于Qwen2.5-0.5B-Instruct微调的葡萄牙语大语言模型,专注于文本生成任务
大型语言模型
其他
Q
cnmoro
2,218
4
Drama Large
DRAMA-large (0.3B) 是一个基于剪枝后大语言模型架构构建的稠密检索模型,针对高效且可泛化的多语言文本检索任务进行优化。
文本嵌入
Transformers
支持多种语言
D
facebook
55
7
Falcon3
Apache-2.0
Falcon3-10B-Instruct是Falcon3系列的开源基础模型,拥有100亿参数,专注于高质量指令跟随任务,支持多语言处理,上下文长度可达32K tokens。
大型语言模型
F
cortexso
244
1
Granite Embedding 30m English
Apache-2.0
IBM Granite Embedding 30M English 是一个基于 transformer 架构的英文文本嵌入模型,由 IBM 开发并发布。
文本嵌入
Transformers
英语
G
ibm-granite
78.53k
10
Llama 3.1 Storm 8B GGUF
Llama-3.1-Storm-8B是基于Llama-3.1-8B-Instruct构建的改进模型,在多项基准测试中表现优异,适用于对话和函数调用任务。
大型语言模型
支持多种语言
L
akjindal53244
654
41
Sat 3l Sm
MIT
采用3层Transformer架构的顶尖句子分割技术,支持多语言文本分割。
序列标注
Transformers
支持多种语言
S
segment-any-text
168.01k
6
Ko Llama 3 8B Instruct
Ko-Llama-3-8B-Instruct 是一个专为提升韩语语言模型性能而开发的模型,基于 Meta-Llama-3-8B-Instruct 进行监督微调。
大型语言模型
Transformers
支持多种语言
K
davidkim205
140
8
Nllb 200 Distilled 600M En Zh CN
这是一个基于Meta公司NLLB-200-distilled-600M模型微调的机器翻译模型,专门用于英语到简体中文的翻译任务。
机器翻译
Transformers
支持多种语言
N
HackerMonica
41
3
Llama 3 Typhoon V1.5 8b Instruct
基于Llama3-8B架构开发的80亿参数指令调优泰语大语言模型,支持泰语和英语。
大型语言模型
Transformers
支持多种语言
L
scb10x
3,246
27
Llama 3 Wissenschaft 8B
其他
基于Llama-3-8b构建的多语言混合模型,融合了德语、意大利语和英语能力
大型语言模型
Transformers
L
nbeerbower
15
4
Llama 3 8B Summarization QLoRa
其他
基于Meta-Llama-3-8B模型在scitldr数据集上使用QLoRa技术微调的摘要生成模型
大型语言模型
TensorBoard
L
pkbiswas
29
0
Llama 3 8B Dutch
基于Llama 3 8B的荷兰语对话模型,通过ORPO方法在荷兰语反馈数据集上优化训练
大型语言模型
Transformers
其他
L
ReBatch
47
12
Snowflake Arctic Embed Xs
Snowflake Arctic Embed XS 是一个轻量级的句子嵌入模型,专注于句子相似度和特征提取任务。
文本嵌入
Transformers
S
Snowflake
125.31k
35
Rakutenai 7B Instruct
Apache-2.0
RakutenAI-7B-instruct是基于Mistral-7B架构优化的日语和英语大语言模型,在日语理解基准测试中表现优异,同时保持英语能力竞争力。
大型语言模型
Transformers
支持多种语言
R
Rakuten
671
44
Bloomz 560m Reranking
Openrail
基于Bloomz-560m构建的双语重排序模型,用于衡量查询与上下文的语义相关性,支持法语和英语
大型语言模型
Transformers
支持多种语言
B
cmarkea
17
1
Prodigy 7B GGUF Imatrix
Prodigy_7B的GGUF-Imatrix量化版本,采用重要性矩阵技术提升量化质量
大型语言模型
P
Lewdiculous
58
7
Qra 1b
Apache-2.0
Qra是由波兰国家信息处理研究所与格但斯克理工大学联合开发的波兰语优化大语言模型系列,基于TinyLlama-1.1B初始化并在900亿波兰语token上训练
大型语言模型
Transformers
Q
OPI-PG
246
20
Mobilellama 1.4B Chat
Apache-2.0
MobileLLaMA-1.4B-Chat 是基于 MobileLLaMA-1.4B-Base 微调而来的聊天模型,使用了 ShareGPT 数据集进行监督式指令微调。
大型语言模型
Transformers
M
mtgv
580
20
Mt5 Base Thaisum Text Summarization
基于mT5架构微调的泰语文本摘要模型,支持生成40-140字符的简洁摘要
文本生成
Transformers
其他
M
StelleX
178
1
Btlm 3b 8k Chat
Apache-2.0
BTLM-3B-8k-chat是基于BTLM-3B-8K-base开发的对话版本,采用DPO方法优化,专为符合人类偏好的对话场景设计。
大型语言模型
Transformers
英语
B
cerebras
138
13
Saiga Mistral 7b GPTQ
Saiga Mistral 7B是基于Mistral架构的俄语大语言模型,由Ilya Gusev开发。
大型语言模型
Transformers
S
TheBloke
68
8
Openhermes 2.5 Mistral 7B GPTQ
Apache-2.0
OpenHermes 2.5是基于Mistral-7B微调的高级语言模型,专注于代码生成和通用任务处理,性能优于前代版本。
大型语言模型
Transformers
英语
O
TheBloke
695
28
Openchat 3.5 GPTQ
Apache-2.0
OpenChat 3.5 7B是基于Mistral架构的7B参数大语言模型,由OpenChat团队开发,采用Apache 2.0许可证发布。
大型语言模型
Transformers
O
TheBloke
107
17
Distilcamembert Lleqa
Apache-2.0
基于法语法律信息检索数据集LLeQA训练的句子嵌入模型,适用于法律文本的语义搜索和聚类任务
文本嵌入
法语
D
maastrichtlawtech
22
3
Tst Summarization
基于google/pegasus-xsum微调的新闻摘要生成模型,在cnn_dailymail数据集上训练
文本生成
Transformers
英语
T
ChaniM
23
0
Scandi Nli Base
Apache-2.0
基于NbAiLab/nb-bert-base微调的自然语言推理模型,支持丹麦语、挪威博克马尔语和瑞典语
文本分类
Transformers
其他
S
alexandrainst
19
1
T5 Small Finetuned Cnn V2
Apache-2.0
基于T5-small模型在cnn_dailymail数据集上微调的文本摘要生成模型
文本生成
Transformers
T
ubikpt
20
1
T5 Small Finetuned Cnn
Apache-2.0
基于T5-small架构在cnn_dailymail数据集上微调的文本摘要生成模型,擅长新闻摘要生成任务
文本生成
Transformers
T
ubikpt
55
0
Distilbert Base Uncased Squad2 With Ner With Neg With Multi
基于DistilBERT的问答与命名实体识别多任务模型,在conll2003数据集上微调
问答系统
Transformers
D
andi611
20
0
Mt5 Small Sum De Mit V1
MIT
这是一个基于多语言T5模型的德语摘要生成模型,采用MIT许可证,允许商业用途。
文本生成
Transformers
德语
M
deutsche-telekom
441
12
Distilbert Base Uncased Squad2 With Ner With Neg With Multi With Repeat
基于distilbert-base-uncased-squad2在conll2003数据集上微调的问答与命名实体识别模型
问答系统
Transformers
D
andi611
20
0
T5 Finetuned Test
基于维基指南数据集训练的T5-small架构文本摘要模型
文本生成
英语
T
osanseviero
24
2
Distilbart Qgen 3 3
Apache-2.0
该模型是基于SQuAD数据集微调的BART变体,专门用于根据文本段落和答案生成对应问题。
问答系统
Transformers
英语
D
gpssohi
21
3
Bert Base Bg Cased
Apache-2.0
这是bert-base-multilingual-cased的定制化精简版本,专门针对保加利亚语优化,能完全复现原始模型生成的表征,保持原始准确率。
大型语言模型
其他
B
Geotrend
164
0