Website Mistral7b Best Vllm
这是一个基于Hugging Face Transformers库的模型,使用Unsloth进行优化。
大型语言模型
Transformers

W
limitedonly41
30
1
Llama3 2 Merged
这是一个基于🤗 transformers库的模型,使用了unsloth技术进行优化。
大型语言模型
Transformers

L
zehra123
64
1
QWEN 3B INSTRUC Medical COT SFT 2kstep 4kcol
Apache-2.0
基于Qwen2.5架构的3B参数指令微调模型,使用Unsloth和Huggingface TRL库优化训练速度
大型语言模型
Transformers

英语
Q
hailong18102002
30
1
Qwen2.5 7b SFT Three Subtasks 3epoch
这是一个基于🤗 transformers库的模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers

Q
mjfmark
97
1
Qwen3 14B 128K GGUF
Apache-2.0
Qwen3是Qwen系列最新一代的大语言模型,提供了一系列密集和混合专家(MoE)模型。
大型语言模型
英语
Q
unsloth
10.20k
13
Qwen3 4B 128K GGUF
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大语言模型,具有4B参数规模,支持100多种语言,在推理、指令遵循、代理能力和多语言支持方面表现优异。
大型语言模型
英语
Q
unsloth
15.41k
17
Qwen3 1.7B GGUF
Apache-2.0
Qwen3-1.7B是Qwen系列最新一代1.7B参数规模的大语言模型,支持在思考与非思考模式间切换,具备增强的推理能力和多语言支持。
大型语言模型
英语
Q
unsloth
28.55k
16
Qwen3 0.6B Unsloth Bnb 4bit
Apache-2.0
Qwen3是Qwen系列最新一代的大语言模型,提供了一套全面的密集和混合专家(MoE)模型。
大型语言模型
Transformers

英语
Q
unsloth
50.36k
7
Qwen3 0.6B GGUF
Apache-2.0
Qwen3-0.6B是阿里云开发的0.6B参数规模的大语言模型,属于Qwen3系列的最新成员,支持100多种语言,具备强大的推理、指令遵循和多语言能力。
大型语言模型
英语
Q
unsloth
53.56k
41
Qwen3 14B GGUF
Apache-2.0
Qwen3是阿里云开发的最新大语言模型,具有强大的推理、指令遵循和多语言支持能力,支持思考与非思考模式切换。
大型语言模型
英语
Q
unsloth
81.29k
40
Qwen3 4B Unsloth Bnb 4bit
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大语言模型,具有4B参数规模,支持100多种语言,在推理、指令跟随和代理能力方面表现突出。
大型语言模型
Transformers

英语
Q
unsloth
72.86k
5
Minicpm S 1B Sft
Apache-2.0
MiniCPM-S-1B-sft 是一个基于激活稀疏化技术优化的1B参数规模语言模型,通过ProSparse方法实现高稀疏性推理加速,同时保持与原始模型相当的性能。
大型语言模型
Transformers

支持多种语言
M
openbmb
169
10
EZO2.5 Gemma 3 12b It Preview
基于google/gemma-3-12b-it模型,通过EZO训练方法提升日语性能的文本生成模型
大型语言模型
Transformers

日语
E
AXCXEPT
39
1
Falcon E 1B Base
其他
Falcon-E-1B-Base 是由 TII 开发的一个高效 1.58 位语言模型,采用纯 Transformer 架构,专为边缘设备优化设计。
大型语言模型
Transformers

F
tiiuae
53
4
Orpheus TTS MediaSpeech
这是一个基于MediaSpeech数据集训练的阿拉伯语模型,具体用途和功能需要更多信息确认。
大型语言模型
Transformers

阿拉伯语
O
kadirnar
21
2
Orpheus Cml FR
基于canopylabs/orpheus-3b-0.1-pretrained微调的法语文本生成模型
大型语言模型
Transformers

法语
O
kadirnar
24
2
Space Voice Label Detect Beta
Apache-2.0
基于Qwen2.5-VL-3B模型的微调版本,使用Unsloth和Huggingface TRL库进行训练,推理速度提升2倍
文本生成图像
Transformers

英语
S
devJy
38
1
Llama 3.3 70B IT SFT1
Llama Factory 是一个基于 Transformers 库的模型,可能用于文本生成或其他自然语言处理任务。
大型语言模型
Transformers

L
infrahb
158
1
Deepseek V3 5layer
DeepSeek-V3的5层简化开发版本,适用于轻量级任务和快速实验。
大型语言模型
Transformers

D
chwan
30.01k
1
Turkish Llama 3 8B Function Calling GGUF
Apache-2.0
这是一个基于Turkish-Llama-8b-DPO-v0.1模型微调的土耳其语函数调用模型,专门用于执行土耳其语的函数调用任务。
大型语言模型
Transformers

支持多种语言
T
oncu
103
1
Turkish Llama 3 8B Function Calling
Apache-2.0
该模型是基于Turkish-Llama-8b-DPO-v0.1调整的,专门用于土耳其语的功能调用任务。
大型语言模型
Transformers

支持多种语言
T
atasoglu
84
3
Locations Classifier
Apache-2.0
基于DistilBERT的轻量级文本分类模型,用于位置分类任务
文本分类
Transformers

L
christopherxzyx
28
1
Neo 1 16B
基于transformers库的模型,可能使用了unsloth和trl进行优化,适用于监督式微调(SFT)任务
大型语言模型
Transformers

N
Spestly
16
2
Nova 0.5 E1 7B
该模型是基于TRL(Transformer Reinforcement Learning)库优化的高效微调模型,专注于强化学习在Transformer模型中的应用。
大型语言模型
Transformers

N
oscar128372
46
2
Ro001
Apache-2.0
基于distilbert-base-uncased微调的文本分类模型,F1分数为0.6147
大型语言模型
Transformers

R
jiyometrik
23
1
T5 Finetuned Finance
Apache-2.0
T5 Small 是 Google 发布的 T5(Text-To-Text Transfer Transformer)系列模型中的小型版本,适用于多种文本处理任务。
文本分类
Transformers

英语
T
AdityaSai1234
21
3
Croguana RC2 Gguf
基于Mistral架构的克罗地亚语文本生成模型,使用Unsloth加速训练
大型语言模型
其他
C
Shome
55
1
Distilbert Base Uncased Finetuned Cola
Apache-2.0
该模型是基于DistilBERT-base-uncased在CoLA(Corpus of Linguistic Acceptability)数据集上微调的版本,用于语法可接受性判断任务。
大型语言模型
Transformers

D
shilik
33
1
Reranker Bert Tiny Gooaq Bce Tanh V4
Apache-2.0
这是一个从bert-tiny微调而来的交叉编码器模型,用于计算文本对的相似度分数,适用于语义文本相似度、语义搜索等任务。
文本嵌入
英语
R
cross-encoder-testing
1,971
0
Reranker Bert Tiny Gooaq Bce
Apache-2.0
这是一个从bert-tiny微调而来的交叉编码器模型,用于计算文本对的相似度分数,适用于语义文本相似度、语义搜索等多种任务。
文本嵌入
英语
R
cross-encoder-testing
37.19k
0
Yulan Mini Instruct
MIT
YuLan-Mini-Instruct是一个24亿参数的紧凑但强大的文本生成模型,专注于数学和代码推理任务,支持中英文。
大型语言模型
Transformers

支持多种语言
Y
yulan-team
97
2
Distilbert Network Intrusion Detection
基于DistilBERT架构优化的网络入侵检测模型,用于识别和分析网络流量中的异常行为
文本分类
Transformers

D
gates04
165
2
My Frugal Audio Model
Apache-2.0
这是基于facebook/wav2vec2-base微调的音频处理模型,主要用于语音相关任务
音频分类
Transformers

M
hsalehILB
1
0
Smolturing 8B Instruct
Apache-2.0
SmolLumi-8B-Instruct是一个基于Unsloth和Huggingface TRL库训练的8B参数羊驼模型,专注于文本生成推理任务。
大型语言模型
英语
S
safe049
43
2
Zurich 14B GCv2 50k
Apache-2.0
基于Qwen 2.5 14B Instruct模型微调的大语言模型,使用伽马语料库v2-50k数据集训练
大型语言模型
Transformers

英语
Z
rubenroy
39
3
Llama3 8B 1.58 100B Tokens
基于BitNet 1.58b架构微调的大型语言模型,基础模型为Llama-3-8B-Instruct,采用极端量化技术
大型语言模型
Transformers

L
HF1BitLLM
2,427
181
Sales Conversations Unsloth Llama 3.1 8B Instruct
Apache-2.0
基于Meta-Llama-3.1-8B-Instruct的4位量化版本,使用Unsloth和TRL库进行高效训练
大型语言模型
Transformers

英语
S
vakodiya
22
1
Llama3.1 8b Instruct Summarize Q4 K M
Apache-2.0
基于Meta-Llama-3.1-8B-Instruct的4位量化版本,使用Unsloth和Huggingface TRL库进行训练,速度提升2倍。
大型语言模型
英语
L
raaec
107
0
Gemma 2 9b It SimPO
MIT
基于SimPO目标在gemma2-ultrafeedback-armorm数据集上微调的Gemma 2.9B模型,用于偏好优化任务
大型语言模型
Transformers

G
princeton-nlp
21.34k
164
Clarityqwen2summarizer
Apache-2.0
基于Qwen2 1.5b模型微调的YouTube视频转录摘要生成模型
文本生成
支持多种语言
C
ClarityClips
40
1
- 1
- 2
- 3
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文