知识蒸馏优化
F Lite 7B
Openrail
由Freepik和Fal联合开发的70亿参数扩散模型,通过知识蒸馏构建,具有快速生成和高效内存使用的特点
图像生成
英语
F
Freepik
342
22
Xlm Roberta Ua Distilled
MIT
这是一个基于xlm-roberta-base微调的句子转换器模型,支持英语和乌克兰语,可用于语义文本相似度、语义搜索等任务。
文本嵌入
支持多种语言
X
panalexeu
121
1
Codev R1 Distill Qwen 7B
基于DeepSeek-R1蒸馏的Verilog RTL代码生成模型,在Verilog基准测试中表现优异
大型语言模型
Transformers
C
zhuyaoyu
154
2
Ultravox V0 3
MIT
Ultravox 是一个基于 Llama3.1-8B-Instruct 和 Whisper-small 的多模态语音大语言模型,能够同时处理语音和文本输入。
音频生成文本
Transformers
英语
U
FriendliAI
20
1
Ultravox V0 5 Llama 3 3 70b
MIT
Ultravox是基于Llama3.3-70B和Whisper构建的多模态语音大语言模型,支持语音和文本输入,适用于语音代理、翻译等场景。
音频生成文本
Transformers
支持多种语言
U
fixie-ai
3,817
26
Bge M3 Distill 8l
从BAAI/bge-m3蒸馏得到的8层嵌入模型,在保持检索性能的同时实现2.5倍速度提升
文本嵌入
B
altaidevorg
249
7
Aimv2 Large Patch14 336.apple Pt Dist
AIM-v2是一个高效的图像编码器,基于timm库实现,适用于多种计算机视觉任务。
图像分类
Transformers
A
timm
14
0
Ultravox V0 4 1 Mistral Nemo
MIT
Ultravox 是一个基于 Mistral-Nemo 和 Whisper 的多模态模型,可同时处理语音和文本输入,适用于语音代理、语音翻译等任务。
音频生成文本
Transformers
支持多种语言
U
fixie-ai
1,285
25
Ultravox V0 4 1 Llama 3 1 70b
MIT
Ultravox 是一个多模态语音大语言模型,基于预训练的 Llama3.1-70B-Instruct 和 whisper-large-v3-turbo 主干构建,能够同时接收语音和文本作为输入。
文本生成音频
Transformers
支持多种语言
U
fixie-ai
204
24
Ultravox V0 4 1 Llama 3 1 8b
MIT
Ultravox是基于Llama3.1-8B-Instruct和whisper-large-v3-turbo构建的多模态语音大语言模型,能够同时处理语音和文本输入。
音频生成文本
Transformers
支持多种语言
U
fixie-ai
747
97
Polish Reranker Roberta V2
基于sdadas/polish-roberta-large-v2改进的波兰语重排序模型,采用RankNet损失函数训练,支持Flash Attention 2加速
文本嵌入
Transformers
其他
P
sdadas
961
2
Llama3.1 1B Neo BAAI 1000k
Apache-2.0
Llama3.1-Neo-1B-100w是基于Meta-Llama-3.1-8B-Instruct剪枝至1.4B参数规模,并采用LLM-Neo方法(结合LoRA与知识蒸馏)微调的高效语言模型。
大型语言模型
Transformers
L
yang31210999
39
2
Ultravox V0 4
MIT
Ultravox 是一款基于 Llama3.1-8B-Instruct 和 Whisper-medium 的多模态语音大语言模型,能够同时处理语音和文本输入。
音频生成文本
Transformers
支持多种语言
U
fixie-ai
1,851
48
Distilbert PoliticalBias
MIT
基于DistilBERT的微调模型,用于检测和降低文本中的政治偏见,采用知识蒸馏和扩散技术实现无偏见文本表征。
文本分类
Transformers
英语
D
cajcodes
265
2
Multilingual Distilwhisper 28k
MIT
基于whisper-small模型改进的多语言自动语音识别模型,通过CLSR模块和知识蒸馏提升目标语言性能
语音识别
Transformers
其他
M
naver
47
13
Bangla Sentence Transformer
基于stsb-xlm-r-multilingual微调的孟加拉语句子嵌入模型,支持句子相似度计算和语义搜索
文本嵌入
支持多种语言
B
shihab17
1,257
4
Lamini T5 738M
LaMini-T5-738M是基于t5-large在LaMini-instruction数据集上微调而成的指令微调模型,参数量为738M,属于LaMini-LM系列模型之一。
大型语言模型
Transformers
英语
L
MBZUAI
2,966
49
Semantic Xlmr Bn
针对孟加拉语优化的多语言句子嵌入模型,可将文本映射到768维向量空间
文本嵌入
Transformers
其他
S
afschowdhury
225
1
Small Stable Diffusion V0
Openrail
一个轻量级的文本到图像生成模型,体积比原始稳定扩散模型小近一半,同时保持相似的生成质量。
图像生成
英语
S
OFA-Sys
2,743
92
Dynamic Minilmv2 L6 H384 Squad1.1 Int8 Static
MIT
QuaLA-MiniLM是英特尔开发的微型语言模型,融合知识蒸馏、长度自适应变换器和8位量化技术,在SQuAD1.1数据集上实现最高8.8倍加速且精度损失不足1%。
大型语言模型
Transformers
D
Intel
172
0
Distilbert Dot Margin Mse T2 Msmarco
使用知识蒸馏训练的DistilBERT密集检索模型,适用于段落重排序和直接检索任务
文本嵌入
Transformers
英语
D
sebastian-hofstaetter
99
2
Minilmv2 L6 H384 Distilled From BERT Large
MiniLMv2 是微软推出的轻量级语言表示模型,通过知识蒸馏技术实现高效推理,适用于多种自然语言处理任务。
大型语言模型
Transformers
M
nreimers
14.21k
1
Distilbert Dot Tas B B256 Msmarco
基于DistilBert的双编码器点积评分架构,通过平衡主题感知采样在MSMARCO-Passage数据集上训练,适用于密集检索和候选集重排序
文本嵌入
Transformers
英语
D
sebastian-hofstaetter
3,188
23
Minilmv2 L6 H384 Distilled From RoBERTa Large
MiniLMv2 是微软推出的轻量级语言表示模型,通过知识蒸馏技术实现高效性能。
大型语言模型
Transformers
M
nreimers
73
6
Mminilmv2 L6 H384 Distilled From XLMR Large
MiniLMv2 是微软推出的轻量级语言表示模型,通过知识蒸馏技术实现高效性能。
大型语言模型
Transformers
M
nreimers
197
17