下游任务适配
Qwen 0.6B Gptq
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未提供详细信息。
大型语言模型
Transformers
Q
Wfiles
29
1
Qwen2.5 7b SFT Three Subtasks 3epoch
这是一个基于🤗 transformers库的模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers
Q
mjfmark
97
1
Test Transformers Model Hogehoge
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers
T
fztkm
14
0
Imagecaptioning4
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers
I
eduardo-bolognini
82
1
Ner Model
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途待补充。
大型语言模型
Transformers
N
sunny199
22
1
C RADIOv2 G
其他
C-RADIOv2是NVIDIA开发的视觉特征提取模型,提供多种规格版本,适用于图像理解和密集处理任务。
图像嵌入
Transformers
C
nvidia
648
11
C RADIOv2 B
其他
C-RADIOv2是NVIDIA开发的视觉特征提取模型,提供多种尺寸版本,适用于图像理解和密集视觉任务。
图像特征提取
Transformers
C
nvidia
404
8
Dac 44khz
这是一个基于🤗 transformers的特征提取模型,具体功能和用途需要进一步信息补充。
大型语言模型
Transformers
D
descript
192.61k
6
Accent Classifier
这是一个托管在Hugging Face Hub上的🤗 transformers模型卡片,由系统自动生成。
大型语言模型
Transformers
A
ylacombe
131
4
Llama2 Time Series Forecasting 7.0
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers
L
Ankur87
80
1
Ru Rope T5 Small Instruct
Apache-2.0
基于俄语语料库混合英语数据训练的旋转位置编码T5小模型,经过指令微调
大型语言模型
Transformers
支持多种语言
R
melmoth
29
21
C RADIO
其他
NVIDIA开发的视觉特征提取模型,用于生成图像嵌入,支持下游任务如图像分类。
视觉特征提取
Transformers
C
nvidia
398
14
Dart V2 Vectors
Apache-2.0
这是一个托管在Hugging Face Hub上的🤗 transformers模型卡片。
大型语言模型
Transformers
D
p1atdev
71
1
Vits Tts Thai
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers
V
chuubjak
64
2
RADIO
由NVIDIA研发的视觉特征提取模型,可将图像转换为嵌入向量供下游任务使用
图像特征提取
Transformers
R
nvidia
5,166
36
Llama2 Alpaca Sft 2epoch
Apache-2.0
这是一个基于Apache-2.0许可证的文本生成模型,具体功能和用途待补充。
大型语言模型
Transformers
英语
L
zhangchuheng123
93
1
Dinov2 Small
Apache-2.0
基于DINOv2方法训练的小尺寸视觉Transformer模型,通过自监督学习提取图像特征
图像分类
Transformers
D
facebook
5.0M
31
Dinov2 Large
Apache-2.0
基于DINOv2方法训练的视觉Transformer模型,通过自监督学习从海量图像数据中提取鲁棒视觉特征
图像分类
Transformers
D
facebook
558.78k
79
Dinov2 Base
Apache-2.0
基于DINOv2方法训练的视觉Transformer模型,通过自监督学习提取图像特征
图像分类
Transformers
D
facebook
1.9M
126
Citebert
基于SciBERT预训练语言模型,在CiteWorth数据集上微调,用于科学文献引用价值检测任务
大型语言模型
Transformers
C
copenlu
13
3
Distilroberta Base V2
Apache-2.0
DistilRoBERTa是RoBERTa模型的轻量级蒸馏版本,保留了大部分性能但参数更少,适用于高效文本处理任务。
大型语言模型
英语
D
typeform
22
0
Roberta Tiny Cased
RoBERTa Tiny Cased 是一个轻量级的 RoBERTa 模型变体,适用于资源受限的环境。
大型语言模型
R
haisongzhang
1,696
3
Distilroberta Base
Apache-2.0
DistilRoBERTa是RoBERTa模型的轻量级蒸馏版本,保留了大部分性能但体积更小、速度更快。
大型语言模型
Transformers
英语
D
typeform
37
0
Distilbert Feature Extraction
DistilBERT 是 BERT 的轻量级蒸馏版本,保留了 BERT 97% 的性能,但体积缩小了 40%。
大型语言模型
Transformers
D
julien-c
2,223
2