无监督学习
Cityscapes Semantic Eomt Large 1024
MIT
该模型揭示了Vision Transformer (ViT) 在图像分割任务中的潜力,通过特定方法将ViT转化为高效的图像分割模型。
图像分割
PyTorch
C
tue-mps
85
0
HVI CIDNet Generalization
MIT
HVI-CIDNet是一种用于低光照图像增强的深度学习模型,基于新的HVI色彩空间设计。
图像增强
H
Fediory
1,107
0
Chronodepth V1
MIT
ChronoDepth是基于视频扩散先验的时序一致视频深度学习方法,能够从视频中学习并预测深度信息。
3D视觉
C
jhshao
28
1
LLAMA 3 8B Unaligned BETA GGUF
基于LLaMA-3架构的8B参数未对齐测试版模型,提供多种量化版本以适应不同硬件需求
大型语言模型
L
bartowski
542
10
Yolo11 Fish Detector Grayscale
基于YOLO11n架构训练的灰度水下鱼类检测模型,采用半无监督学习技术
目标检测
TensorBoard
英语
Y
akridge
38
1
Dust3r ViTLarge BaseDecoder 512 Linear
DUSt3R是一个用于从图像生成3D几何模型的深度学习模型,能够轻松实现几何3D视觉任务。
3D视觉
D
naver
313
0
Dust3r ViTLarge BaseDecoder 224 Linear
DUSt3R是一个用于从图像轻松实现几何3D视觉的模型,能够从单张或多张图像重建3D场景。
3D视觉
D
naver
1,829
0
Depth Anything Vits14
Depth Anything是一种深度估计模型,利用大规模无标记数据提升性能,适用于单目深度估计任务。
3D视觉
Transformers
D
LiheYoung
8,130
6
Dpt Dinov2 Giant Kitti
Apache-2.0
使用DINOv2作为骨干网络的DPT框架,用于深度估计任务。
3D视觉
Transformers
D
facebook
56
0
Dpt Dinov2 Large Kitti
Apache-2.0
该模型采用DINOv2作为骨干网络的DPT框架,专注于深度估计任务。
3D视觉
Transformers
D
facebook
26
2
Dpt Dinov2 Base Nyu
Apache-2.0
采用DINOv2作为骨干网络的DPT模型,用于深度估计任务。
3D视觉
Transformers
D
facebook
146
0
Dpt Dinov2 Small Kitti
Apache-2.0
采用DINOv2作为骨干网络的DPT模型,用于深度估计任务。
3D视觉
Transformers
D
facebook
710
7
Unsup Simcse Ja Base
这是一个基于无监督SimCSE方法的日语句子嵌入模型,专门用于生成高质量的日语句子嵌入表示。
文本嵌入
Transformers
日语
U
cl-nagoya
190
2
Bart Large Paper2slides Summarizer
MIT
基于Bart-Large架构的摘要模型,专门用于将科研论文内容精准摘要为适合幻灯片展示的形式。
文本生成
Transformers
英语
B
com3dian
26
7
Umt5 Xxl
Apache-2.0
UMT5是基于mC4多语种语料库预训练的多语言文本生成模型,支持107种语言,采用UniMax采样策略优化语言平衡
大型语言模型
Transformers
支持多种语言
U
google
4,449
32
Umt5 Xl
Apache-2.0
基于mC4多语种语料库预训练的多语言文本生成模型,支持107种语言
大型语言模型
Transformers
支持多种语言
U
google
1,049
17
Umt5 Small
Apache-2.0
基于mC4多语言语料库预训练的统一多语言T5模型,覆盖107种语言
大型语言模型
Transformers
支持多种语言
U
google
17.35k
23
Zero Shot Classify SSTuning ALBERT
MIT
通过自监督调优(SSTuning)训练的零样本文本分类模型,基于ALBERT-xxlarge-v2架构,可直接用于情感分析、主题分类等任务而无需微调。
文本分类
Transformers
Z
DAMO-NLP-SG
98
4
Zero Shot Implicit Bi Encoder
MIT
基于sentence-transformers的零样本文本分类模型,通过隐式训练实现无需标注数据的文本分类
文本分类
Transformers
英语
Z
claritylab
31
1
Zero Shot
基于DeBERTa-v3架构的葡萄牙语零样本分类模型,适用于无需微调即可执行文本分类任务
大型语言模型
Transformers
其他
Z
Mel-Iza0
71
2
Congen Paraphrase Multilingual Mpnet Base V2
Apache-2.0
这是一个基于ConGen框架的多语言句子嵌入模型,可将句子映射到768维向量空间,适用于语义搜索等任务。
文本嵌入
Transformers
C
kornwtp
329
3
Congen Simcse Model Roberta Base Thai
Apache-2.0
这是一个基于RoBERTa架构的泰语句子相似度模型,能够将句子映射到768维的向量空间,适用于语义搜索等任务。
文本嵌入
Transformers
C
kornwtp
86
1
Fasttext Classification
基于fastText词向量的实验性分类模型,支持零样本分类任务
文本分类
Transformers
日语
F
paulhindemith
49
0
Tat Model
这是一个基于sentence-transformers的句子嵌入模型,能够将句子和段落映射到768维的向量空间,适用于句子相似度计算、语义搜索等任务。
文本嵌入
T
mathislucka
22
0
Congen TinyBERT L4
Apache-2.0
基于ConGen的句子嵌入模型,能将句子映射到312维向量空间,适用于语义搜索等任务。
文本嵌入
Transformers
C
kornwtp
13
1
Bart Large Citesum Title
基于facebook/bart-large在CiteSum数据集上微调的文本摘要模型,专门用于生成科学文献的标题式摘要。
文本生成
Transformers
英语
B
yuningm
25
1
Anomaly
一个基于PyTorch的图像分类模型,用于检测图像中的异常情况。
图像分类
Transformers
A
hafidber
32
2
Wav2vec2 Base En Voxpopuli V2
基于VoxPopuli语料库的24.1k无标注英语数据预训练的Wav2Vec2基础模型,适用于语音识别任务。
语音识别
Transformers
英语
W
facebook
35
1
Sup SimCSE VietNamese Phobert Base
SimeCSE_Vietnamese是基于SimCSE的越南语句嵌入模型,使用PhoBert作为预训练语言模型,适用于无标注和有标注数据。
文本嵌入
Transformers
其他
S
VoVanPhuc
25.51k
22
Gpt2 Chinese Cluecorpussmall
中文GPT2-distil模型,基于CLUECorpusSmall数据集预训练,适用于中文文本生成任务
大型语言模型
中文
G
uer
41.45k
207
Gpt 2 Spanish
Apache-2.0
基于OSCAR西班牙语语料从头训练的GPT-2模型,支持西班牙语文本生成任务
大型语言模型
西班牙语
G
flax-community
2,075
27
Chemical Bert Uncased Tsdae
Apache-2.0
基于TSDAE(Transformer-based Sequential Denoising Auto-Encoder)训练的化学领域BERT模型,专注于句子相似度任务
文本嵌入
Transformers
C
recobo
16
0
Bimeanvae Amzn
Bsd-3-clause
BiMeanVAE 是一个基于变分自编码器(VAE)的模型,主要用于文本摘要生成任务。
文本生成
Transformers
英语
B
megagonlabs
85
0
Flaubert Base Uncased
MIT
FlauBERT是一个基于大规模法语语料库训练的法语BERT模型,由法国国家科学研究中心开发。
大型语言模型
Transformers
法语
F
flaubert
1,838
3
Awesome Fb Model
这是一个基于零样本分类技术的模型,能够在不进行特定训练的情况下对文本进行分类。
文本分类
Transformers
A
ClaudeYang
538
1
SBERT Base Nli V2
SBERT-base-nli-v2 是一个基于变换器的句子嵌入模型,专门用于句子相似度计算和语义搜索任务。
文本嵌入
Transformers
S
Muennighoff
138
0