自然语言理解
Searchmap Preview
MIT
专为电商搜索优化的对话式嵌入模型,基于Stella Embed 400M v5微调,擅长理解自然语言查询并匹配相关商品
文本嵌入
Transformers
支持多种语言
S
VPLabs
25
3
Qwen 0.5B DPO 5epoch
MIT
Transformers 是一个由 Hugging Face 提供的开源库,用于自然语言处理(NLP)任务,支持多种预训练模型。
大型语言模型
Transformers
Q
JayHyeon
25
1
Rouwei 0.6
RouWei-0.6是基于Illustrious-xl-early-release-v0进行大规模微调的文本生成图像模型,专注于动漫风格图像生成,具有卓越的提示跟随能力和美学表现。
图像生成
英语
R
Minthy
36
3
Ecot Openvla 7b Oxe
适用于机器人控制任务的预训练Transformer模型,支持运动规划、物体抓取等基础功能
大型语言模型
Transformers
E
Embodied-CoT
2,003
0
Pony Diffusion V6 XL
Pony Diffusion V6 是一款多功能的SDXL微调模型,能够生成各种兽人、野兽形态或人形生物的视觉效果,支持SFW和NSFW内容。
图像生成
P
LyliaEngine
1,226
41
Mamba 1.4b Instruct Hf
该模型信息不足,无法提供具体介绍
大型语言模型
Transformers
M
scottsus
60
1
Sanskritayam Gpt
该模型基于Transformers库构建,具体功能和用途需要进一步信息确认。
大型语言模型
Transformers
S
thtskaran
17
1
Deberta V3 Large Boolq
MIT
该模型是基于microsoft/deberta-v3-large在boolq数据集上微调得到的文本分类模型,用于回答布尔型问题。
文本分类
Transformers
D
nfliu
32.15k
3
Instructblip Flan T5 Xl 8bit Nf4
MIT
InstructBLIP是基于BLIP-2的视觉指令调优模型,使用Flan-T5-xl作为语言模型,能够根据图像和文本指令生成描述。
图像生成文本
Transformers
英语
I
Mediocreatmybest
22
0
Codenlbert Tiny
MIT
基于bert-small的代码与自然语言分类模型,准确率超过99%
文本分类
Transformers
支持多种语言
C
vishnun
68
2
Zero Shot Vanilla Binary Bert
MIT
这是一个基于BERT的零样本文本分类模型,专为零样本分类任务设计,使用经过方面归一化的UTCD数据集进行训练。
文本分类
Transformers
英语
Z
claritylab
26
0
Lamini GPT 774M
基于gpt2-large架构,在258万条指令调优样本上微调而成的774M参数语言模型,适用于自然语言指令响应任务
大型语言模型
Transformers
英语
L
MBZUAI
862
13
Vilanocr
基于transformers库的乌尔都语模型,适用于自然语言处理任务。
大型语言模型
Transformers
其他
V
musadac
24
0
Bert Finetuned On Nq Short
一个在完整Natural Questions(NQ)数据集上训练的开放领域问答模型,能够回答各种事实性问题
大型语言模型
Transformers
B
eibakke
13
1
Legacy1
BERT (Bidirectional Encoder Representations from Transformers) 是一种基于Transformer架构的预训练语言模型,由Google开发。
大型语言模型
Transformers
L
khoon485
19
0
Bert Semantic Similarity
针对SNLI语料库微调的BERT模型,用于预测两个句子的语义相似度得分。
文本嵌入
B
keras-io
22
9
Deberta V3 Xsmall
MIT
DeBERTaV3是微软提出的改进版DeBERTa模型,通过ELECTRA风格的梯度解耦嵌入共享预训练方法提升效率,在自然语言理解任务中表现优异。
大型语言模型
Transformers
英语
D
microsoft
87.40k
43
Deberta V2 Xlarge
MIT
DeBERTa V2 XXLarge是微软推出的增强型自然语言理解模型,通过解耦注意力机制和增强型掩码解码器改进BERT架构,在多项NLP任务上达到SOTA性能。
大型语言模型
Transformers
英语
D
microsoft
116.71k
22
Bert Base Chinese
Gpl-3.0
由中研院词库小组开发的繁体中文BERT模型,支持自然语言处理任务
大型语言模型
中文
B
ckiplab
81.96k
26
Deberta V3 Xsmall Squad2
DeBERTa v3 xsmall是微软推出的改进版自然语言理解模型,通过解耦注意力机制和增强型掩码解码器提升性能,在多项NLU任务上超越RoBERTa。
问答系统
Transformers
英语
D
nbroad
17
0
Dialogpt Small Rick Sanchez
OpenAI开发的大规模生成式语言模型,能够理解和生成自然语言文本
大型语言模型
Transformers
D
matprado
26
1
Deberta V3 Base
MIT
DeBERTaV3是基于DeBERTa改进的预训练语言模型,通过梯度解耦嵌入共享的ELECTRA风格预训练方法提升效率,在自然语言理解任务上表现优异。
大型语言模型
英语
D
microsoft
1.6M
316
Deberta Xlarge
MIT
DeBERTa通过解耦注意力机制和增强型掩码解码器改进了BERT与RoBERTa模型,在多数自然语言理解任务上表现优异。
大型语言模型
Transformers
英语
D
microsoft
312
2
Deberta V3 Large
MIT
DeBERTaV3通过ELECTRA风格预训练与梯度解耦嵌入共享技术改进DeBERTa,在自然语言理解任务上表现优异
大型语言模型
Transformers
英语
D
microsoft
343.39k
213
Deberta Base
MIT
DeBERTa 是一种基于解耦注意力机制的增强型 BERT 解码模型,改进了 BERT 和 RoBERTa 模型,在自然语言理解任务中表现优异。
大型语言模型
Transformers
英语
D
kamalkraj
287
0
Deberta Large
MIT
DeBERTa是一种改进的BERT模型,通过解耦注意力机制和增强型掩码解码器提升性能,在多项自然语言理解任务上超越BERT和RoBERTa。
大型语言模型
Transformers
英语
D
microsoft
15.07k
16
Indobert Lite Large P1
MIT
IndoBERT是针对印尼语的先进语言模型,基于BERT架构,采用掩码语言建模和下一句预测目标进行训练。
大型语言模型
Transformers
其他
I
indobenchmark
42
0
Deberta Large Mnli
MIT
DeBERTa-V2-XXLarge是基于解耦注意力机制和增强型掩码解码器的改进型BERT模型,在多项自然语言理解任务上表现优异。
大型语言模型
Transformers
英语
D
microsoft
1.4M
18
Minilm L12 H384 Uncased
MIT
MiniLM是一种小型高效的预训练语言模型,通过深度自注意力蒸馏技术压缩而成,适用于语言理解与生成任务。
大型语言模型
M
microsoft
10.19k
89
Chinese Macbert Large
Apache-2.0
MacBERT是一种改进的中文BERT模型,采用M作为校正的掩码语言模型预训练任务,缓解了预训练与微调阶段的不一致问题。
大型语言模型
中文
C
hfl
13.05k
42
Indobert Lite Large P2
MIT
IndoBERT是基于BERT模型、专为印尼语打造的先进语言模型,通过掩码语言建模和下一句预测目标进行训练。
大型语言模型
Transformers
其他
I
indobenchmark
117
1
Indobert Base P2
MIT
IndoBERT是基于BERT模型的印尼语最先进的语言模型,通过掩码语言建模和下一句预测目标进行训练。
大型语言模型
其他
I
indobenchmark
25.89k
5
Deberta V2 Xlarge
MIT
DeBERTa是基于解耦注意力机制的增强型BERT解码模型,通过改进的注意力机制和增强型掩码解码器,在多项自然语言理解任务上超越BERT和RoBERTa的表现。
大型语言模型
Transformers
英语
D
kamalkraj
302
0
Indobert Large P1
MIT
IndoBERT 是基于 BERT 模型的印度尼西亚语先进语言模型,通过掩码语言建模和下一句预测目标进行训练。
大型语言模型
其他
I
indobenchmark
1,686
4
Deberta V2 Xlarge Mnli
MIT
DeBERTa V2 XLarge是微软推出的增强型自然语言理解模型,通过解耦注意力机制和增强型掩码解码器改进BERT架构,在多项NLU任务上超越BERT和RoBERTa的表现。
大型语言模型
Transformers
英语
D
microsoft
51.59k
9
Deberta V2 Xxlarge Mnli
MIT
DeBERTa V2 XXLarge是基于解耦注意力机制的增强型BERT变体,在自然语言理解任务上超越RoBERTa和XLNet,参数量达15亿
大型语言模型
Transformers
英语
D
microsoft
4,077
8
Deberta Base
MIT
DeBERTa是基于解耦注意力机制和增强型掩码解码器改进的BERT模型,在多项自然语言理解任务上表现优异。
大型语言模型
英语
D
microsoft
298.78k
78
Albert Base Chinese
Gpl-3.0
由中央研究院词库小组开发的繁体中文Transformer模型,包含ALBERT、BERT、GPT2等架构及自然语言处理工具
大型语言模型
Transformers
中文
A
ckiplab
280
11
Deberta V2 Xxlarge
MIT
DeBERTa V2 XXLarge是基于解耦注意力与增强掩码解码的改进型BERT模型,具有15亿参数,在多项自然语言理解任务上超越BERT和RoBERTa表现
大型语言模型
Transformers
英语
D
microsoft
9,179
33
Indobert Lite Base P1
MIT
IndoBERT是针对印尼语的BERT模型变体,采用掩码语言建模和下一句预测目标训练。
大型语言模型
Transformers
其他
I
indobenchmark
723
0