Authormist Originality
MIT
专为将AI生成文本转化为更接近人类写作风格而设计的语言模型,优化用于规避AI文本检测系统
大型语言模型
Transformers

英语
A
authormist
64
2
Quickmt Zh En
一个速度快且准确度高的神经机器翻译模型,用于中文到英文的翻译
机器翻译
支持多种语言
Q
quickmt
23
1
Polite Guard
Apache-2.0
礼貌卫士是由英特尔开发的开源NLP语言模型,基于BERT微调用于文本分类任务,旨在将文本分为礼貌、较为礼貌、中立和不礼貌四类。
文本分类
Transformers

英语
P
Intel
367
10
Provence Reranker Debertav3 V1
Provence是一款轻量级的上下文剪枝模型,专为检索增强生成优化,尤其适用于问答场景。
大型语言模型
英语
P
naver
1,506
13
Moirai Moe 1.0 R Base
这是一个预训练的时间序列预测模型,专注于时序数据分析与预测任务。
气候模型
Safetensors
M
Salesforce
374.41k
9
Whisper Base Hungarian V1
基于OpenAI Whisper-base模型微调的匈牙利语语音识别模型,在1200小时匈牙利语数据上训练,表现优于同类模型
语音识别
Transformers

其他
W
sarpba
26
7
Gemma 7b Aps It
Gemma-APS是用于抽象命题分割(APS)的生成模型,能够将文本段落分解为独立的事实、陈述和观点。
大型语言模型
Transformers

G
google
161
33
Autogluon Chronos T5 Large
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过量化和缩放将时间序列转化为标记序列进行训练。
气候模型
A
anchovy
25
0
Test Patchtsmixer
Apache-2.0
PatchTSMixer 是 IBM Granite 项目下的一个时间序列预测基础模型,采用创新的 Patch 混合架构,适用于多种时间序列预测任务。
气候模型
T
ibm-research
5,300
0
Test Patchtst
Apache-2.0
PatchTST是一个预训练的时间序列基础模型,专注于时间序列预测任务。
气候模型
T
ibm-research
5,593
0
Text Rewriter Paraphraser
Openrail
基于T5-Base微调的文本复述生成模型,能够高效改写文本内容,保持原意的同时改变句式结构。
文本生成
Transformers

T
Ateeqq
1,613
21
Minicheck Flan T5 Large
MIT
MiniCheck-Flan-T5-Large是一个基于Flan-T5-Large架构的事实核查模型,用于预测文档是否支持给定声明。
文本分类
Transformers

英语
M
lytang
1,410
12
Tweety 7b Dutch V24a
Apache-2.0
Tweety-7b-dutch是一个专注于荷兰语的基础大语言模型,基于mistral架构,使用荷兰语分词器优化荷兰语文本处理能力。
大型语言模型
Transformers

其他
T
Tweeties
1,568
13
Clf Sentimentos Cmts
MIT
针对巴西葡萄牙语社交媒体文本的情感分类模型,支持表情符号处理
文本分类
Transformers

C
tbluhm
113
1
Universal Ner Ita
Apache-2.0
专为意大利语设计的通用命名实体识别模型,采用零样本学习方法,无需针对特定实体进行训练即可识别广泛实体类型。
序列标注
Safetensors
其他
U
DeepMount00
214
30
Translate Ar En V1.0 Hplt Opus
基于OPUS和HPLT数据训练的阿拉伯语-英语机器翻译模型,提供Marian和Hugging Face两种格式。
机器翻译
Transformers

支持多种语言
T
HPLT
20
2
Long T5 Tglobal Base Synthsumm Direct
Apache-2.0
基于Long-T5架构的文本摘要模型,使用合成数据集synthsumm微调,专注于长文本摘要任务。
文本生成
Transformers

英语
L
pszemraj
15
1
Kobart Korean Summarizer V2
基于gogamza/kobart-base-v2训练的韩语文本摘要模型,使用AI Hub中的68万条摘要数据训练
文本生成
Transformers

K
gangyeolkim
164
0
Tapex Large Finetuned Qtsumm
MIT
基于BART架构的表格摘要生成模型,针对查询聚焦的表格摘要任务进行了优化。
文本生成
Transformers

英语
T
yale-nlp
18
0
Hubert Base Audioset
基于HuBERT架构的音频表征模型,在完整AudioSet数据集上预训练,适用于通用音频任务
音频分类
Transformers

H
ALM
345
2
Wav2vec2 Large Audioset
基于HuBERT架构的音频表征模型,在完整AudioSet数据集上预训练,适用于通用音频任务
音频分类
Transformers

W
ALM
43
0
Llama 2 7b Absa
Apache-2.0
基于Llama-2-7b微调的ABSA模型,擅长识别文本中的方面并分析情感
大型语言模型
Transformers

支持多种语言
L
Orkhan
124
12
Dfm Sentence Encoder Large
MIT
这是基于SimCSE方法训练的丹麦语文本嵌入模型,作为斯堪的纳维亚嵌入基准测试的一部分开发
文本嵌入
Transformers

其他
D
KennethEnevoldsen
66
2
Arman Longformer 8k Finetuned Ensani
一个针对波斯语长文本进行摘要的模型,支持8K令牌长度的输入。
文本生成
Transformers

其他
A
zedfum
16
2
Polite Bert
Apache-2.0
Polite Bert是一个基于BERT微调的模型,用于对英文句子的礼貌程度进行分级,包括不礼貌、中性、较礼貌和礼貌四个等级。
文本分类
Transformers

英语
P
NOVA-vision-language
100
3
Japanese Gpt Neox 3.6b
MIT
一个拥有36亿参数的日语GPT-NeoX模型,基于Transformer架构,在3125亿token的日语语料上训练。
大型语言模型
Transformers

支持多种语言
J
rinna
34.74k
99
Zero Shot Vanilla Bi Encoder
MIT
基于BERT的双编码器模型,专为零样本文本分类任务设计,在UTCD数据集上训练
文本分类
Transformers

英语
Z
claritylab
27
0
T5 Efficient Gc4 All German Small El32
MIT
基于德语大规模清洗版Common Crawl语料库(GC4)训练的T5模型,专注于德语自然语言处理任务。
大型语言模型
Transformers

德语
T
GermanT5
52
4
Omnitab Large
OmniTab是基于BART架构的表格问答模型,通过自然与合成数据预训练实现少样本表格问答能力
问答系统
Transformers

英语
O
neulab
158
2
T5 Large Ua News
MIT
基于mt5-large架构微调的乌克兰语新闻摘要生成模型,使用UberText语料库训练
文本生成
Transformers

其他
T
SGaleshchuk
51
3
Opus Mt Nl Sv
Apache-2.0
基于Transformer架构的荷兰语到瑞典语神经机器翻译模型,由Helsinki-NLP团队开发。
机器翻译
Transformers

其他
O
Helsinki-NLP
33
0
Bloom 350m German
MIT
基于德语数据从头训练的BLOOM-350m语言模型,是BLOOM系列的小规模版本,专注于德语文本生成任务。
大型语言模型
Transformers

德语
B
malteos
26
0
Opus Mt Tc Big De Es
这是一个由赫尔辛基大学语言技术研究小组开发的德语到西班牙语的神经机器翻译模型,属于OPUS-MT项目的一部分。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
33
1
Hgn Trans En2zh
Apache-2.0
这是一个基于Helsinki-NLP/opus-mt-en-zh预训练模型微调的英中翻译模型,使用清华大学开放中文词库(THUOCL)数据集进行微调。
机器翻译
Transformers

支持多种语言
H
BubbleSheep
1,069
3
Exp W2v2t Ja Vp It S544
Apache-2.0
基于facebook/wav2vec2-large-it-voxpopuli模型,使用Common Voice 7.0 (日语版)的训练集进行语音识别微调的日语自动语音识别模型。
语音识别
Transformers

日语
E
jonatasgrosman
18
0
Tibetan Roberta Causal Base
MIT
这是一个基于RoBERTa架构的藏文预训练因果语言模型,主要用于藏文文本生成任务。
大型语言模型
Transformers

其他
T
sangjeedondrub
156
5
Opus Mt Tc Big Tr En
这是一个基于Transformer架构的大型神经机器翻译模型,专门用于从土耳其语翻译到英语。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
98.62k
29
Opus Mt Tc Big It En
这是一个用于意大利语到英语翻译的神经机器翻译模型,属于OPUS-MT项目的一部分,采用transformer-big架构。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
175
2
Opus Mt Tc Big En Tr
这是一个基于Transformer架构的神经机器翻译模型,专门用于英语到土耳其语的翻译任务。
机器翻译
Transformers

支持多种语言
O
Helsinki-NLP
108.32k
38
Distilbert Word2vec 256k MLM 250k
该模型结合了word2vec词嵌入和DistilBERT架构,适用于自然语言处理任务。
大型语言模型
Transformers

D
vocab-transformers
21
0
- 1
- 2
- 3
- 4
- 5
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文