Wangchan Sentiment Thai Text Model
基于WangchanBERTa模型微调的泰文情感分析模型,用于分析泰文文本的情感倾向。
文本分类
Transformers

其他
W
phoner45
199
1
Enhancermodel
Apache-2.0
Hugging Face Transformers 是一个提供预训练深度学习模型的库,支持自然语言处理、计算机视觉等多领域任务。
大型语言模型
Transformers

E
ayjays132
52
2
Few Shot Learning Classification Bert Sm 500
基于AutoTrain训练的文本分类模型,适用于小样本学习场景,能够高效地对新闻文章进行分类。
文本分类
Transformers

F
pravin691983
25
1
Sage V1.1.0
MIT
基于FRED-T5-1.7B训练的俄语拼写检查模型,可纠正拼写、标点和大小写错误
文本生成
Transformers

其他
S
ai-forever
668
6
GNER T5 Large V2
Apache-2.0
GNER-T5-large是基于Flan-T5-large架构的生成式命名实体识别模型,专注于提升在未见实体领域的零样本识别能力。
序列标注
Transformers

英语
G
dyyyyyyyy
28
1
Sage Mt5 Large
MIT
基于mT5-large架构的俄语和英语拼写检查模型,通过规范化单词纠正拼写错误和打字错误。
大型语言模型
Transformers

支持多种语言
S
ai-forever
51
7
GNER T5 Xl
Apache-2.0
GNER-T5-xl是基于Flan-T5-xl的生成式命名实体识别模型,通过负实例训练显著提升零样本识别能力
序列标注
Transformers

英语
G
dyyyyyyyy
38
1
Carballo Bloom 1.3B
MIT
Carballo-bloom-1.3B是一个拥有13亿参数的基于Transformer的加利西亚语因果语言模型,基于FLOR-1.3B进行持续预训练。
大型语言模型
Transformers

其他
C
proxectonos
247
6
Robbert 2023 Dutch Large
MIT
RobBERT-2023是基于RoBERTa架构的荷兰语语言模型,由鲁汶大学、根特大学和柏林工业大学开发,是荷兰语最先进的语言模型之一。
大型语言模型
Transformers

其他
R
DTAI-KULeuven
627
20
Stt Ru Fastconformer Hybrid Large Pc
这是一个用于俄语自动语音识别的FastConformer混合模型,结合了Transducer和CTC解码器,参数规模约1.15亿。
语音识别
其他
S
nvidia
6,513
10
Jasmine 350M
JASMINE是一个面向小样本学习的阿拉伯语GPT模型系列,参数量从3亿至67亿不等,预训练数据规模达235GB文本。
大型语言模型
Transformers

J
UBC-NLP
81
5
Distilbert Word2vec 256k MLM 500k
该模型结合了word2vec词嵌入和DistilBERT架构,通过大规模数据训练,适用于多种自然语言处理任务。
大型语言模型
Transformers

D
vocab-transformers
15
0
Deberta V3 Base Absa V1.1
MIT
基于DeBERTa-v3-base的基于方面的情感分析模型,专为识别文本中特定方面的情感极性而设计。
文本分类
Transformers

英语
D
yangheng
26.80k
46
Rubert Base Cased Sentiment
基于RuBERT架构的俄语短文本情感分类模型,支持中性、积极和消极三种情感分类
文本分类
其他
R
blanchefort
51.45k
16
Wangchanberta Finetuned Sentiment
Apache-2.0
一个专注于泰语文本情感分析的模型,支持积极、中性和消极情感分类。
文本分类
Transformers

其他
W
poom-sci
615
12
BERT Review
基于评论语料库进行后训练的BERT模型,专注于理解情感、选项及各类电商相关维度
大型语言模型
B
activebus
484
1
Kobart Base V2
MIT
KoBART是基于BART架构的韩语编码器-解码器语言模型,通过文本填充噪声函数训练,支持韩语文本特征提取和生成任务。
大型语言模型
Transformers

韩语
K
gogamza
5,937
34
Bert Fa Base Uncased Ner Arman
Apache-2.0
基于Transformer的波斯语理解模型,重构词汇表并在新语料库上微调,拓展了多领域应用功能
序列标注
其他
B
HooshvareLab
110
0
Bert Fa Base Uncased Sentiment Digikala
Apache-2.0
基于Transformer的波斯语理解模型,重构词汇表并在新波斯语语料库上微调,增强多领域应用能力
文本分类
其他
B
HooshvareLab
932
5
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文