Bert Bilstm Crf Ner Weibo
基于BERT-BiLSTM-CRF架构的中文命名实体识别模型,在微博数据集上微调,适用于社交媒体文本的实体识别任务
序列标注
Transformers

B
PassbyGrocer
69
3
Swiss German Xlm Roberta Base
该模型是基于xlm-roberta-base通过持续预训练在瑞士德语文本数据上微调而成的多语言模型,支持瑞士德语和标准德语处理。
大型语言模型
Transformers

其他
S
ZurichNLP
17
2
Bertweetbr
Apache-2.0
BERTweet.BR是一个专门针对葡萄牙语推文预训练的语言模型,基于RoBERTa架构,在1亿条葡萄牙语推文上训练而成。
大型语言模型
Transformers

其他
B
melll-uff
339
10
Hing Bert
HingBERT 是一个基于罗马文字训练的印地语-英语代码混合BERT模型,适用于处理印地语和英语混合的文本。
大型语言模型
Transformers

支持多种语言
H
l3cube-pune
155
2
Bert Base Uncased Goemotions Original Finetuned
MIT
一个基于BERT预训练模型的情感分类模型,专门用于识别文本中的情感类别,支持多种情感标签分类。
文本分类
Transformers

英语
B
justin871030
78
0
Bert Base Qarib60 1790k
QARiB是基于约4.2亿条推文和1.8亿条文本句子训练的阿拉伯语及方言BERT模型,支持多种下游NLP任务。
大型语言模型
阿拉伯语
B
ahmedabdelali
16
2
Dziribert
Apache-2.0
首个专为阿尔及利亚方言预训练的基于Transformer的语言模型,支持阿拉伯字母和拉丁字母混合输入。
大型语言模型
Transformers

支持多种语言
D
alger-ia
7,759
16
Bert Base Qarib
QARiB是基于阿拉伯语及方言的大规模预训练BERT模型,训练数据包含4.2亿条推文和1.8亿条文本句子。
大型语言模型
阿拉伯语
B
ahmedabdelali
602
9
Bert Base Qarib60 1970k
QARiB是基于阿拉伯语及方言的BERT模型,训练数据包含约4.2亿条推文和1.8亿条文本句子,支持多种阿拉伯语NLP任务。
大型语言模型
阿拉伯语
B
ahmedabdelali
41
1
En Large
Apache-2.0
MUDES是一个用于检测社交媒体文本中有害内容片段的先进模型,支持多语言环境。
文本分类
英语
E
mudes
19
0
Distilbert Cased Antisemitic Tweets
MIT
该模型用于检测包含'jew'(犹太人)一词的推文,并判断其是否具有反犹主义倾向。
文本分类
Transformers

D
astarostap
22
0
Bert Base Qarib60 860k
QARiB是基于阿拉伯语及方言的BERT模型,训练数据包含4.2亿条推文和1.8亿条文本句子,适用于多种NLP任务。
大型语言模型
阿拉伯语
B
ahmedabdelali
32
0
Alephbert Base
Apache-2.0
当前最先进的希伯来语语言模型,基于BERT架构
大型语言模型
其他
A
onlplab
25.26k
18
Emotion English Distilroberta Base
基于DistilRoBERTa-base微调的英文文本情感分类模型,可预测埃克曼六种基本情绪及中性类别。
文本分类
Transformers

英语
E
j-hartmann
1.1M
402
Bert Base Arabic Camelbert Msa Did Madar Twitter5
Apache-2.0
基于CAMeLBERT-MSA微调的阿拉伯语方言识别模型,支持21种方言分类
文本分类
Transformers

阿拉伯语
B
CAMeL-Lab
90
3
Roberta Base Finetuned Ner Agglo Twitter
MIT
基于RoBERTa-base架构微调的命名实体识别模型,专门针对Twitter文本优化
序列标注
Transformers

R
ArBert
15
0
Darijabert Arabizi
首个专为摩洛哥阿拉伯方言'Darija'打造的BERT模型,支持拉丁字母书写的Darija方言文本处理
大型语言模型
Transformers

支持多种语言
D
SI2M-Lab
300
6
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文