Xlm Roberta Twitter Spam Classification
MIT
基于xlm-roberta-large微调的推特/X平台垃圾内容分类模型,可识别推文是否为垃圾内容
文本分类
Transformers

英语
X
cja5553
20
1
Bert Toxic Comment Classification
基于bert-base-uncased微调的恶意评论分类模型,用于识别文本中的毒性内容。
文本分类
Transformers

英语
B
JungleLee
25.86k
21
Roberta Hate Speech Dynabench R4 Target
该模型通过动态生成数据集来改进在线仇恨检测,专注于从最差案例中学习以提高检测效果。
文本分类
Transformers

英语
R
facebook
2.0M
80
Toxdect Roberta Large
基于推文数据训练的毒性语言检测模型,采用Roberta-large架构,用于识别文本中的有毒内容。
文本分类
Transformers

T
Xuhui
595.99k
4
Toxic Comment Model
基于DistilBERT微调的毒性评论分类模型,用于识别在线评论中的有害内容
文本分类
Transformers

英语
T
martin-ha
238.97k
61
Hate Trained 1234567
Apache-2.0
基于distilbert-base-uncased微调的仇恨言论检测模型,在tweet_eval数据集上训练
文本分类
Transformers

H
marcolatella
15
0
Distilbert Base German Cased Toxic Comments
基于德语DistilBERT的文本分类模型,用于检测德语评论中的恶意内容
文本分类
Transformers

德语
D
ml6team
356
12
Distilbert Base Uncased Hate Speech Offensive Train 16 2
Apache-2.0
基于DistilBERT的轻量级模型,用于检测文本中的仇恨言论和冒犯性内容
文本分类
Transformers

D
SetFit
18
0
Distilbert Base Uncased Hate Speech Offensive Train 8 3
Apache-2.0
该模型是基于distilbert-base-uncased微调的版本,用于处理仇恨言论和冒犯性内容的分类任务。
文本分类
Transformers

D
SetFit
17
0
Distilbert Base Uncased Hate Speech Offensive Train 8 9
Apache-2.0
基于distilbert-base-uncased微调的仇恨言论检测模型
文本分类
Transformers

D
SetFit
17
0
Distilbert Base Uncased Hate Speech Offensive Train 16 4
Apache-2.0
基于DistilBERT的轻量级模型,用于检测文本中的仇恨言论和冒犯性内容
文本分类
Transformers

D
SetFit
17
0
Rubertconv Toxic Clf
Apache-2.0
基于rubert-base-cased-conversational模型的俄语毒性文本分类器
文本分类
Transformers

其他
R
IlyaGusev
1,381
13
Distilbert Base Uncased Hate Speech Offensive Train 16 0
Apache-2.0
基于DistilBERT的轻量级模型,用于检测文本中的仇恨言论和冒犯性内容
文本分类
Transformers

D
SetFit
26
0
Distilbert Base Uncased Hate Speech Offensive Train 8 4
Apache-2.0
基于DistilBERT-base-uncased微调的仇恨言论/冒犯性语言检测模型
文本分类
Transformers

D
SetFit
15
0
Distilbert Base Uncased Hate Speech Offensive Train 16 8
Apache-2.0
基于DistilBERT的轻量级模型,针对仇恨言论和攻击性语言检测任务进行了微调
文本分类
Transformers

D
SetFit
15
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文