Deberta V3 Large Self Disclosure Detection
用于检测句子中自我披露(个人信息)的模型,支持17类个人信息识别
序列标注
Transformers

英语
D
douy
32
6
Deberta V3 Base Prompt Injection V2
Apache-2.0
基于DeBERTa-v3-base微调的提示词注入检测模型,用于识别可能操纵语言模型的恶意提示词
文本分类
Transformers

英语
D
protectai
229.97k
50
Bert Base Uncased Finetuned Advanced Srl Arg
Apache-2.0
该模型是基于bert-base-uncased针对英语通用命题库数据集进行语义角色标注(SRL)任务微调的版本,采用了特殊标记增强方法。
序列标注
Transformers

B
dannashao
127
1
Deberta V3 Base Prompt Injection
Apache-2.0
基于DeBERTa-v3微调的提示注入检测模型,用于识别恶意提示输入
文本分类
Transformers

英语
D
protectai
35.13k
78
Ner Roberta Base Ontonotesv5 Englishv4
基于RoBERTa-base架构微调的英文命名实体识别模型,支持18种实体类型识别
序列标注
Transformers

N
djagatiya
47
2
Distilbert Base Uncased Ner Mit Restaurant
Apache-2.0
该模型是基于DistilBERT在MIT Restaurant数据集上微调的命名实体识别(NER)模型,专门用于餐厅领域的实体识别任务。
序列标注
Transformers

英语
D
andi611
15
1
Ner English Ontonotes Large
Flair自带的英语18类命名实体识别大模型,基于Ontonotes数据集训练,采用XLM-R嵌入和FLERT技术。
序列标注
英语
N
flair
176.21k
96
Distilbert Base Uncased Finetuned Cola
Apache-2.0
该模型是基于DistilBERT基础模型在COLA数据集上微调的版本,主要用于语法可接受性判断任务。
大型语言模型
Transformers

D
andreiliphdpr
17
0
Distilbert Base Uncased Finetuned Cola
Apache-2.0
该模型是基于distilbert-base-uncased在未知数据集上微调的版本,主要用于文本分类任务。
大型语言模型
Transformers

D
ms29315
15
0
Roberta Base Formality Ranker
该模型基于RoBERTa架构,专门用于预测英语句子的正式或非正式程度。
文本分类
Transformers

英语
R
s-nlp
1,349
19
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文