Sentiment Roberta Large English 3 Classes
该模型是基于RoBERTa架构的英文情感分析模型,可将文本分类为积极、中性和消极三类。
文本分类
Transformers

英语
S
j-hartmann
5,144
23
KAILAS
Apache-2.0
KAILAS是基于RoBERTa架构的Transformer模型,专为NASA科学任务理事会应用进行领域适配,用于标注统一天文词表标签。
序列标注
Safetensors
英语
K
adsabs
51
1
Roberta Webis CPC
MIT
该模型是基于FacebookAI的roberta-base在Webi-CPC-11数据集上微调的版本,主要用于文本分类任务,在评估集上取得了84.32%的准确率。
文本分类
Transformers

R
Amaan39
47
1
Roberta Base Ai Text Detection V1
Apache-2.0
基于RoBERTa-base微调的模型,用于检测AI生成的英文文本。
文本分类
Transformers

英语
R
fakespot-ai
574
1
Youtube Xlm Roberta Base Sentiment Multilingual
基于cardiffnlp/twitter-xlm-roberta-base-sentiment-multilingual微调的YouTube评论情感分析模型,准确率80.17%
文本分类
Y
AmaanP314
91
1
Roguebert Toxicity 85K
MIT
基于roberta-base微调的毒性评论分类模型,用于检测评论中的毒性内容。
文本分类
Transformers

英语
R
HyperX-Sentience
35
2
Xlm Roberta Twitter Spam Classification
MIT
基于xlm-roberta-large微调的推特/X平台垃圾内容分类模型,可识别推文是否为垃圾内容
文本分类
Transformers

英语
X
cja5553
20
1
Deid Roberta I2b2 NER Medical Reports
MIT
该模型是基于obi/deid_roberta_i2b2在未知数据集上微调的版本,主要用于文本处理任务。
序列标注
Transformers

D
theekshana
28
1
Roberta Chinese Med Inquiry Intention Recognition Base
Apache-2.0
该模型是基于RoBERTa微调的文本分类模型,专注于识别用户输入文本属于医疗咨询还是日常闲聊类别。
文本分类
中文
R
StevenZhun
23
1
Roberta Chinese Med Inquiry Intention Recognition Base
Apache-2.0
该模型是基于RoBERTa微调的文本分类模型,用于识别用户输入文本的意图,区分医疗问诊与日常闲聊两类场景。
文本分类
中文
R
HZhun
27
2
Toxic Prompt Roberta
MIT
基于RoBERTa的文本分类模型,用于检测对话系统中的毒性提示和回复
文本分类
Transformers

T
Intel
416
7
Roberta Base Legal Multi Downstream Indian Ner
基于多语言法律文本预训练的RoBERTa模型,在印度法律命名实体识别任务上微调
序列标注
Transformers

R
MHGanainy
66
2
Robbert V2 Dutch Base Finetuned Emotion Valence
MIT
该模型是基于RobBERT-v2荷兰语基础模型在情感效价任务上微调的版本,用于预测荷兰语文本的情感效价(valence)分数。
文本分类
Transformers

R
antalvdb
61
1
Emotion RoBERTa Czech6
MIT
基于RoBERTa架构微调的捷克语情感分类模型,支持六种情感类别识别
文本分类
Transformers

其他
E
visegradmedia-emotion
79
1
Emotion RoBERTa German6 V7
MIT
基于RoBERTa微调的德语情感分类模型,可将文本分类为愤怒、恐惧、厌恶、悲伤、快乐及无上述情绪六种情感类别。
文本分类
Transformers

德语
E
visegradmedia-emotion
355
3
Topic Govt Regulation
基于RoBERTa-large微调的文本分类器,专门用于判断新闻文章是否涉及政府监管议题。
文本分类
Transformers

英语
T
dell-research-harvard
15
2
Roberta Base Biomedical Clinical Es Ner
Apache-2.0
该模型是基于BSC-LT/roberta-base-biomedical-clinical-es在生物医学临床西班牙语文本上进行命名实体识别(NER)任务微调的版本。
序列标注
Transformers

R
manucos
25
1
Fine Tuned Cardiffnlp Twitter Roberta Base Sentiment Finance Dataset
该模型是基于cardiffnlp/twitter-roberta-base-sentiment在推特金融新闻情感数据集上微调的版本,专门用于金融文本情感分析。
文本分类
Transformers

英语
F
arwisyah
64
1
Fictoroberta
基于RoBERTa基础模型微调的文本风格分类器,用于区分非虚构直叙风格和虚构描述性风格。
文本分类
Transformers

F
bekushal
75
1
Bias Identificaiton45
基于RoBERTa微调的偏见识别模型,用于分类文本中的10种偏见类型
文本分类
Transformers

B
PriyaPatel
61
4
Uk Ner Web Trf 13class
MIT
基于Roberta Large乌克兰语模型微调的命名实体识别模型,支持13种实体类型识别
序列标注
其他
U
dchaplinsky
71
4
Nuner V1 Orgs
基于FewNERD-fine-supervised微调的numind/NuNER-v1.0模型,用于识别文本中的组织实体(ORG)
序列标注
Transformers

支持多种语言
N
guishe
6,836
2
Roberta Large Llm Content Detector
其他
基于 RoBERTa Large 微调的生成文本检测模型,用于识别 AI 生成内容
文本分类
Transformers

英语
R
SuperAnnotate
21.51k
7
Roberta Base Stress Classification
MIT
基于roberta-base微调的压力分类模型,用于识别员工评论中的压力相关内容。
文本分类
Transformers

R
dstefa
20
1
Roberta Base Topic Classification Nyt News
MIT
基于roberta-base微调的新闻主题分类模型,在纽约时报新闻数据集上训练,准确率达0.91。
文本分类
Transformers

R
dstefa
14.09k
9
Scamllm
基于RoBERTa微调的恶意提示检测模型,可识别诱导生成钓鱼网站/邮件的恶意提示
文本分类
Transformers

S
phishbot
294
7
Roberta Base Suicide Prediction Phr
MIT
基于RoBERTa-base微调的文本分类模型,用于检测文本中的自杀倾向,准确率达96.5%
文本分类
Transformers

英语
R
vibhorag101
24.88k
11
Historical Newspaper Ner
基于Roberta-large微调的命名实体识别模型,专用于可能包含OCR错误的历史报纸文本。
序列标注
Transformers

英语
H
dell-research-harvard
209
8
Centralbankroberta Sentiment Classifier
MIT
专为中央银行通讯优化的微调大型语言模型,包含经济主体分类器和情感分类器
大型语言模型
Transformers

英语
C
Moritz-Pfeifer
7,351
5
Gujiroberta Jian Fan
该模型是基于/gemini/data-1/sikuroberta_vocabtxt微调得到的版本,具体用途和功能需要进一步信息补充。
大型语言模型
Transformers

G
hsc748NLP
62
5
Roberta Spam
MIT
基于RoBERTa微调的文本分类模型,专门用于识别垃圾邮件/短信,准确率达99.06%
文本分类
Transformers

英语
R
mshenoda
38.82k
30
FOMC RoBERTa
用于FOMC鹰派-鸽派-中性分类任务的微调RoBERTa模型
文本分类
Transformers

英语
F
gtfintechlab
654
9
Roberta Gen News
MIT
基于roberta-base微调的新闻文本填空预测模型,训练数据包含约1300万篇英语新闻文章
大型语言模型
Transformers

英语
R
AndyReas
17
1
Sciroshot
Apache-2.0
基于RoBERTa-large的零样本文本分类模型,专为科学领域优化,在跨领域任务中表现优异
文本分类
Transformers

支持多种语言
S
BSC-LT
83
10
Chatgpt Detector Roberta
基于RoBERTa-base的ChatGPT生成文本检测模型,用于区分人类撰写文本与ChatGPT生成文本
文本分类
Transformers

英语
C
Hello-SimpleAI
8,178
53
Deproberta Large Depression
基于RoBERTa-large微调的抑郁症检测模型,用于分析英文社交媒体帖子的抑郁程度,分为无抑郁、中度或重度三类。
文本分类
Transformers

英语
D
rafalposwiata
987
7
Roberta Qa Japanese
MIT
基于rinna/japanese-roberta-base微调的日语抽取式问答模型,在JaQuAD数据集上训练
问答系统
Transformers

日语
R
tsmatz
104
9
Deproberta Large V1
基于RoBERTa-large架构,通过Reddit上的抑郁主题帖子进行预训练的语言模型,专为抑郁症检测设计。
大型语言模型
Transformers

英语
D
rafalposwiata
17
1
Roberta Base Squad
MIT
基于roberta-base模型微调的问答模型,在SQuAD格式数据集上训练
问答系统
Transformers

R
DLL888
14
0
Instafoodroberta NER
MIT
专为社交媒体非正式文本设计的食品实体命名识别模型,基于RoBERTa架构微调
序列标注
Transformers

英语
I
Dizex
252
12
- 1
- 2
- 3
- 4
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文