Spam Deberta V4
MIT
基于Deberta架构的俄语垃圾邮件检测模型,能够将文本分类为垃圾邮件或非垃圾邮件。
文本分类
Transformers

其他
S
RUSpam
8,274
7
Rubert Tiny2 Ru Go Emotions
MIT
基于RuBERT-tiny2微调的俄语多标签情感分类模型,支持28种情感类别识别
文本分类
Transformers

其他
R
r1char9
56
3
Ru Sum
Apache-2.0
基于google/mt5-base微调的俄语文本摘要生成模型,训练数据约5万条样本,专注于生成高质量俄语摘要。
文本生成
Transformers

其他
R
sarahai
130
2
Vikhr 7b 0.1
Apache-2.0
Vikhr是基于Mistral架构的俄语模型,经过4亿标记的三轮预训练,在俄语任务上表现优于原版Mistral,但在代码处理方面可能存在不足。
大型语言模型
Transformers

支持多种语言
V
Vikhrmodels
259
57
Rut5 GEC
Apache-2.0
该模型是一个支持俄语的开源模型,采用Apache-2.0许可证发布。
大型语言模型
Transformers

其他
R
Askinkaty
84
1
FRED T5 Large
Apache-2.0
基于T5架构的俄语预训练语言模型,采用类似UL2的7种降噪器混合训练策略,支持多种文本生成任务。
大型语言模型
Transformers

其他
F
ai-forever
998
25
Roberta Base
Apache-2.0
针对俄语预训练的双向编码器模型,基于大规模文本语料训练,支持特征提取任务。
大型语言模型
Transformers

支持多种语言
R
deepvk
44
3
Rubert Large
由SberDevices团队预训练的俄语大型语言模型,基于Transformer架构,参数量4.27亿,训练数据量30GB
大型语言模型
Transformers

其他
R
ai-forever
6,125
14
Rubert Conversational Cased Sentiment
这是一个用于俄语文本情感分类的模型,基于ruBERT对话嵌入器构建,能够识别中性、积极和消极三种情感。
文本分类
Transformers

其他
R
MonoHime
55
0
Ru Core News Md
MIT
针对CPU优化的俄语处理流程,包含标记分类、依存分析、命名实体识别等NLP任务
序列标注
其他
R
spacy
25
3
Stanza Ru
Apache-2.0
Stanza是一套精准高效的多国语言分析工具集,提供俄语的文本分析功能。
序列标注
其他
S
stanfordnlp
6,089
4
Ru Core News Sm
MIT
spaCy提供的针对CPU优化的俄语处理流程,包含分词、词性标注、依存分析、命名实体识别等功能
序列标注
其他
R
spacy
1,310
4
Rubert Base Cased Sentiment New
基于BERT架构的俄语文本情感分类模型
文本分类
Transformers

其他
R
MonoHime
1,749
19
Ru Core News Lg
MIT
spaCy提供的俄语大模型,针对CPU优化,包含完整的NLP处理流程
序列标注
其他
R
spacy
74
8
Rugpt3medium Sum Gazeta
Apache-2.0
基于rugpt3medium_based_on_gpt2的俄语抽象摘要生成模型,专门针对Gazeta数据集进行训练
文本生成
Transformers

其他
R
IlyaGusev
1,228
4
Rubert Base Cased
RuBERT是基于俄语维基百科和新闻数据训练的俄语BERT模型,具有1.8亿参数,支持掩码语言建模和下一句预测任务。
大型语言模型
其他
R
DeepPavlov
275.78k
106
Distilbert Base Ru Cased
Apache-2.0
这是多语言蒸馏式BERT基础模型(大小写敏感)的精简版本,专门针对俄语优化,能生成与原模型完全一致的语义表示,保持原始准确率。
大型语言模型
Transformers

其他
D
Geotrend
498
2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文