混合数据集训练
Kohaku XL Zeta
其他
基于琥珀XL Epsilon rev2版本继续训练的稳定扩散模型,支持文生图任务,具有更好的风格和角色还原度,支持更多风格。
图像生成
英语
K
KBlueLeaf
8,356
66
FRED T5 Summarizer
MIT
由SberDevices开发的俄语文本摘要生成模型,基于T5架构,参数规模1.7B
文本生成
Transformers
其他
F
RussianNLP
11.76k
21
Roberta Large Financial News Sentiment En
MIT
该模型是针对金融新闻(尤其是加拿大新闻)进行情绪分类的微调模型,在混合数据集上训练完成,特别适用于加拿大金融新闻分析。
文本分类
Transformers
英语
R
Jean-Baptiste
969
9
Aeona
MIT
Aeona是一款基于DialoGPT-small开发的生成式AI聊天机器人,专注于自然对话交互,支持上下文记忆和个性化回复
对话系统
Transformers
A
deepparag
57
21
Blenderbot 3B
Apache-2.0
这是一个基于大规模神经网络的开放领域对话模型,能够融合多种对话技能进行自然交流。
对话系统
Transformers
英语
B
facebook
11.92k
150
Wav2vec2 Large Xlsr Upper Sorbian Mixed
Apache-2.0
这是一个基于facebook/wav2vec2-large-xlsr-53微调的上索布语语音识别模型,训练数据来自通用语音数据集和在线索布语课程。
语音识别
其他
W
jimregan
25
0
German Qg T5 Drink600
MIT
针对德语问题生成任务微调的T5模型,特别优化了饮品相关问题生成能力
问答系统
Transformers
德语
G
dehio
16
1
Roberta Fa Zwnj Base Ner
该模型是针对波斯语命名实体识别(NER)任务进行微调的RoBERTa模型,支持识别10种实体类型。
序列标注
其他
R
HooshvareLab
102
1