Roberta Medium Amharic
专为阿姆哈拉语设计的RoBERTa模型,通过从头预训练解决阿姆哈拉语NLP任务性能不足问题
大型语言模型
Transformers 其他

R
rasyosef
132
1
Llama 3.1 8B Instuct Uz
Llama-3.1-8B-Instruct-Uz 是一个针对乌兹别克语优化的指令微调大语言模型,支持多种自然语言处理任务。
大型语言模型
Transformers 支持多种语言

L
behbudiy
130
13
Bangla Llama 13b Instruct V0.1
基于LLaMA-2架构优化的130亿参数孟加拉语大语言模型,支持双语指令跟随任务
大型语言模型
Transformers 支持多种语言

B
BanglaLLM
44
3
Visummary
ViSummary 是一个基于 T5 架构的越南语文本摘要生成模型,能够将长文本压缩为简洁的摘要。
文本生成
Transformers 其他

V
CreatorPhan
18
1
Xlmindic Base Uniscript Soham
Apache-2.0
这是一个基于ALBERT架构的多语言模型,专门针对印度-雅利安语系语言进行优化,支持ISO-15919转写文本处理。
大型语言模型 其他
X
ibraheemmoosa
117
0
T5 Darija Summarization
包含19,806篇摩洛哥阿拉伯语方言新闻文章及其标题的数据集,用于自动文本摘要任务
文本生成
Transformers 支持多种语言

T
Kamel
170
7
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文