多语言混合训练
Stockmark 2 100B Instruct Beta
MIT
Stockmark-2-100B是一个专注于日语能力的1000亿参数大语言模型,基于1.5万亿token的多语言数据预训练,并通过日语合成数据增强指令跟随能力。
大型语言模型
Transformers
支持多种语言
S
stockmark
1,004
9
Llama 3 Youko 8b
基于Meta-Llama-3-8B在混合日语和英语数据集上进行220亿token持续预训练的日语优化模型
大型语言模型
Transformers
支持多种语言
L
rinna
1,249
60
Bangla Llama 7b Instruct V0.1
基于LLaMA-2架构优化的70亿参数孟加拉语大语言模型,支持指令跟随任务
大型语言模型
Transformers
支持多种语言
B
BanglaLLM
32
5
Discolm German 7b V1 AWQ
Apache-2.0
DiscoLM German 7B v1 是一个基于Mistral架构的7B参数德语语言模型,支持德语和英语,采用Apache-2.0许可证发布。
大型语言模型
Transformers
支持多种语言
D
TheBloke
81
4
Swiss German Xlm Roberta Base
该模型是基于xlm-roberta-base通过持续预训练在瑞士德语文本数据上微调而成的多语言模型,支持瑞士德语和标准德语处理。
大型语言模型
Transformers
其他
S
ZurichNLP
17
2
Openhathi 7B Hi V0.1 Base
OpenHathi系列的首个模型,基于Llama2架构,支持印地语、英语及混合语,拥有70亿参数。
大型语言模型
其他
O
sarvamai
655
112
Vietnamese Llama2 7b 40GB
其他
基于Llama2-chat 7B的越南语优化模型,通过增量预训练和高效分词器显著提升越南语处理能力
大型语言模型
Transformers
支持多种语言
V
bkai-foundation-models
23
40
Koalpaca Llama 1 7b
Apache-2.0
KoAlpaca是基于斯坦福羊驼模型的韩语版本,结合了LLAMA架构与Polyglot-ko技术,专为韩语文本生成任务优化。
大型语言模型
Transformers
支持多种语言
K
beomi
213
28
Byt5 Korean Base
Apache-2.0
ByT5-韩语是谷歌ByT5的韩语定制扩展版本,特别优化了韩语音节的编码处理。
大型语言模型
Transformers
B
everdoubling
55
2