持续预训练
Consilience 40b 7Y9v38s5
Nous Consilience 40B是一个400亿参数的生成式文本模型,通过去中心化方式从零开始预训练,支持多种语言,代表人类多元创造性产出。
大型语言模型
支持多种语言
C
PsycheFoundation
44
3
Consilience 40b J4iA6BRm
Nous Consilience 40B 是一个400亿参数的生成式文本模型,通过去中心化方式从零开始预训练,支持多种语言,旨在代表人类广泛的创造性产出。
大型语言模型
Safetensors
支持多种语言
C
PsycheFoundation
46
1
Gemma 2 Llama Swallow 27b It V0.1
基于Gemma-2架构的日语增强大语言模型,通过持续预训练显著提升日语能力,同时保留原版英语能力
大型语言模型
Transformers
支持多种语言
G
tokyotech-llm
27
1
Llama 3.1 70B Japanese Instruct 2407
这是一个基于Meta-Llama-3.1-70B-Instruct持续预训练的日语大语言模型,支持日语和英语。
大型语言模型
Transformers
支持多种语言
L
cyberagent
343
74
Taiwan Tinyllama V1.0 Chat
Apache-2.0
这是专为繁体中文优化的Tinyllama持续预训练版本,基于TinyLlama-1.1B模型,持续预训练数据集包含约20亿个词元。
大型语言模型
Transformers
中文
T
DavidLanz
31
3
Llama 3 Swallow 8B V0.1
基于Meta Llama 3构建的日语增强大语言模型,通过持续预训练和指令微调提升日语处理能力
大型语言模型
Transformers
支持多种语言
L
tokyotech-llm
2,230
10
Llama 3 Youko 8b
基于Meta-Llama-3-8B在混合日语和英语数据集上进行220亿token持续预训练的日语优化模型
大型语言模型
Transformers
支持多种语言
L
rinna
1,249
60
Swallow MX 8x7b NVE V0.1
Apache-2.0
Swallow-MX-8x7b-NVE-v0.1是基于Mixtral-8x7B-Instruct-v0.1进行持续预训练的混合专家模型,主要增强了日语能力。
大型语言模型
Transformers
支持多种语言
S
tokyotech-llm
1,293
29
Saul 7B Base
MIT
专为法律领域定制的大型指令语言模型,基于Mistral-7B进行持续预训练获得
大型语言模型
Transformers
英语
S
Equall
484
29
Swallow MS 7b V0.1
Apache-2.0
Swallow-MS-7b-v0.1是基于Mistral-7B-v0.1持续预训练的日语增强模型,由TokyoTech-LLM开发,在日语任务上表现优异。
大型语言模型
Transformers
支持多种语言
S
tokyotech-llm
736
27
Vbd Llama2 7B 50b Chat
基于LLaMA2-7B专为越南语优化的对话模型,通过持续自监督学习和监督微调增强越南语能力
大型语言模型
Transformers
支持多种语言
V
LR-AI-Labs
25
26
K 12BERT
Apache-2.0
K-12BERT是基于K-12基础教育领域数据通过持续预训练得到的BERT模型,专为教育场景优化
大型语言模型
Transformers
英语
K
vasugoel
50
9