Stockmark 2 100B Instruct Beta
MIT
Stockmark-2-100B是一个专注于日语能力的1000亿参数大语言模型,基于1.5万亿token的多语言数据预训练,并通过日语合成数据增强指令跟随能力。
大型语言模型
Transformers

支持多种语言
S
stockmark
1,004
9
Llama 3 Youko 8b
基于Meta-Llama-3-8B在混合日语和英语数据集上进行220亿token持续预训练的日语优化模型
大型语言模型
Transformers

支持多种语言
L
rinna
1,249
60
Bangla Llama 7b Instruct V0.1
基于LLaMA-2架构优化的70亿参数孟加拉语大语言模型,支持指令跟随任务
大型语言模型
Transformers

支持多种语言
B
BanglaLLM
32
5
Discolm German 7b V1 AWQ
Apache-2.0
DiscoLM German 7B v1 是一个基于Mistral架构的7B参数德语语言模型,支持德语和英语,采用Apache-2.0许可证发布。
大型语言模型
Transformers

支持多种语言
D
TheBloke
81
4
Swiss German Xlm Roberta Base
该模型是基于xlm-roberta-base通过持续预训练在瑞士德语文本数据上微调而成的多语言模型,支持瑞士德语和标准德语处理。
大型语言模型
Transformers

其他
S
ZurichNLP
17
2
Openhathi 7B Hi V0.1 Base
OpenHathi系列的首个模型,基于Llama2架构,支持印地语、英语及混合语,拥有70亿参数。
大型语言模型
其他
O
sarvamai
655
112
Vietnamese Llama2 7b 40GB
其他
基于Llama2-chat 7B的越南语优化模型,通过增量预训练和高效分词器显著提升越南语处理能力
大型语言模型
Transformers

支持多种语言
V
bkai-foundation-models
23
40
Koalpaca Llama 1 7b
Apache-2.0
KoAlpaca是基于斯坦福羊驼模型的韩语版本,结合了LLAMA架构与Polyglot-ko技术,专为韩语文本生成任务优化。
大型语言模型
Transformers

支持多种语言
K
beomi
213
28
Byt5 Korean Base
Apache-2.0
ByT5-韩语是谷歌ByT5的韩语定制扩展版本,特别优化了韩语音节的编码处理。
大型语言模型
Transformers

B
everdoubling
55
2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文