学术研究优化
Meta Llama 3.1 8B GGUF
Meta-Llama-3.1-8B的GGUF量化版本,基于llama.cpp工具生成,支持多语言文本生成任务。
大型语言模型
支持多种语言
M
fedric95
253
3
Qwen2.5 Math 7B 16k Think
MIT
基于Qwen2.5-Math-7B改进的模型,扩展了上下文窗口并优化了推理能力
大型语言模型
Transformers
Q
Elliott
3,496
1
Olmo 2 0425 1B
Apache-2.0
OLMo 2 1B是艾伦人工智能研究所推出的开放语言模型系列中最小的模型,基于OLMo-mix-1124预训练,并在中期训练阶段使用Dolmino-mix-1124数据集。
大型语言模型
Transformers
英语
O
allenai
13.31k
45
Gams 9B Instruct
GaMS-9B-Instruct是基于谷歌Gemma 2系列改进的斯洛文尼亚生成模型,支持斯洛文尼亚语、英语及部分克罗地亚语、塞尔维亚语和波斯尼亚语,专注于文本生成任务。
大型语言模型
支持多种语言
G
cjvt
1,652
2
Teuken 7B Instruct Research V0.4
其他
Teuken-7B-instruct-research-v0.4是一个经过指令微调的70亿参数多语言大语言模型,支持24种欧盟官方语言,专注于欧洲价值观和多语言任务场景。
大型语言模型
Transformers
支持多种语言
T
openGPT-X
1,443
81
Britllm 3b V0.1
BritLLM是一个未经加工的预训练模型,支持多种英国本土语言,适用于多种自然语言处理任务,但需要进一步微调以适应大多数使用场景。
大型语言模型
Transformers
支持多种语言
B
britllm
151
5
Discolm 70B GGUF
DiscoLM 70B是基于LeoLM 70B的德语优化大语言模型,支持英语和德语,适用于文本生成任务。
大型语言模型
支持多种语言
D
TheBloke
2,122
4
Orionstar Yi 34B Chat Llama
Apache-2.0
基于Yi-34B模型微调的开源对话模型,在1500万条高质量语料上训练,提供卓越的交互体验。
大型语言模型
Transformers
O
OrionStarAI
95
14
Llm Embedder Math
基于数学数据集微调的LLM-Embedder模型,专注于句子相似度任务。
文本嵌入
Transformers
L
horychtom
19
0
Camel Platypus2 70B
Camel-Platypus2-70B 是由 Platypus2-70B 和 qCammel-70-x 合并而成的大型语言模型,基于 LLaMA 2 架构,专注于 STEM 和逻辑推理任务。
大型语言模型
Transformers
英语
C
garage-bAInd
114
15
Platypus2 70B Instruct
Platypus2-70B-instruct 是基于 LLaMA 2 架构的大型语言模型,由 garage-bAInd 和 upstageAI 的模型合并而成,专注于指令遵循和逻辑推理任务。
大型语言模型
Transformers
英语
P
garage-bAInd
1,332
175
Open Instruct Stanford Alpaca 7b
基于斯坦福Alpaca数据集微调的7B参数LLaMa模型,专注于开放资源指令调优
大型语言模型
Transformers
英语
O
allenai
220
10
Bert Tiny Chinese Ws
Gpl-3.0
由中研院词库小组开发的微型中文BERT模型,适用于繁体中文自然语言处理任务
序列标注
Transformers
中文
B
ckiplab
1,458
1
Bert Tiny Chinese
Gpl-3.0
由中央研究院词库小组开发的繁体中文Transformer模型,包含ALBERT、BERT、GPT2等架构及自然语言处理工具
大型语言模型
Transformers
中文
B
ckiplab
689
7
It5 Base Wiki Summarization
Apache-2.0
基于WITS数据集微调的意大利语维基百科摘要模型,支持从意大利语文本生成简洁摘要。
文本生成
其他
I
gsarti
18
0
Robbert V2 Dutch Ner
MIT
RobBERT是最先进的荷兰语BERT模型,经过大规模预训练,可通过微调适应各类文本任务。
大型语言模型
其他
R
pdelobelle
76.94k
3
Albert Base Chinese Ws
Gpl-3.0
由中研院词库小组开发的繁体中文自然语言处理模型,基于ALBERT架构,支持分词、词性标注等任务。
序列标注
Transformers
中文
A
ckiplab
1,498
1
Albert Base Japanese V1
MIT
这是一个预训练的日语ALBERT模型,主要用于填充掩码任务,支持日语文本处理。
大型语言模型
Transformers
日语
A
ken11
609
0
Albert Tiny Chinese Ws
Gpl-3.0
提供繁体中文的transformers模型及自然语言处理工具
序列标注
Transformers
中文
A
ckiplab
166.28k
6