大上下文窗口
Gemma 3 4B It Qat GGUF
Google出品的Gemma 3 4B IT模型,支持多模态输入和长上下文处理,适用于文本生成和图像理解任务。
图像生成文本
G
lmstudio-community
46.55k
10
EEVE Korean Instruct 10.8B V1.0 Gguf
Apache-2.0
EEVE-Korean-Instruct-10.8B-v1.0 是一个韩语指令微调的大型语言模型,基于 yanolja/EEVE-Korean-10.8B-v1.0 基础模型开发,专注于韩语理解和生成任务。
大型语言模型
E
teddylee777
626
21
Tweety 7b Dutch V24a
Apache-2.0
Tweety-7b-dutch是一个专注于荷兰语的基础大语言模型,基于mistral架构,使用荷兰语分词器优化荷兰语文本处理能力。
大型语言模型
Transformers
其他
T
Tweeties
1,568
13
Kanarya 750m
Apache-2.0
金丝雀-750M是一个预训练的土耳其语GPT-J 750M模型,属于土耳其数据仓库计划的一部分。
大型语言模型
其他
K
asafaya
2,749
10
Nekomata 14b
其他
基于Qwen-14B在混合日语和英语数据集上持续预训练的大语言模型,显著提升日语任务表现
大型语言模型
Transformers
支持多种语言
N
rinna
705
20
Geitje 7B
Apache-2.0
基于Mistral 7B的大规模开源荷兰语模型,通过100亿荷兰语文本标记的增量训练,显著提升荷兰语理解能力及本土知识覆盖。
大型语言模型
Transformers
其他
G
Rijgersberg
891
19
Colossal LLaMA 2 7b Base
基于LLaMA-2的中英双语开源大语言模型,经过约85亿token的持续预训练,支持4096 token的上下文窗口。
大型语言模型
Transformers
支持多种语言
C
hpcai-tech
147
76
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP15
Bsd-3-clause
基于Long-T5架构的大规模摘要生成模型,专门针对书籍和长文档摘要任务进行优化
文本生成
Transformers
L
pszemraj
17
0
Long T5 Tglobal Base 16384 Booksum V12
Bsd-3-clause
基于T5架构优化的长文本摘要生成模型,支持处理长达16384个token的输入,在书籍摘要任务上表现优异。
文本生成
Transformers
L
pszemraj
109
4
Long T5 Tglobal Base 16384 Book Summary
Bsd-3-clause
基于Long-T5架构的书籍摘要生成模型,支持处理长文档并生成高质量摘要。
文本生成
L
pszemraj
24.19k
134
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP
Apache-2.0
基于Long-T5架构的大规模摘要生成模型,专门针对长文档摘要任务优化,支持16384个token的上下文长度。
文本生成
Transformers
L
pszemraj
65
1