Gemma 3 4B It Qat GGUF
Google出品的Gemma 3 4B IT模型,支持多模态输入和长上下文处理,适用于文本生成和图像理解任务。
图像生成文本
G
lmstudio-community
46.55k
10
EEVE Korean Instruct 10.8B V1.0 Gguf
Apache-2.0
EEVE-Korean-Instruct-10.8B-v1.0 是一个韩语指令微调的大型语言模型,基于 yanolja/EEVE-Korean-10.8B-v1.0 基础模型开发,专注于韩语理解和生成任务。
大型语言模型
E
teddylee777
626
21
Tweety 7b Dutch V24a
Apache-2.0
Tweety-7b-dutch是一个专注于荷兰语的基础大语言模型,基于mistral架构,使用荷兰语分词器优化荷兰语文本处理能力。
大型语言模型
Transformers

其他
T
Tweeties
1,568
13
Kanarya 750m
Apache-2.0
金丝雀-750M是一个预训练的土耳其语GPT-J 750M模型,属于土耳其数据仓库计划的一部分。
大型语言模型
其他
K
asafaya
2,749
10
Nekomata 14b
其他
基于Qwen-14B在混合日语和英语数据集上持续预训练的大语言模型,显著提升日语任务表现
大型语言模型
Transformers

支持多种语言
N
rinna
705
20
Geitje 7B
Apache-2.0
基于Mistral 7B的大规模开源荷兰语模型,通过100亿荷兰语文本标记的增量训练,显著提升荷兰语理解能力及本土知识覆盖。
大型语言模型
Transformers

其他
G
Rijgersberg
891
19
Colossal LLaMA 2 7b Base
基于LLaMA-2的中英双语开源大语言模型,经过约85亿token的持续预训练,支持4096 token的上下文窗口。
大型语言模型
Transformers

支持多种语言
C
hpcai-tech
147
76
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP15
Bsd-3-clause
基于Long-T5架构的大规模摘要生成模型,专门针对书籍和长文档摘要任务进行优化
文本生成
Transformers

L
pszemraj
17
0
Long T5 Tglobal Base 16384 Booksum V12
Bsd-3-clause
基于T5架构优化的长文本摘要生成模型,支持处理长达16384个token的输入,在书籍摘要任务上表现优异。
文本生成
Transformers

L
pszemraj
109
4
Long T5 Tglobal Base 16384 Book Summary
Bsd-3-clause
基于Long-T5架构的书籍摘要生成模型,支持处理长文档并生成高质量摘要。
文本生成
L
pszemraj
24.19k
134
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP
Apache-2.0
基于Long-T5架构的大规模摘要生成模型,专门针对长文档摘要任务优化,支持16384个token的上下文长度。
文本生成
Transformers

L
pszemraj
65
1
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文