Uzmi Gpt
Apache-2.0
GPT-2是由OpenAI开发的开源语言模型,基于Transformer架构,能够生成连贯的文本。
大型语言模型
英语
U
rajan3208
30
2
Orpheus 3b 0.1 Ft Q8 0 GGUF
Apache-2.0
该模型是基于canopylabs/orpheus-3b-0.1-ft转换而来的GGUF格式模型,适用于文本生成任务。
大型语言模型
英语
O
dodgeinmedia
22
0
Deepseek R1 Chinese Law
Apache-2.0
基于Unsloth和Huggingface TRL库训练的Llama模型,推理速度提升2倍
大型语言模型
Transformers

英语
D
corn6
74
2
Qwq 32B Bnb 4bit
Apache-2.0
Qwen/QwQ-32B的4位量化版本,基于BitsAndBytes库实现,适用于资源受限环境下的文本生成任务。
大型语言模型
Transformers

英语
Q
fantos
115
4
Travelbot
Apache-2.0
基于Unsloth和Huggingface TRL库训练的Llama模型,推理速度提升2倍
大型语言模型
Transformers

英语
T
kitty528
9,146
2
Llama 3.2 11B Vision Medical
Apache-2.0
基于unsloth/Llama-3.2-11B-Vision-Instruct微调的模型,使用Unsloth和Huggingface的TRL库进行训练,速度提升了2倍。
文本生成图像
Transformers

英语
L
Varu96
25
1
Mistral Small 24B Instruct 2501 GPTQ G128 W4A16 MSE
Apache-2.0
这是mistralai/Mistral-Small-24B-Instruct-2501模型的4位量化版本,由ConfidentialMind.com量化,实现了更小、更快的模型,同时性能损失极小。
大型语言模型
英语
M
ConfidentialMind
93
1
Krx Qwen2 7b It X
Apache-2.0
基于unsloth/Qwen2-7B-Instruct微调的指令跟随模型,使用Unsloth和TRL库训练,速度提升2倍
大型语言模型
Transformers

支持多种语言
K
2point5p
18
2
Gguf Q5 K M NanoLM 1B Instruct V2
Gpl-3.0
这是一个基于NanoLM-1B-Instruct-v2转换的GGUF格式模型,适用于文本生成任务。
大型语言模型
英语
G
Felladrin
49
1
Nanolm 1B Instruct V1.1
Gpl-3.0
NanoLM-1B-Instruct-v1.1是一个10亿参数规模的小型指令微调语言模型,支持多领域英文文本生成任务。
大型语言模型
支持多种语言
N
Mxode
24
1
Llama3.1 8b Instruct Summarize Q4 K M
Apache-2.0
基于Meta-Llama-3.1-8B-Instruct的4位量化版本,使用Unsloth和Huggingface TRL库进行训练,速度提升2倍。
大型语言模型
英语
L
raaec
107
0
Smollm 135M 4bit
Apache-2.0
这是一个4位量化的135M参数小型语言模型,适用于资源受限环境下的文本生成任务。
大型语言模型
Transformers

英语
S
mlx-community
312
1
Athena 70B L3 I1 GGUF
Athena-70B-L3 是一个70B参数规模的大型语言模型,支持英文文本生成任务,采用参数高效微调技术。
大型语言模型
Transformers

英语
A
mradermacher
141
4
Llmc Gpt2 774M 150B
MIT
这是一个基于GPT-2架构的774M参数语言模型,使用FineWeb数据集中的1500亿token进行训练。
大型语言模型
Transformers

英语
L
mdouglas
18
1
Chewy Lemon Cookie 11B GGUF
Chewy-Lemon-Cookie-11B 是一个基于 Mistral 架构的 11B 参数大语言模型,专注于文本生成和角色扮演任务。
大型语言模型
英语
C
mradermacher
296
2
Shotluck Holmes 1.5
Apache-2.0
Shot2Story-20K 是一个基于图像生成文本的模型,能够将输入的图像转换为连贯的文本描述或故事。
图像生成文本
Transformers

英语
S
RichardLuo
158
3
Retnet 1.3B 100B
MIT
基于SlimPajama-627B数据集训练的文本生成模型,采用视网膜网络架构。
大型语言模型
支持多种语言
R
fla-hub
57
1
Matter 0.1 7B GGUF
Apache-2.0
Matter 7B是基于Mistral 7B微调的模型,专为文本生成任务设计,支持对话式交互和函数调用。
大型语言模型
英语
M
munish0838
127
1
Lzlv Limarpv3 L2 70b GGUF
这是Doctor-Shotgun/lzlv-limarpv3-l2-70b模型的静态量化版本,提供了多种量化选项以适应不同需求。
大型语言模型
英语
L
mradermacher
67
3
Litellama 460M 1T
MIT
LiteLlama是Meta AI的LLaMa 2精简版,仅含4.6亿参数并使用1万亿token训练的开源语言模型
大型语言模型
Transformers

英语
L
ahxt
1,225
162
Rose 20B GGUF
Rose 20B 是一个基于LLaMA架构的20B参数大型语言模型,采用Alpaca风格的指令模板,适用于文本生成任务。
大型语言模型
英语
R
TheBloke
612
27
Tinymistral 248M GGUF
Apache-2.0
TinyMistral-248M 是一个基于 Mistral 7B 模型预训练的小型语言模型,参数规模缩减至约2.48亿,主要用于下游任务的微调。
大型语言模型
英语
T
afrideva
211
5
Opus V0 7B GGUF
Opus V0 7B是由DreamGen开发的基于Mistral架构的7B参数语言模型,专注于文本生成任务。
大型语言模型
英语
O
TheBloke
2,467
13
Tinyllama 1.1B Alpaca Chat V1.5 GGUF
Apache-2.0
基于TinyLlama-1.1B微调的轻量级对话模型,使用Alpaca数据集训练,适用于英文文本生成任务
大型语言模型
英语
T
afrideva
44
2
Yarn Mistral 7B 128k AWQ
Apache-2.0
Yarn Mistral 7B 128K是一款针对长上下文优化的先进语言模型,通过YaRN扩展方法在长上下文数据上进一步预训练,支持128k令牌的上下文窗口。
大型语言模型
Transformers

英语
Y
TheBloke
483
72
Tinystories Gpt2 3M
这是一个小型GPT-2模型,在TinyStories V2数据集上预训练,具有3M可训练参数,表现出良好的文本生成连贯性。
大型语言模型
Transformers

英语
T
calum
637
7
Phi Hermes 1.3B
其他
基于Hermes数据集微调的Phi-1.5模型,主要用于文本生成任务
大型语言模型
Transformers

英语
P
teknium
45
44
Mythalion 13B GGUF
Mythalion 13B是由PygmalionAI开发的13B参数规模的大语言模型,基于Llama架构,专注于文本生成和指令跟随任务。
大型语言模型
英语
M
TheBloke
2,609
67
Qcammel 70 X GGUF
其他
qCammel 70是基于Llama 2架构的大语言模型,由augtoma开发,TheBloke进行量化处理。
大型语言模型
英语
Q
TheBloke
1,264
4
Flan T5 Base Samsum
Apache-2.0
基于Google的flan-t5-base模型在samsum对话摘要数据集上微调的文本生成模型,擅长对话摘要任务
大型语言模型
Transformers

英语
F
achimoraites
15
3
Opt 2.7b
其他
OPT是由Meta AI推出的开源大语言模型系列,参数规模从1.25亿到1750亿,旨在促进大规模语言模型的开放研究。
大型语言模型
英语
O
facebook
53.87k
83
Opt 1.3b
其他
OPT是由Meta AI推出的开源大语言模型系列,对标GPT-3架构,旨在促进大模型研究的可复现性和社会影响探讨。
大型语言模型
英语
O
facebook
196.07k
168
Gpt Neo 125m
MIT
GPT-Neo 125M是基于GPT-3架构的Transformer模型,由EleutherAI开发,参数量为1.25亿,主要用于英语文本生成任务。
大型语言模型
英语
G
EleutherAI
150.96k
204
Gpt Neo 1.3B
MIT
GPT-Neo 1.3B是由EleutherAI开发的13亿参数自回归语言模型,基于GPT-3架构设计,擅长文本生成任务
大型语言模型
英语
G
EleutherAI
208.93k
298
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文