研究用途
3b Zh Ft Research Release Q8 0 GGUF
Apache-2.0
本模型是基于canopylabs/3b-zh-ft-research_release转换而来的GGUF格式模型,适用于中文文本生成任务。
大型语言模型
中文
3
cludyw
20
0
3b Zh Ft Research Release Q4 K M GGUF
Apache-2.0
这是一个基于canopylabs/3b-zh-ft-research_release转换至GGUF格式的中文语言模型,适用于文本生成任务。
大型语言模型
中文
3
freddyaboulton
142
1
3b De Ft Research Release 4bit
Apache-2.0
这是一个基于MLX格式转换的德语文本转语音模型,支持德语语言处理任务。
语音合成
Transformers
德语
3
mlx-community
19
0
3b Ko Ft Research Release Q4 K M GGUF
Apache-2.0
这是一个基于韩语优化的3B参数规模的语言模型,转换为GGUF格式以便与llama.cpp兼容使用。
大型语言模型
韩语
3
freddyaboulton
165
0
Sheared LLaMA 1.3B Pruned
Sheared-LLaMA-1.3B-Pruned是从Llama-2-7b剪枝得到的1.3B参数模型,未进行继续预训练,主要用于研究剪枝技术及其影响。
大型语言模型
Transformers
S
princeton-nlp
25
3
Pile T5 Base
Pile-T5基础版是基于T5x库在The Pile数据集上训练的编码器-解码器模型,通过MLM目标训练了200万步,约2万亿token。
大型语言模型
Transformers
英语
P
EleutherAI
50
19
Yi Ko 6B
Apache-2.0
Yi-Ko-6B是01-ai/Yi模型的进阶版本,通过扩展词汇表并加入韩语/英语语料进行进一步预训练,支持韩英双语文本生成。
大型语言模型
Transformers
支持多种语言
Y
beomi
3,183
37
IF PromptMKR Phi
基于microsoft/phi-1_5模型使用IFprompMKR数据集进行qlora微调的版本,主要用于文本生成任务。
大型语言模型
Transformers
I
impactframes
23
2
Heron Preliminary Git Llama 2 70b V0
一个通过图像-文本对进行预训练的视觉语言模型,基于Llama-2 70B架构,适用于图像描述生成任务。
图像生成文本
Transformers
日语
H
turing-motors
14
1
Pile T5 Large
Pile-T5 Large 是基于 T5x 库在 The Pile 数据集上训练的编码器-解码器模型,主要用于英语文本到文本生成任务。
大型语言模型
Transformers
英语
P
EleutherAI
112
15
Llama 2 70b Fb16 Korean
基于Llama2 70B模型在韩语数据集上微调的版本,专注于韩语和英语的文本生成任务
大型语言模型
Transformers
支持多种语言
L
quantumaikr
127
37
Llava Pretrain Vicuna 7b V1.3
LLaVA 是一个开源多模态聊天机器人,基于 LLaMA/Vicuna 在 GPT 生成的多模态指令跟随数据上进行微调训练而成。
文本生成图像
Transformers
L
liuhaotian
54
1
Llama2 Xs 460M Experimental
本系列仓库开源复现了Meta AI的LLaMA和LLaMA 2大语言模型,但模型规模显著缩小,其中llama1_s实验版含18亿参数,llama2_xs实验版仅含4.6亿参数。
大型语言模型
Transformers
英语
L
ahxt
145
13
Longchat 13b 16k
基于llama-13b微调的开源聊天机器人,支持16k上下文长度,训练数据来自ShareGPT平台用户分享的对话
大型语言模型
Transformers
L
lmsys
14.21k
132
Opt 2.7b
其他
OPT是由Meta AI推出的开源大语言模型系列,参数规模从1.25亿到1750亿,旨在促进大规模语言模型的开放研究。
大型语言模型
英语
O
facebook
53.87k
83