3b Zh Ft Research Release Q8 0 GGUF
Apache-2.0
本模型是基于canopylabs/3b-zh-ft-research_release转换而来的GGUF格式模型,适用于中文文本生成任务。
大型语言模型
中文
3
cludyw
20
0
3b Zh Ft Research Release Q4 K M GGUF
Apache-2.0
这是一个基于canopylabs/3b-zh-ft-research_release转换至GGUF格式的中文语言模型,适用于文本生成任务。
大型语言模型
中文
3
freddyaboulton
142
1
3b De Ft Research Release 4bit
Apache-2.0
这是一个基于MLX格式转换的德语文本转语音模型,支持德语语言处理任务。
语音合成
Transformers

德语
3
mlx-community
19
0
3b Ko Ft Research Release Q4 K M GGUF
Apache-2.0
这是一个基于韩语优化的3B参数规模的语言模型,转换为GGUF格式以便与llama.cpp兼容使用。
大型语言模型
韩语
3
freddyaboulton
165
0
Sheared LLaMA 1.3B Pruned
Sheared-LLaMA-1.3B-Pruned是从Llama-2-7b剪枝得到的1.3B参数模型,未进行继续预训练,主要用于研究剪枝技术及其影响。
大型语言模型
Transformers

S
princeton-nlp
25
3
Pile T5 Base
Pile-T5基础版是基于T5x库在The Pile数据集上训练的编码器-解码器模型,通过MLM目标训练了200万步,约2万亿token。
大型语言模型
Transformers

英语
P
EleutherAI
50
19
Yi Ko 6B
Apache-2.0
Yi-Ko-6B是01-ai/Yi模型的进阶版本,通过扩展词汇表并加入韩语/英语语料进行进一步预训练,支持韩英双语文本生成。
大型语言模型
Transformers

支持多种语言
Y
beomi
3,183
37
IF PromptMKR Phi
基于microsoft/phi-1_5模型使用IFprompMKR数据集进行qlora微调的版本,主要用于文本生成任务。
大型语言模型
Transformers

I
impactframes
23
2
Heron Preliminary Git Llama 2 70b V0
一个通过图像-文本对进行预训练的视觉语言模型,基于Llama-2 70B架构,适用于图像描述生成任务。
图像生成文本
Transformers

日语
H
turing-motors
14
1
Pile T5 Large
Pile-T5 Large 是基于 T5x 库在 The Pile 数据集上训练的编码器-解码器模型,主要用于英语文本到文本生成任务。
大型语言模型
Transformers

英语
P
EleutherAI
112
15
Llama 2 70b Fb16 Korean
基于Llama2 70B模型在韩语数据集上微调的版本,专注于韩语和英语的文本生成任务
大型语言模型
Transformers

支持多种语言
L
quantumaikr
127
37
Llava Pretrain Vicuna 7b V1.3
LLaVA 是一个开源多模态聊天机器人,基于 LLaMA/Vicuna 在 GPT 生成的多模态指令跟随数据上进行微调训练而成。
文本生成图像
Transformers

L
liuhaotian
54
1
Llama2 Xs 460M Experimental
本系列仓库开源复现了Meta AI的LLaMA和LLaMA 2大语言模型,但模型规模显著缩小,其中llama1_s实验版含18亿参数,llama2_xs实验版仅含4.6亿参数。
大型语言模型
Transformers

英语
L
ahxt
145
13
Longchat 13b 16k
基于llama-13b微调的开源聊天机器人,支持16k上下文长度,训练数据来自ShareGPT平台用户分享的对话
大型语言模型
Transformers

L
lmsys
14.21k
132
Opt 2.7b
其他
OPT是由Meta AI推出的开源大语言模型系列,参数规模从1.25亿到1750亿,旨在促进大规模语言模型的开放研究。
大型语言模型
英语
O
facebook
53.87k
83
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文