GLM 4 32B 0414 4bit DWQ
MIT
这是THUDM/GLM-4-32B-0414模型的MLX格式版本,经过4位DWQ量化处理,适用于苹果芯片设备的高效推理。
大型语言模型
支持多种语言
G
mlx-community
156
4
GLM Z1 32B 0414 4bit
MIT
该模型是基于THUDM/GLM-Z1-32B-0414转换的4位量化版本,适用于文本生成任务。
大型语言模型
支持多种语言
G
mlx-community
225
2
GLM 4 32B 0414 4bit
MIT
GLM-4-32B-0414-4bit 是基于 THUDM/GLM-4-32B-0414 转换而来的 MLX 格式模型,支持中英文文本生成任务。
大型语言模型
支持多种语言
G
mlx-community
361
3
GLM Z1 9B 0414 Q4 K M GGUF
MIT
本模型是THUDM/GLM-Z1-9B-0414的GGUF格式转换版本,支持中英文文本生成任务。
大型语言模型
支持多种语言
G
Aldaris
205
2
Approval Bureau Merged
Gpl-3.0
该模型是将基础模型DeepSeek-R1-蒸馏-Qwen-32B与approval_bureau_model_lora适配器合并后的产物,适用于文档审核、文本生成及内容审批相关场景。
大型语言模型
支持多种语言
A
distill
18
2
Deepseek R1 AWQ
MIT
DeepSeek R1模型的AWQ量化版本,优化了float16溢出问题,支持高效推理部署
大型语言模型
Transformers

支持多种语言
D
cognitivecomputations
30.46k
77
Nanbeige 16B Base Llama
Apache-2.0
Nanbeige-16B是由南贝格大模型实验室开发的160亿参数语言模型,采用2.5万亿token进行预训练,支持中文和英文。
大型语言模型
Transformers

支持多种语言
N
duoqi
82
4
Causallm 14B DPO Alpha GGUF
基于14B参数的因果语言模型,经过DPO优化训练,支持中英文文本生成任务
大型语言模型
支持多种语言
C
tastypear
2,238
85
7B DPO Alpha
基于多源数据集训练的7B参数因果语言模型,经过DPO优化,支持中英文文本生成任务
大型语言模型
Transformers

支持多种语言
7
CausalLM
131
54
BELLE 7B 2M
Apache-2.0
BELLE是基于Bloomz-7b1-mt模型微调的中英文指令理解与生成模型,具备优秀的中文处理能力
大型语言模型
Transformers

支持多种语言
B
BelleGroup
55
186
Taiyi Stable Diffusion 1B Chinese EN V0.1
Openrail
首个开源的中英双语Stable Diffusion模型,基于0.2亿筛选过的中文图文对训练
文本生成图像
中文
T
IDEA-CCNL
182
106
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文