Gemma 3 12B FornaxV.2 QAT CoT Q4 0 GGUF
这是一个实验性的小型思维模型,旨在8GiB消费级显卡上运行,具备通用推理能力。
大型语言模型
G
ConicCat
98
1
GLM 4 9B 0414 GGUF
MIT
GLM-4-9B-0414是GLM家族中的轻量级成员,拥有90亿参数,在数学推理和通用任务上表现出色,为资源受限场景提供了高效的解决方案。
大型语言模型
支持多种语言
G
unsloth
4,291
9
T0 3B
Apache-2.0
T0++是基于T5架构的自然语言处理模型,通过多任务提示训练实现零样本任务泛化能力,在多种NLP任务上超越GPT-3且体积更小。
大型语言模型
Transformers

英语
T
bigscience
3,723
100
Llama 3.1 MIG Tulu 3 8B SFT
Apache-2.0
基于自动筛选的5万条Tulu-3-MIG数据集进行微调的Llama-3.1-8B模型
大型语言模型
Transformers

L
xsample
26
3
Spatialvla 4b 224 Sft Bridge
MIT
该模型是基于SpatialVLA模型在bridge数据集上微调得到的视觉-语言-动作模型,专为Simpler-env基准测试打造。
文本生成图像
Transformers

英语
S
IPEC-COMMUNITY
1,066
0
Llama 3.1 8b Medusa V1.01
基于Llama 3.1架构的8B参数语言模型,通过mergekit合并多个专业模型而成,在文本生成任务中表现优异。
大型语言模型
Transformers

L
Nexesenex
95
3
Llama3.1 Gutenberg Doppel 70B
基于Hermes-3-Llama-3.1-70B-lorablated模型,在Gutenberg数据集上进行微调的大语言模型
大型语言模型
Transformers

L
nbeerbower
424
6
Lwm
LWM是首个无线通信领域的基础模型,作为通用特征提取器开发,能够从无线信道数据中提取精细表征。
物理学模型
Transformers

L
wi-lab
137
3
Robustsam Vit Large
MIT
RobustSAM是一种在退化图像上稳健分割任意对象的模型,基于SAM改进,提升了在低质量图像上的分割性能。
图像分割
Transformers

其他
R
jadechoghari
86
4
Llama 3 Gutenberg 8B
其他
基于Llama-3-8b的微调模型,使用Gutenberg DPO数据集进行优化,适用于文本生成任务。
大型语言模型
Transformers

L
nbeerbower
18
9
Percival 01 7b Slerp
Apache-2.0
Percival_01-7b-slerp 是一个在 OPENLLM 排行榜上排名第二的 7B 参数规模的大语言模型,通过 LazyMergekit 工具合并 liminerity/M7-7b 和 Gille/StrangeMerges_32
大型语言模型
Transformers

P
AurelPx
24
4
Roberta Large Zeroshot V2.0 C
MIT
专为高效零样本分类设计的RoBERTa-large模型,使用商业友好数据训练,无需训练数据即可执行文本分类任务。
文本分类
Transformers

英语
R
MoritzLaurer
53
2
Locutusquexfelladrin TinyMistral248M Instruct
Apache-2.0
这是一个通过合并Locutusque/TinyMistral-248M-Instruct和Felladrin/TinyMistral-248M-SFT-v4并使用mergekit工具创建的模型,融合了两者的优势,具有编程能力和推理技巧,同时
大型语言模型
Transformers

英语
L
Locutusque
97
7
Psyfighter 13B
这是一个基于Llama-2-13B的混合模型,结合了Tiefighter、MedLLaMA和limarp-v2等多个模型的特点,适用于多种文本生成任务。
大型语言模型
Transformers

P
jebcarter
86
12
Wizardlm 13B V1.2
WizardLM-13B V1.2是基于Llama-2 13b训练的大型语言模型,专注于复杂指令遵循能力。
大型语言模型
Transformers

W
WizardLMTeam
989
226
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文