多轮对话增强
Xlam 2 1b Fc R
xLAM-2是Salesforce研发的大型动作模型系列,专注于多轮对话和函数调用能力,可作为AI代理的核心组件。
大型语言模型
Transformers
英语
X
Salesforce
63
2
Magnum V4 27b Gguf
基于Gemma 27b微调的对话模型,旨在复现Claude 3的文本质量,支持ChatML格式的对话交互。
大型语言模型
英语
M
anthracite-org
1,220
31
Llama Xlam 2 8b Fc R
xLAM-2系列是基于APIGen-MT框架训练的大型动作模型,专注于多轮对话和函数调用能力,适用于AI代理开发。
大型语言模型
Transformers
英语
L
Salesforce
778
8
Rei V2 12B
基于Mistral-Nemo-Instruct微调的大语言模型,旨在复制Claude 3模型的精美散文质量
大型语言模型
Transformers
英语
R
Delta-Vector
209
11
L3.3 Cu Mai R1 70b
基于Llama3架构的70B参数大语言模型,经过特殊优化处理
大型语言模型
Safetensors
L
Steelskull
164
14
Llama 3 Groq 8B Tool Use GGUF
基于Llama-3-8B的Groq优化版本,支持工具使用和函数调用功能
大型语言模型
英语
L
tensorblock
125
1
Sapie Gemma2 9B IT
基于Google Gemma-2-9b-it模型优化的韩语版本,由Saltware开发,适用于韩语自然语言处理任务。
大型语言模型
Transformers
韩语
S
hometax
171
4
Ichigo Llama3.1 S Instruct V0.3 Phase 3
Apache-2.0
Ichigo-llama3s系列模型之一,专注于提升处理模糊输入和多轮对话的能力,支持音频和文本输入。
文本生成音频
英语
I
Menlo
20
35
It 5.3 Fp16 32k
Apache-2.0
旋风0.5*是一个支持俄语和英语的开源大语言模型,扩展了RoPE上下文窗口至32k,优化了JSON处理和多轮对话能力
大型语言模型
Transformers
支持多种语言
I
Vikhrmodels
74
11
Glm 4 9b
其他
GLM-4-9B是智谱AI推出的最新开源预训练模型,在多项基准测试中超越Llama-3-8B,支持128K上下文长度和26种语言。
大型语言模型
Transformers
支持多种语言
G
THUDM
9,944
132
LLAMA 3 Quantized
MIT
Meta Llama 3 - 8B Instruct大语言模型的8位量化版本,减小模型体积并提升推理速度,适合资源有限设备部署。
大型语言模型
Transformers
L
Kameshr
18
9
Llama 3 8B Instruct Gradient 1048k
由Gradient开发的Llama-3 8B长上下文扩展版本,支持超过100万token的上下文长度,通过优化RoPE theta参数实现高效长文本处理能力。
大型语言模型
Transformers
英语
L
gradientai
5,272
682
Mistral 7B Instruct V0.2 Fp8
Apache-2.0
由FriendliAI量化为FP8精度的Mistral-7B-Instruct-v0.2模型,在保持高精度的同时显著提升推理效率。
大型语言模型
Transformers
M
FriendliAI
37
12
Gemma 1.1 2b It
Gemma是Google推出的轻量级开放模型系列,基于与Gemini相同技术构建,适用于多种文本生成任务。
大型语言模型
Transformers
G
google
71.01k
158
Mistral 7B Instruct V0.2 Sparsity 30 V0.1
Apache-2.0
Mistral-7B-Instruct-v0.2是基于Mistral-7B-Instruct-v0.1增强的指令微调大语言模型,采用Wanda剪枝方法实现30%稀疏化,无需重新训练即可保持竞争力性能。
大型语言模型
Transformers
M
wang7776
75
1
Dpopenhermes 7B V2
Apache-2.0
DPOpenHermes 7B v2是基于OpenHermes-2.5-Mistral-7B的第二次RL微调模型,通过直接偏好优化(DPO)进行强化学习,使用了Intel/orca_dpo_pairs和allenai/ultrafeedba
大型语言模型
Transformers
英语
D
openaccess-ai-collective
30
31
Tulu 2 Dpo 7b
其他
Tulu V2 DPO 7B是基于Llama 2 7B微调的语言模型,采用直接偏好优化(DPO)方法训练,旨在作为通用助手。
大型语言模型
Transformers
英语
T
allenai
1,702
20
Mythalion 13b
Pygmalion-2 13B与MythoMax 13B的融合模型,专注于角色扮演/聊天场景
大型语言模型
Transformers
英语
M
PygmalionAI
671
158