知识增强
Knowledgecore 12B
KnowledgeCore.12B 是一个通过 mergekit 工具合并的 12B 参数规模的大型语言模型,基于 PocketDoc/Dans-PersonalityEngine-V1.1.0-12b 和 inflatebot/MN-12
大型语言模型
Transformers
K
yamatazen
15
2
Mistral 7B OpenOrca GGUF
Apache-2.0
Mistral 7B OpenOrca是基于Mistral-7B架构的大语言模型,由OpenOrca团队训练,专注于文本生成任务。
大型语言模型
英语
M
TheBloke
7,792
245
Qwen2.5 14B YOYO V2
Qwen2.5-14B-YOYO-V5是基于Qwen2.5-14B基础模型,通过融合多个预训练语言模型而成的增强版本。
大型语言模型
Transformers
Q
YOYO-AI
14
2
Goppa LogiLlama
逻辑羊驼是由Goppa AI开发的精调语言模型,基于LLaMA的10亿参数基础版本,通过注入知识和逻辑推理能力得到增强,适用于终端设备应用。
大型语言模型
Transformers
G
goppa-ai
39
14
Llama 3.1 8b DodoWild V2.02
基于Model Stock方法融合的Llama 3.1 8B系列模型,结合了Dolermed和Smarteaz两个变体的优势
大型语言模型
Transformers
L
Nexesenex
57
2
Glm 4 9b Chat Hf
其他
GLM-4-9B是智谱AI推出的GLM-4系列最新一代预训练模型的开源版本,具备卓越的语义、数学、推理、代码和知识能力。
大型语言模型
Transformers
支持多种语言
G
THUDM
7,919
13
Vapor V2 7B
Apache-2.0
基于Qwen/Qwen2.5-7B模型在多语言数据集上微调的大语言模型,支持13种语言处理
大型语言模型
Transformers
V
FourOhFour
60
4
Llama 3.1 Storm 8B GGUF
Llama-3.1-Storm-8B是基于Llama-3.1-8B-Instruct构建的改进模型,在多项基准测试中表现优异,适用于对话和函数调用任务。
大型语言模型
支持多种语言
L
akjindal53244
654
41
Adapter Phi 3 Mini 4k Instruct Summarization
Apache-2.0
Phi-3-mini-4k-instruct 是微软发布的一个小型指令微调语言模型,基于 Phi-3 架构,适用于多种自然语言处理任务。
大型语言模型
英语
A
zhhan
28
1
Biomistral 7B SLERP
Apache-2.0
BioMistral-7B-slerp是通过SLERP方法合并BioMistral-7B和Mistral-7B-Instruct-v0.1的医学领域语言模型,专注于生物医学文本处理
大型语言模型
Transformers
支持多种语言
B
BioMistral
84
6
Daringmaid 20B
无畏女仆-20B是一个基于多个优秀模型融合的文本生成模型,目标是打造更聪明、更擅长遵循指令的Noromaid模型。
大型语言模型
Transformers
英语
D
Kooten
163
14
Open Llama 3b V2 Wizard Evol Instuct V2 196k AWQ
Apache-2.0
这是一个基于Open Llama 3B V2架构的模型,使用WizardLM_evol_instruct_V2_196k数据集训练而成,适用于指令跟随任务。
大型语言模型
Transformers
英语
O
TheBloke
64
1
Kaori 70b V1
kaori-70b-v1 是一个基于LLaMA2架构的大语言模型,由Kaeri和Jenti团队使用Open-Platypus、dolphin和OpenOrca数据集进行微调。
大型语言模型
Transformers
K
KaeriJenti
907
2
Causallm 7B GGUF
CausalLM 7B是一个基于Llama 2架构的多语言大语言模型,支持中英文文本生成任务。
大型语言模型
支持多种语言
C
TheBloke
2,776
60
Biomednlp KRISSBERT PubMed UMLS EL
MIT
KRISSBERT是一个基于知识增强自监督学习的生物医学实体链接模型,通过利用无标注文本和领域知识训练上下文编码器,有效解决实体名称多样性变异和歧义性问题。
知识图谱
Transformers
英语
B
microsoft
4,643
29
Ke T5 Base Ko
Apache-2.0
KE-T5是由韩国电子技术研究院开发的基于T5架构的韩英双语文本生成模型,支持跨语言知识迁移的对话生成任务。
大型语言模型
韩语
K
KETI-AIR
208
9