韩语优化
Kakaocorp.kanana 1.5 8b Instruct 2505 GGUF
Kanana-1.5-8B-Instruct-2505 是由 Kakao Corp 开发的一个 8B 参数规模的指令微调语言模型,适用于文本生成任务。
大型语言模型
K
DevQuasar
483
1
Hyperclovax SEED Text Instruct 0.5B
其他
一款具备指令跟随能力的韩语优化文本生成模型,轻量级设计适合边缘设备部署
大型语言模型
Transformers
H
naver-hyperclovax
7,531
60
3b Ko Ft Research Release Q4 K M GGUF
Apache-2.0
这是一个基于韩语优化的3B参数规模的语言模型,转换为GGUF格式以便与llama.cpp兼容使用。
大型语言模型
韩语
3
freddyaboulton
165
0
Trillion 7B Preview AWQ
Apache-2.0
Trillion-7B预览版是一款多语言大语言模型,支持英语、韩语、日语和中文,在计算效率和性能表现上优于同类7B规模模型。
大型语言模型
支持多种语言
T
trillionlabs
22
4
Trillion 7B Preview
Apache-2.0
Trillion-7B预览版是一款多语言大型语言模型,支持英语、韩语、日语和中文,在保持较低计算量的同时实现了与更高计算量模型竞争的性能。
大型语言模型
Transformers
支持多种语言
T
trillionlabs
6,864
82
Llama DNA 1.0 8B Instruct
基于Llama架构的最先进双语语言模型,特别优化了韩语理解和生成能力,同时保持强大的英语能力。
大型语言模型
Transformers
支持多种语言
L
dnotitia
661
58
Bge Reranker V2 M3 Ko
Apache-2.0
这是一个基于BAAI/bge-reranker-v2-m3优化的韩语重排序模型,主要用于文本排序任务。
文本嵌入
支持多种语言
B
dragonkue
877
6
Ko Llama 3 8B Instruct
Ko-Llama-3-8B-Instruct 是一个专为提升韩语语言模型性能而开发的模型,基于 Meta-Llama-3-8B-Instruct 进行监督微调。
大型语言模型
Transformers
支持多种语言
K
davidkim205
140
8
Hkcode Solar Youtube Merged
MIT
基于SOLAR-10.7B继续预训练的韩语语言模型,由韩国理工大学金融科技系训练
大型语言模型
Transformers
韩语
H
hyokwan
3,638
1
Akallama Llama3 70b V0.1 GGUF
其他
AkaLlama是基于Meta-Llama-3-70b-Instruct微调的韩语大模型,专注于多任务实际应用
大型语言模型
支持多种语言
A
mirlab
414
15
Ko Llama3 Luxia 8B
Saltlux AI实验室基于Meta Llama-3-8B优化的韩语大语言模型,扩展了韩语分词器并精选100GB韩语数据预训练
大型语言模型
Transformers
支持多种语言
K
saltlux
2,127
78
Llama 3 Open Ko 8B Gguf
基于Llama-3-8B框架继续预训练的韩语语言模型,使用超过60GB去重文本数据训练
大型语言模型
支持多种语言
L
teddylee777
7,211
47
Llama 3 Open Ko 8B Instruct Preview
其他
基于Llama-3-8B继续预训练的韩语语言模型,使用公开可用的60GB+去重文本训练,支持韩语和英语。
大型语言模型
Transformers
支持多种语言
L
beomi
6,014
60
Llama 3 Open Ko 8B
其他
基于Llama-3-8B继续预训练的韩语语言模型,使用公开可用的60GB+去重文本训练,支持韩语和英语文本生成。
大型语言模型
Transformers
支持多种语言
L
beomi
6,729
146
K2S3 SOLAR 11b V2.0
基于SOLAR-10.7B-v1.0微调的韩语大语言模型,专注于韩语理解和生成任务
大型语言模型
Transformers
韩语
K
Changgil
16
1
K Finance Sentence Transformer
这是一个基于sentence-transformers的句子嵌入模型,可将文本映射到768维向量空间,适用于语义搜索和聚类任务。
文本嵌入
Transformers
K
ohsuz
160
1
EEVE Korean Instruct 2.8B V1.0
Apache-2.0
基于EEVE-Korean-2.8B-v1.0微调的韩语指令模型,采用DPO优化训练
大型语言模型
Transformers
其他
E
yanolja
2,197
24
EEVE Korean 10.8B V1.0
Apache-2.0
基于SOLAR-10.7B-v1.0扩展的韩语大语言模型,通过词汇扩展和参数冻结训练优化韩语理解能力
大型语言模型
Transformers
E
yanolja
6,117
83
Kosolar 10.7B V0.2
Apache-2.0
基于upstage/SOLAR-10.7B-v1.0的韩语词汇扩展版本,专门针对韩语网络爬取数据集进行了微调。
大型语言模型
Transformers
K
yanolja
21
33
OPEN SOLAR KO 10.7B
Apache-2.0
基于SOLAR-10.7B-v1.0的韩语增强版本,通过扩充词汇表和韩语语料库进行持续预训练
大型语言模型
Transformers
支持多种语言
O
beomi
1,151
63
Synatra 7B V0.3 RP GGUF
Synatra 7B V0.3 RP 是一个基于Mistral架构的7B参数韩语大语言模型,专注于角色扮演和韩语文本生成任务。
大型语言模型
韩语
S
TheBloke
3,953
14
Synatra 7B V0.3 RP
Synatra-7B-v0.3-RP是基于Mistral-7B-Instruct-v0.1微调的韩语大语言模型,专注于角色扮演和对话生成。
大型语言模型
Transformers
韩语
S
maywell
3,587
24
Koreanlm 3B
KoreanLM是专为开发韩语语言模型而设立的开源项目,旨在解决韩语学习资源匮乏和分词处理效率低下的问题。
大型语言模型
Transformers
支持多种语言
K
quantumaikr
33
2
Llama 2 70b Fb16 Korean
基于Llama2 70B模型在韩语数据集上微调的版本,专注于韩语和英语的文本生成任务
大型语言模型
Transformers
支持多种语言
L
quantumaikr
127
37
Kullm Polyglot 12.8b V2
Apache-2.0
基于EleutherAI/polyglot-ko-12.8b的KULLM v2微调版本,支持韩语的多语言大语言模型
大型语言模型
Transformers
韩语
K
nlpai-lab
1,901
52
Koreanlm
KoreanLM是专为韩语优化的开源语言模型项目,针对韩语语法和词汇特性设计,提供高效分词方案
大型语言模型
Transformers
支持多种语言
K
quantumaikr
59
28
Sentence Transformer Klue
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维的密集向量空间,适用于聚类或语义搜索等任务。
文本嵌入
Transformers
S
hunkim
17
1
Pko T5 Base
pko-t5是专为韩语优化的T5模型,采用纯韩语数据训练而成,使用BBPE分词技术解决韩语分词问题。
大型语言模型
Transformers
韩语
P
paust
874
19
KR ELECTRA Generator
由首尔国立大学开发的韩语专用ELECTRA模型,在非正式文本处理任务中表现优异
大型语言模型
Transformers
韩语
K
snunlp
42.01k
1
Ke T5 Base
Apache-2.0
KE-T5是基于T5架构的文本到文本转换模型,由韩国电子技术研究院开发,支持多种NLP任务。
大型语言模型
支持多种语言
K
KETI-AIR
3,197
22