多源数据融合
EVA Qwen2.5 14B V0.2
Apache-2.0
一款专注于角色扮演/故事写作的专家模型,基于Qwen2.5-14B进行全参数微调,融合了合成与自然数据。
大型语言模型
Transformers
E
EVA-UNIT-01
287
24
EVA Qwen2.5 32B V0.2
Apache-2.0
一款专注于角色扮演/故事写作的专家模型,基于Qwen2.5-32B进行全参数微调,融合了合成与自然数据。
大型语言模型
Transformers
E
EVA-UNIT-01
625
53
Llama 3 OffsetBias RM 8B
基于OffsetBias数据集训练的奖励模型,针对评估模型中的偏差具有更强鲁棒性
大型语言模型
Transformers
英语
L
NCSOFT
1,782
23
Loyal Toppy Bruins Maid 7B DARE
一个7B参数规模的模型,专为角色扮演(RP)设计,严格遵循角色卡片并兼具智能表现。
大型语言模型
Transformers
L
SanjiWatsuki
96
13
All Datasets V3 Roberta Large
基于RoBERTa-large的句子嵌入模型,通过自监督对比学习在10亿句对数据集上训练,用于生成语义丰富的句子向量表示
文本嵌入
英语
A
flax-sentence-embeddings
987
13
All Datasets V3 MiniLM L6
基于MiniLM架构的句子嵌入模型,通过自监督对比学习在超10亿句对数据集上训练,可生成高质量的句子向量表示
文本嵌入
英语
A
flax-sentence-embeddings
46
0
All Datasets V3 MiniLM L12
基于MiniLM-L12架构的句子嵌入模型,通过对比学习在超10亿句对数据集上训练,可生成高质量的语义向量表示
文本嵌入
英语
A
flax-sentence-embeddings
887
1
All Datasets V4 MiniLM L12
基于MiniLM-L12模型,通过自监督对比学习在超10亿句对数据集上微调的句子嵌入模型,可生成高质量的语义向量表示
文本嵌入
英语
A
flax-sentence-embeddings
2,084
2
All Datasets V4 Mpnet Base
基于mpnet-base的句子嵌入模型,通过自监督对比学习在10亿句对数据集上训练,可生成高质量的句子语义向量表示
文本嵌入
英语
A
flax-sentence-embeddings
131
6
Roberta Tagalog Base
这是一个针对他加禄语(Tagalog)的预训练语言模型,基于多源数据进行训练,旨在提升他加禄语自然语言处理任务的性能。
大型语言模型
Transformers
R
GKLMIP
23
1