多领域问答
Delta Pavonis Qwen 14B
Apache-2.0
基于千问2.5 14B模态架构设计的增强推理模型,优化通用推理与问答场景,支持128K上下文和8K输出
大型语言模型
Transformers
D
prithivMLmods
547
3
Theta Lyrae Qwen 14B
Apache-2.0
Theta-Lyrae-Qwen-14B是基于Qwen 2.5 14B模态架构设计的140亿参数模型,优化了通用推理和问答能力,在上下文理解、逻辑推理和多步骤问题解决方面表现优异。
大型语言模型
Transformers
T
prithivMLmods
21
2
Llama3.1 1B Neo BAAI 1000k
Apache-2.0
Llama3.1-Neo-1B-100w是基于Meta-Llama-3.1-8B-Instruct剪枝至1.4B参数规模,并采用LLM-Neo方法(结合LoRA与知识蒸馏)微调的高效语言模型。
大型语言模型
Transformers
L
yang31210999
39
2
Thespis Krangled 7b V2
基于多种数据集训练的对话模型,支持中文交互,适用于非商业场景
大型语言模型
Transformers
T
cgato
20
1
Polish Reranker Base Mse
Apache-2.0
这是一个基于均方误差(MSE)蒸馏方法训练的波兰语文本排序模型,训练数据集包含140万条查询和1000万份文档的文本对。
文本嵌入
Transformers
其他
P
sdadas
16
0
Polish Reranker Large Ranknet
Apache-2.0
这是一个采用RankNet损失函数训练的波兰文本排序模型,训练数据集包含140万条查询和1000万份文档组成的文本对。
文本嵌入
Transformers
其他
P
sdadas
337
2
Llama 160M Chat V1
Apache-2.0
这是一个160M参数的Llama聊天模型,基于JackFram/llama-160m微调而来,专注于文本生成任务。
大型语言模型
Transformers
英语
L
Felladrin
586
19