8192长上下文
Mellum 4b Sft Python
Apache-2.0
JetBrains首个开源大语言模型(LLM)的微调版本,专为Python代码相关任务优化,支持8192 token上下文窗口。
大型语言模型
Transformers
其他
M
JetBrains
830
40
Mellum 4b Base
Apache-2.0
JetBrains首个专为代码相关任务优化的开源大语言模型,支持8192token上下文窗口,覆盖多种编程语言
大型语言模型
Transformers
其他
M
JetBrains
5,155
351
Scitopicnomicembed
Apache-2.0
基于nomic-ai/nomic-embed-text-v1.5微调的句子转换器模型,专为科学文献主题相似性任务优化
文本嵌入
英语
S
Corran
114
1
Gte Reranker Modernbert Base
Apache-2.0
基于ModernBERT预训练架构的英语文本重排序模型,由阿里巴巴通义实验室开发,支持8192 tokens长文本处理。
文本嵌入
Transformers
英语
G
Alibaba-NLP
17.69k
56
Modernbert Large Squad2 V0.1
Apache-2.0
基于ModernBERT-large在SQuAD 2.0数据集上微调的问答模型,支持长上下文处理
问答系统
Transformers
M
Praise2112
19
2
Mmed Llama 3 8B
MMed-Llama 3是一个基于Llama 3架构的多语言医学基础模型,拥有80亿参数,在MMedC语料库上进行了进一步预训练,增强了医学领域知识。
大型语言模型
Transformers
支持多种语言
M
Henrychur
1,763
25
Meltemi 7B Instruct V1
Apache-2.0
Meltemi-7B-Instruct-v1是基于Mistral-7B架构的希腊语指令微调大语言模型,支持8192上下文长度,专为希腊语任务优化
大型语言模型
Transformers
支持多种语言
M
ilsp
408
35
Starcoder Gpteacher Code Instruct
Openrail
基于StarCoder模型,使用GPTeacher代码生成数据集进行微调,优化了代码生成和解释能力
大型语言模型
Transformers
S
GeorgiaTechResearchInstitute
122
81
Starcoderbase
Openrail
StarCoderBase是一个155亿参数的大规模代码生成模型,基于80多种编程语言训练而成,支持代码补全和生成任务。
大型语言模型
Transformers
其他
S
bigcode
3,216
404
Starcoder
Openrail
StarCoder是一个基于80多种编程语言训练的15.5B参数代码生成模型,支持8192个token的上下文窗口
大型语言模型
Transformers
其他
S
bigcode
10.72k
2,875