长文本理解
Qwen3 0.6B Base
Apache-2.0
Qwen3是通义千问系列最新一代6亿参数大语言模型,支持32k上下文长度,覆盖119种语言
大型语言模型
Transformers
Q
Qwen
58.85k
44
Qwen3 4B Base
Apache-2.0
Qwen3-4B-Base是通义千问系列最新一代40亿参数大语言模型,基于36万亿token的多语言数据预训练,支持32k上下文长度。
大型语言模型
Transformers
Q
Qwen
50.84k
29
Ultralong Thinking
通过SLERP方法合并的8B参数语言模型,结合了DeepSeek-R1和Nemotron-8B模型的优势
大型语言模型
Transformers
U
mergekit-community
69
2
Modernbert Large Nli
Apache-2.0
基于ModernBERT-large的多任务微调模型,专注于自然语言推理(NLI)任务,在零样本分类和推理任务中表现优异。
大型语言模型
Transformers
支持多种语言
M
p-christ
39
0
LLM2CLIP Openai L 14 224
Apache-2.0
LLM2CLIP是一种利用大型语言模型(LLM)释放CLIP潜力的创新方法,通过对比学习框架提升文本判别性,突破原始CLIP文本编码器的限制。
文本生成图像
Safetensors
L
microsoft
108
5
LLM2CLIP Llama 3 8B Instruct CC Finetuned
Apache-2.0
LLM2CLIP是一种创新方法,通过大语言模型增强CLIP的跨模态能力,显著提升视觉和文本表征的判别力。
多模态融合
L
microsoft
18.16k
35
LLM2CLIP Openai B 16
Apache-2.0
LLM2CLIP是一种利用大语言模型(LLM)扩展CLIP能力的创新方法,通过对比学习框架提升文本判别性,显著提升跨模态任务性能。
文本生成图像
Safetensors
L
microsoft
1,154
18
LLM2CLIP EVA02 L 14 336
Apache-2.0
LLM2CLIP是一种创新方法,通过大语言模型(LLM)增强CLIP的视觉表征能力,显著提升跨模态任务性能
文本生成图像
PyTorch
L
microsoft
75
60
Llama3 8B 1.58 100B Tokens
基于BitNet 1.58b架构微调的大型语言模型,基础模型为Llama-3-8B-Instruct,采用极端量化技术
大型语言模型
Transformers
L
HF1BitLLM
2,427
181
Tess V2.5 Phi 3 Medium 128k 14B
MIT
基于Microsoft Phi-3-medium-128k-instruct微调的大语言模型,支持ChatML格式对话交互
大型语言模型
Transformers
T
migtissera
4,932
4
Yi 1.5 6B Chat
Apache-2.0
Yi-1.5是Yi模型的升级版本,在编程、数学、推理和指令遵循能力方面表现更出色,同时保持卓越的语言理解、常识推理和阅读理解能力。
大型语言模型
Transformers
Y
01-ai
13.32k
42
Dolphin 2.7 Mixtral 8x7b AWQ
Apache-2.0
Dolphin 2.7 Mixtral 8X7B 是一个基于Mixtral架构的大型语言模型,专注于代码生成和指令跟随任务。
大型语言模型
Transformers
英语
D
TheBloke
5,839
22
Mistral 7B V0.1 Flashback V2
MIT
基于Mistral-7B-v0.1的预训练延续模型,使用瑞典论坛Flashback的40GB文本数据进行微调,支持多语言生成。
大型语言模型
Transformers
支持多种语言
M
timpal0l
98
9
Bloomz 3b Nli
Openrail
基于Bloomz-3b-chat-dpo微调的自然语言推理模型,支持英法双语语义关系判断
大型语言模型
Transformers
支持多种语言
B
cmarkea
22
1
Yi 6B Chat
Apache-2.0
Yi-34B-Chat是由01.AI开发的双语大语言模型,在语言理解、常识推理和阅读理解方面表现优异,支持中英文交互。
大型语言模型
Transformers
Y
01-ai
36.75k
66
Cerbero 7b
Apache-2.0
首个完全免费开源的意大利大语言模型,基于mistral-7b构建,专为意大利语优化,性能超越Llama2 13B
大型语言模型
Transformers
支持多种语言
C
galatolo
5,722
15
Qwen 7B Chat GPTQ
阿里云研发的70亿参数规模大语言模型,基于Transformer架构,支持中英双语和代码处理,具备多轮对话能力。
大型语言模型
Transformers
支持多种语言
Q
openerotica
26
5
Baichuan 7B
百川-7B是由百川智能研发的开源大规模预训练语言模型,基于Transformer架构,拥有70亿参数,在中英双语语料上训练,支持4096长度的上下文窗口。
大型语言模型
Transformers
支持多种语言
B
baichuan-inc
20.47k
840
Manticore 13b
Manticore 13B是基于Llama 13B模型在多个高质量数据集上微调的大语言模型,擅长文本生成任务。
大型语言模型
Transformers
英语
M
openaccess-ai-collective
201
116
Xlm Roberta Large Squad2 Qa Milqa Impossible
该模型是基于milqa数据集对deepset/xlm-roberta-large-squad2进行微调的匈牙利语问答模型,支持处理无答案的情况。
问答系统
Transformers
其他
X
ZTamas
28
2
Bert Large Japanese Wikipedia Ud Head Finetuned Inquiry
基于日语Wikipedia数据预训练的BERT-large模型,经过UD头部解析任务微调
大型语言模型
Transformers
B
anhcanvasasia
33
0
Randeng T5 784M QA Chinese
首个中文生成式问答预训练T5模型,基于悟道180G语料预训练并在中文SQuAD和CMRC2018数据集上微调
问答系统
Transformers
中文
R
IDEA-CCNL
166
32
Albert Chinese Large Qa
Apache-2.0
基于百度WebQA和百度DuReader数据集预训练的Albert大型中文问答模型,适用于中文问答任务。
问答系统
Transformers
中文
A
wptoux
32
12
Biosyn Biobert Bc2gn
一个基于Transformer架构的大语言模型,支持中文和英文的文本理解和生成任务
大型语言模型
Transformers
B
dmis-lab
32
0
Bart Large Finetuned Squad2
基于BART-large架构的问答系统模型,在SQuAD2.0数据集上微调完成,擅长从给定文本中提取答案
问答系统
Transformers
英语
B
phiyodr
83
3
Xlmroberta Squadv2
这是针对问答任务在SQuADv2数据集上微调的xlm-roberta-large模型
问答系统
Transformers
X
aware-ai
15
0
Electra Large Discriminator Squad2 512
这是一个基于ELECTRA架构的大规模判别器模型,专门针对问答任务在SQuAD2.0数据集上进行了微调,能够处理有答案和无答案的问答场景。
问答系统
Transformers
E
ahotrod
8,925
6
Biosyn Sapbert Bc2gn
这是一个多功能的大语言模型,能够理解和生成自然语言文本
大型语言模型
Transformers
B
dmis-lab
857
1
Albert Gpt2 Full Summarization Cnndm
基于ALBERT和GPT2架构的新闻摘要生成模型,在CNN/DailyMail数据集上微调
文本生成
Transformers
A
Ayham
15
0