Qwen3 30B A3B Python Coder
基于Qwen/Qwen3-30B-A3B微调的Python编程专用模型,专注于代码生成任务
大型语言模型
Transformers

Q
burtenshaw
64
5
Z1 7B
MIT
Z1是一个基于Qwen2.5-Coder-7B-Instruct的大语言模型,专注于通过思维迁移进行高效推理。
大型语言模型
Transformers

Z
efficientscaling
125
18
ABEJA QwQ32b Reasoning Japanese V1.0
Apache-2.0
基于Qwen2.5-32B-Instruct开发的日语推理模型,融合了QwQ-32B的ChatVector,优化了日语推理性能。
大型语言模型
Transformers

日语
A
abeja
583
10
Qwen2.5 14B CIC ACLARC
Apache-2.0
基于Qwen 2.5 14B Instruct微调的引文意图分类模型,专门用于科学出版物中的引文意图分类。
文本分类
Transformers

英语
Q
sknow-lab
24
2
Llm2vec Meta Llama 31 8B Instruct Mntp
MIT
LLM2Vec是一种将仅解码器的大语言模型转换为文本编码器的简单方法,通过启用双向注意力、掩码下一词预测和无监督对比学习实现。
文本嵌入
Transformers

英语
L
McGill-NLP
386
2
Minicpm Reranker
MiniCPM-重排序器是由面壁智能与清华大学自然语言处理实验室、东北大学信息检索小组联合研发的中英双语文本重排序模型,具备卓越的中英文及跨语言重排序能力。
大型语言模型
Transformers

支持多种语言
M
openbmb
1,104
27
Chameleon 7B Mgpt
Chameleon-7b是基于Lumina-mGPT仓库转换的检查点模型,旨在简化模型初始化过程。
大型语言模型
Transformers

C
Alpha-VLLM
129
4
Videollama2 7B 16F Base
Apache-2.0
VideoLLaMA 2 是一个多模态大语言模型,专注于提升视频理解中的时空建模与音频理解能力。
文本生成视频
Transformers

英语
V
DAMO-NLP-SG
64
2
Chemvlm 26B
MIT
ChemVLM是一个多模态大语言模型,专注于化学领域的应用,结合了文本和图像处理能力。
图像生成文本
Transformers

C
AI4Chem
53
21
EEVE Korean Instruct 10.8B V1.0 Grade Retrieval
Apache-2.0
该模型是基于EEVE-韩语指导-10.8B-v1.0微调的,用于评估RAG(检索增强生成)中针对问题的检索上下文是否正确,并以'是'或'否'回答。
大型语言模型
Transformers

韩语
E
sinjy1203
1,764
2
Sanguoyanyi 6b
其他
基于Yi-6b微调的文本风格迁移模型,能够将输入文本改写为《三国演义》的文学风格
大型语言模型
Transformers

中文
S
stylellm
16
2
Clickbaitfighter 10B
基于NoticIA数据集微调的西班牙语标题党新闻摘要生成模型,能揭示耸动标题背后的真实内容
大型语言模型
Transformers

西班牙语
C
Iker
48
0
Oneke
OneKE是由蚂蚁集团与浙江大学联合研发的双语大语言模型,专注于知识抽取任务,支持中英文多领域信息抽取。
大型语言模型
Transformers

支持多种语言
O
zjunlp
317
42
Biobart PET Impression
基于BioBART模型微调的PET报告自动印象生成模型,用于从PET检查发现中生成个性化的临床印象。
大型语言模型
Transformers

英语
B
xtie
18
0
Polyglot Ko 5.8b Chat
基于EleutherAI/polyglot-ko-5.8b模型,使用多个韩语指令数据集进行训练的聊天模型
大型语言模型
Transformers

韩语
P
heegyu
1,797
4
Coedit Xxl
CoEdIT-xxl是基于google/flan-t5-xxl模型微调的大型文本编辑模型,专门用于根据指令进行文本修订任务。
大型语言模型
Transformers

英语
C
grammarly
180
31
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文