Qwen3 8B RP V0.1
MIT
基于Qwen3-8B进行角色扮演场景微调的模型,适用于日语角色扮演对话生成。
大型语言模型
Transformers

日语
Q
Aratako
54
2
Qwen2.5 Coder 1.5B Instruct Reasoning
Gpl-3.0
基于Qwen2.5-Coder-1.5B-Instruct微调的代码推理模型,增强了编程问题解决和逻辑推理能力
大型语言模型
支持多种语言
Q
bunyaminergen
130
1
Gemma 2 9b It Russian Function Calling GGUF
Apache-2.0
该模型是基于google/gemma-2-9b-it针对函数调用任务进行微调的版本,训练数据完全由人工标注,使用了俄语版本的DiTy/function-calling数据集。
大型语言模型
其他
G
DiTy
509
23
Mol Llama 3.1 8B Instruct
Apache-2.0
Mol-LLaMA是基于Llama-3.1-8B-Instruct的分子理解大语言模型,专注于生物学、化学和医学领域的分子特性理解和推理。
大型语言模型
Transformers

英语
M
DongkiKim
1,266
3
Anon
Apache-2.0
基于lmms-lab/llava-onevision-qwen2-7b-ov模型微调的版本,支持视频文本到文本的转换任务。
文本生成文本
英语
A
aiden200
361
0
Sarashina2.2 3b RP V0.1
MIT
基于sbintuitions/sarashina2.2-3b-instruct-v0.1微调的专用于角色扮演的日语大语言模型
大型语言模型
Transformers

日语
S
Aratako
57
4
Food Embeddings2
这是一个从sentence-transformers/all-mpnet-base-v2微调而来的句子转换器模型,可将文本映射到768维向量空间,用于语义相似度计算等任务。
文本嵌入
F
jonny9f
115
1
Fanformer 1B
MIT
FANformer-1B是通过创新周期性机制增强语言建模能力的自回归模型,具有11亿非嵌入参数,训练token量达1万亿。
大型语言模型
Transformers

英语
F
dongyh
114
2
Mental Health Harmonisation 1
这是一个基于sentence-transformers/all-mpnet-base-v2微调的句子转换器模型,用于将文本映射到768维向量空间,支持语义相似度计算等任务。
文本嵌入
M
harmonydata
132
2
Coherence All Mpnet Base V2
基于sentence-transformers/all-mpnet-base-v2微调的交叉编码器模型,用于评估对话回答的连贯性和相关性。
对话系统
Transformers

英语
C
enochlev
494
3
Zhtw En
专注于将台湾风格繁体中文翻译成英文的微调模型
机器翻译
Transformers

支持多种语言
Z
agentlans
23
1
Speecht5 Finetuned Voxpopuli Lt
MIT
基于microsoft/speecht5_tts模型在voxpopuli数据集上微调的文本转语音模型
语音合成
Transformers

S
hungphan111
19
0
Parler Tts Mini V1 Paraspeechcaps Only Base
一个通过文本风格提示控制丰富语音风格的文本转语音模型
语音合成
Transformers

英语
P
ajd12342
17
1
Hamanasu 7B Instruct Gguf
基于Mistral-7B-V0.3微调的指令跟随模型,专为角色扮演和故事创作优化
大型语言模型
H
Delta-Vector
105
2
Fulltrain Xsum Bart
MIT
基于XSum数据集微调的BART-large模型,用于生成英文抽象摘要
文本生成
Transformers

英语
F
bhargavis
108
1
Motarjem V0.1
Apache-2.0
基于Helsinki-NLP/opus-mt-en-ar微调的英阿翻译模型,在评估集上取得29.991的BLEU分数
机器翻译
Transformers

M
abdeljalilELmajjodi
17
1
Rigochat 7b V2
其他
RigoChat-7b-v2是基于Qwen-2.5的西班牙语优化模型,通过DPO微调提升性能,专注于西班牙语查询的准确响应。
大型语言模型
Transformers

西班牙语
R
IIC
776
19
Masrawy English Arabic Translator
Apache-2.0
基于Helsinki-NLP/opus-mt-en-ar微调的英语-阿拉伯语翻译模型,特别针对埃及方言优化
机器翻译
TensorBoard

支持多种语言
M
oddadmix
14
2
Turkish Finetuned Speecht5 Tts
MIT
基于微软SpeechT5 TTS模型微调的土耳其语文本转语音模型,专注于高质量土耳其语语音合成
语音合成
Transformers

T
Omarrran
69
1
Speecht5 Fine Tune En
MIT
基于微软SpeechT5模型微调的英文语音合成(TTS)模型,专注于技术领域文本的语音生成
语音合成
Transformers

英语
S
Solo448
16
0
Shisa V1 Llama3 8b
基于Meta-Llama-3-8B-Instruct微调的日语优化大语言模型,在多个日语基准测试中表现优异
大型语言模型
Transformers

S
shisa-ai
28
6
Minicpm Llama3 V 2 5
MiniCPM-V 2.6是OpenBMB推出的多模态大模型,在单图、多图及视频理解任务上超越GPT-4V,支持iPad端实时视频理解。
图像生成文本
Transformers

其他
M
openbmb
31.48k
1,394
Mistral 7B Banking V2
Apache-2.0
基于Mistral-7B微调的银行业务专用大语言模型,专注于银行交易和客户支持场景
大型语言模型
Transformers

M
bitext
97
1
Codeparrot Ds Distilgpt2
Apache-2.0
基于distilgpt2微调的代码生成模型,适用于代码相关任务
大型语言模型
Transformers

C
zhuchi76
35
1
Cabrallama3 8b
基于Meta-Llama-3-8B-Instruct的增强版本,通过卡布拉30k数据集进行微调优化,特别针对葡萄牙语理解和应答进行了专项优化。
大型语言模型
支持多种语言
C
botbot-ai
66
19
LLM SQL BaseDatosEspanol Mistral
Apache-2.0
支持西班牙语的多模态数据库交互工具,通过语音/文本指令生成SQL查询,并以最适合的模态(语音/文本/图像)返回结果
文本生成图像
Transformers

西班牙语
L
somosnlp
48
11
Minicpm 1B Sft Bf16
MiniCPM是面壁智能与清华大学自然语言处理实验室联合研发的端侧大语言模型系列,核心模型仅含12亿非词嵌入参数,在多项评测中超越更大规模的开源模型。
大型语言模型
Transformers

支持多种语言
M
openbmb
638
18
Text Summarization Cnn
Apache-2.0
基于Falconsai/text_summarization微调的文本摘要生成模型,支持从长文本中提取关键信息生成简洁摘要。
文本生成
Transformers

T
vmkhoa2000
125
0
Mental Health FineTuned Mistral 7B Instruct V0.2
Apache-2.0
这是一个基于Mistral-7B-Instruct-v0.2微调的心理健康咨询对话模型,专门用于生成心理健康相关的对话回复。
大型语言模型
Transformers

M
prabureddy
134
6
Jambatypus V0.1
Apache-2.0
基于Jamba-v0.1在Open-Platypus-Chat数据集上通过QLoRA微调的大语言模型,支持对话任务
大型语言模型
Transformers

英语
J
mlabonne
21
39
Samantha PL AG Mistral 7B V0.2
基于Mistral-7B-v0.2微调的波兰语对话模型,专注于提供流畅自然的对话体验
大型语言模型
S
AdamGrzesik
77
3
Cabraqwen7b
CC
基于千问1.5 7b聊天版微调的葡萄牙语优化模型,在多项巴西基准测试中表现优异
大型语言模型
支持多种语言
C
botbot-ai
15
4
JARVIS
Apache-2.0
基于因果语言建模(CLM)架构的对话AI,专为自然语言交互设计,能够生成连贯且符合上下文的响应。
大型语言模型
Transformers

支持多种语言
J
VAIBHAV22334455
38
12
Speech T5 Ur
MIT
基于microsoft/speecht5_tts在fleurs数据集上微调的乌尔都语语音合成模型
语音合成
Transformers

其他
S
Pak-Speech-Processing
38
0
Norgpt 3B Rfhl Summarization
基于NorGPT-3B模型,采用RLHF策略在挪威语新闻摘要数据集上微调的文本摘要模型
文本生成
Transformers

其他
N
NorGLM
56
0
Mt5 Small Finetuned Cnndailymail En
Apache-2.0
基于google/mt5-small模型在cnn_dailymail数据集上微调的摘要生成模型
文本生成
Transformers

M
Skier8402
16
0
Einstein V4 7B
其他
Einstein-v4-7B是基于Mistral-7B-v0.1在多样化科学数据集上完整微调的大语言模型,专注于STEM领域任务
大型语言模型
Transformers

英语
E
Weyaxi
43
49
Mt5 Small Finetuned Cnn Dailymail En Nlp Course Chapter7 Section4
Apache-2.0
基于google/mt5-small微调的摘要生成模型,在CNN/DailyMail数据集上训练,适用于英文文本摘要任务。
文本生成
Transformers

M
BanUrsus
68
0
Rut5 Base Summ Dialogsum
基于d0rj/rut5-base-summ微调的俄语对话摘要模型,在DialogSum数据集上训练
文本生成
Transformers

R
Kekega
15
1
Marian Finetuned Iitb En To Hi
这是一个基于Marian框架的英语到印地语神经机器翻译模型,由印度理工学院孟买分校微调
机器翻译
Transformers

M
Shiva26
53
1
- 1
- 2
- 3
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文