Tooka SBERT V2 Large
专为波斯语设计的语义文本相似度和嵌入模型,能将句子映射到密集向量空间,使语义相近的文本在空间中彼此靠近。
文本嵌入
T
PartAI
127
1
Olmo 2 0425 1B SFT
Apache-2.0
OLMo 2 1B SFT是基于OLMo-2-0425-1B模型的监督微调版本,在Tulu 3数据集上训练,旨在实现多种任务的最先进性能。
大型语言模型
Transformers

英语
O
allenai
1,759
2
Sanskrit Qwen 7B Translate
Apache-2.0
基于Qwen2.5-7B微调的梵语专用模型,优化了梵语理解和翻译能力
大型语言模型
Transformers

S
diabolic6045
229
2
DPO A5 Nlp
TRL 是一个基于 Transformer 架构的强化学习库,用于训练和微调语言模型。
大型语言模型
Transformers

D
EraCoding
26
1
Qwen2.5 0.5B Portuguese V1
MIT
基于Qwen2.5-0.5B-Instruct微调的葡萄牙语大语言模型,专注于文本生成任务
大型语言模型
其他
Q
cnmoro
2,218
4
Modernbert Large Nli
Apache-2.0
基于ModernBERT-large模型,通过多任务微调优化的自然语言推理模型,在零样本分类和NLI任务上表现优异。
大型语言模型
Transformers

支持多种语言
M
tasksource
61.52k
5
Modernbert Base Nli
Apache-2.0
ModernBERT 是一个在多任务源的自然语言推理(NLI)任务上微调的模型,擅长零样本分类和长上下文推理。
大型语言模型
Transformers

支持多种语言
M
tasksource
1,867
20
Paligemma2 28b Mix 448
PaliGemma 2是基于Gemma 2的视觉语言模型,支持图像+文本输入,输出文本响应,适用于多种视觉语言任务。
图像生成文本
Transformers

P
google
198
26
Paligemma2 10b Mix 224
PaliGemma 2是基于Gemma 2的视觉语言模型,支持图像和文本输入,生成文本输出,适用于多种视觉语言任务。
图像生成文本
Transformers

P
google
701
7
Paligemma2 3b Mix 448
PaliGemma 2是基于Gemma 2的视觉语言模型,支持图像与文本输入,输出生成文本,适用于多种视觉语言任务。
图像生成文本
Transformers

P
google
20.55k
44
Camembertav2 Base
MIT
CamemBERTav2是基于2750亿法语文本标记预训练的法语语言模型,采用DebertaV2架构,在多个法语NLP任务上表现优异。
大型语言模型
Transformers

法语
C
almanach
2,972
19
Greekbart
MIT
GreekBART是基于BART的希腊语序列到序列预训练模型,特别适合生成任务如摘要生成。
大型语言模型
Transformers

其他
G
dascim
34
0
USER Bge M3
Apache-2.0
俄语通用句子编码器,基于sentence-transformers框架,专门为俄语文本提取1024维稠密向量
文本嵌入
其他
U
deepvk
339.46k
58
Deberta Base Long Nli
Apache-2.0
基于DeBERTa-v3-base模型,上下文长度扩展至1280,并在tasksource数据集上进行了25万步的微调,专注于自然语言推理和零样本分类任务。
大型语言模型
Transformers

D
tasksource
541
23
Bert Medium Amharic
基于bert-medium架构预训练的阿姆哈拉语模型,参数量4050万,在2.9亿词元上训练,性能媲美更大规模的多语言模型。
大型语言模型
Transformers

其他
B
rasyosef
2,661
1
Akallama Llama3 70b V0.1 GGUF
其他
AkaLlama是基于Meta-Llama-3-70b-Instruct微调的韩语大模型,专注于多任务实际应用
大型语言模型
支持多种语言
A
mirlab
414
15
Phico D Instruck
MIT
基于T5-base微调的指令跟随模型,专为理解并执行复杂指令设计
大型语言模型
Transformers

支持多种语言
P
acecalisto3
19
2
Paligemma 3b Ft Refcoco Seg 896
PaliGemma是Google开发的轻量级视觉语言模型,基于SigLIP视觉模型和Gemma语言模型构建,支持多语言文本生成和视觉理解任务。
图像生成文本
Transformers

P
google
20
6
Yi 1.5 9B
Apache-2.0
Yi-1.5是Yi模型的升级版本,在编程、数学、推理和指令遵循能力方面表现更出色,同时保持了优秀的语言理解、常识推理和阅读理解能力。
大型语言模型
Transformers

Y
01-ai
6,140
48
Yi 1.5 34B Chat 16K
Apache-2.0
Yi-1.5 是 Yi 模型的升级版本,在编程、数学、推理和指令遵循能力方面表现更出色。
大型语言模型
Transformers

Y
01-ai
807
27
Tookabert Base
Apache-2.0
TookaBERT是基于波斯语训练的编码器模型家族,包含基础版和大规模版两个版本,适用于多种自然语言处理任务。
大型语言模型
Transformers

其他
T
PartAI
127
24
Openelm 3B Instruct
OpenELM是一组开源高效语言模型,采用分层参数分配策略提升模型精度,包含2.7亿至30亿参数的预训练及指令调优版本。
大型语言模型
Transformers

O
apple
8,716
333
Openelm 3B
OpenELM是一组开源高效语言模型,采用分层缩放策略优化参数分配,提升模型准确率。
大型语言模型
Transformers

O
apple
1,436
123
Configurablesolar 10.7B
Apache-2.0
一个可配置的大型语言模型,采用可配置安全调优(CST)方法微调,支持通过系统提示配置不同行为模式。
大型语言模型
Transformers

C
vicgalle
1,772
3
Hyperion 2.0 Mistral 7B
Apache-2.0
基于Hyperion-v2.0数据集微调的多领域语言模型,擅长科学推理和复杂任务处理。
大型语言模型
Transformers

支持多种语言
H
Locutusque
16
6
Kafkalm 70B German V0.1
基于Llama2 70B开发的德语大语言模型,专注于德语商务场景应用
大型语言模型
Transformers

德语
K
seedboxai
159
18
H2o Danube 1.8b Base
Apache-2.0
H2O.ai训练的18亿参数基础语言模型,基于改进的Llama 2架构,支持16K上下文长度
大型语言模型
Transformers

英语
H
h2oai
281
43
Kanarya 750m
Apache-2.0
金丝雀-750M是一个预训练的土耳其语GPT-J 750M模型,属于土耳其数据仓库计划的一部分。
大型语言模型
其他
K
asafaya
2,749
10
Vikhrt5 3b
Apache-2.0
基于FLAN T5 3b优化的俄语模型,性能优于FRED T5XL
大型语言模型
Transformers

其他
V
Vikhrmodels
35
8
Biot5 Base
MIT
BioT5是一个专注于生物学和化学领域的T5模型,通过化学知识与自然语言关联增强生物学中的跨模态整合。
大型语言模型
Transformers

英语
B
QizhiPei
202
8
Sentence Camembert Base
Apache-2.0
基于CamemBERT的法语句子嵌入模型,通过增强SBERT方法在stsb数据集上微调,实现最先进的法语句子相似度计算
文本嵌入
法语
S
Lajavaness
1,041
5
Sentence Camembert Large
Apache-2.0
基于CamemBERT-large的法语句子嵌入模型,提供强大的语义搜索能力
文本嵌入
法语
S
Lajavaness
3,729
8
Distilroberta Nli
Apache-2.0
该模型是基于DistilRoBERTa的轻量级自然语言推理模型,支持零样本分类任务。
文本分类
Transformers

英语
D
matekadlicsko
18
0
Deberta V3 Large Zeroshot V1
MIT
专为零样本分类任务设计的DeBERTa-v3模型,在多种分类任务上表现优异
文本分类
Transformers

英语
D
MoritzLaurer
10.72k
19
Gpt1
MIT
OpenAI发布的基于Transformer的语言模型,通过大规模语料库预训练而成,具有强大的文本生成能力
大型语言模型
Transformers

英语
G
lgaalves
310
5
Mental Alpaca
这是一个通过在线文本数据进行心理健康预测的微调大型语言模型。
大型语言模型
Transformers

英语
M
NEU-HAI
180
9
Camel Platypus2 70B
Camel-Platypus2-70B 是由 Platypus2-70B 和 qCammel-70-x 合并而成的大型语言模型,基于 LLaMA 2 架构,专注于 STEM 和逻辑推理任务。
大型语言模型
Transformers

英语
C
garage-bAInd
114
15
Tiroberta Abusiveness Detection
基于TiRoBERTa微调的提格里尼亚语侮辱性内容检测模型,在13,717条YouTube评论数据集上训练
文本分类
Transformers

T
fgaim
210
2
Ziya LLaMA 13B V1
Gpl-3.0
基于LLaMa架构的130亿参数预训练模型,具备翻译、编程、文本分类、信息抽取、摘要生成、文案创作、常识问答及数学计算等能力
大型语言模型
Transformers

支持多种语言
Z
IDEA-CCNL
219
275
All Mpnet Base V2
Apache-2.0
基于MPNet架构的句子嵌入模型,可将文本映射到768维向量空间,适用于语义搜索和文本相似度任务
文本嵌入
英语
A
diptanuc
138
1
- 1
- 2
- 3
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文