Plamo 2 Translate
其他
由Preferred Networks开发的专用于翻译任务的大规模语言模型,支持英语和日语互译
机器翻译
Transformers

支持多种语言
P
pfnet
381
27
ELYZA Shortcut 1.0 Qwen 32B
Apache-2.0
ELYZA-Shortcut-1.0-Qwen-32B是基于Qwen2.5-32B-Instruct开发的非推理模型,能够绕过推理步骤直接生成最终答案。
大型语言模型
Transformers

支持多种语言
E
elyza
172
2
Qwen 2 Audio Instruct Dynamic Fp8
Apache-2.0
Qwen2-Audio是Qwen大音频语言模型系列的最新版本,能够接收多种音频信号输入,并根据语音指令执行音频分析或直接生成文本响应。
文本生成音频
Transformers

英语
Q
mlinmg
24
0
Opencodereasoning Nemotron 14B
Apache-2.0
OpenCodeReasoning-Nemotron-14B 是一个专为代码生成推理而进行后训练的大型语言模型,支持32K令牌的上下文长度。
大型语言模型
Transformers

支持多种语言
O
nvidia
247
18
Pagnol Xl
MIT
PAGnol是一系列面向自由文本生成的大规模法语语言模型,拥有15亿参数。
大型语言模型
Transformers

法语
P
lightonai
71
1
Grok 1
Apache-2.0
Grok-1是由xAI开发的大型语言模型,拥有3140亿参数,适用于文本生成任务。
大型语言模型
G
xai-org
282
2,301
Nekomata 14b Instruction Gguf
其他
该模型是rinna/nekomata-14b-instruction的GGUF版本,可与llama.cpp配合实现轻量级推理。
大型语言模型
支持多种语言
N
rinna
89
11
Flan T5 Xxl
Apache-2.0
FLAN-T5是基于T5改进的指令微调语言模型,在相同参数量下通过1000多项多语言任务微调实现更优性能
大型语言模型
支持多种语言
F
google
157.41k
1,238
Flan T5 Xl
Apache-2.0
FLAN-T5 XL是基于T5架构的指令微调语言模型,在1000+任务上微调后,多语言和少样本性能显著提升。
大型语言模型
支持多种语言
F
google
257.40k
494
Ernie 3.0 Base Zh
ERNIE 3.0是一个面向中文语言理解与生成的大规模知识增强预训练模型,由百度研究院开发。
大型语言模型
Transformers

中文
E
nghuyong
4,628
100
Opt 350m
其他
OPT是由Meta AI开发的开源预训练Transformer语言模型,参数规模从1.25亿到1750亿不等,旨在促进大规模语言模型的研究。
大型语言模型
英语
O
facebook
314.14k
141
Indobert Large P1
MIT
IndoBERT 是基于 BERT 模型的印度尼西亚语先进语言模型,通过掩码语言建模和下一句预测目标进行训练。
大型语言模型
其他
I
indobenchmark
1,686
4
Bert Large Chinese
基于Transformer架构的大型中文预训练语言模型,由海量中文文本训练而成。
大型语言模型
Transformers

B
algolet
80
4
Xlm Mlm En 2048
XLM是基于英语文本训练的掩码语言模型,采用BERT风格的MLM目标进行预训练,支持英语语言处理任务。
大型语言模型
Transformers

英语
X
FacebookAI
1,734
0
Fairseq Dense 6.7B
这是Artetxe等人论文《Efficient Large Scale Language Modeling with Mixtures of Experts》中原生密集67亿参数模型的Hugging Face transformers适配版
大型语言模型
Transformers

英语
F
KoboldAI
123
3
Fairseq Dense 2.7B
基于Artetxe等人论文《高效大规模语言建模与专家混合方法》的27亿参数稠密模型转换版本
大型语言模型
Transformers

英语
F
KoboldAI
18
3
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文