Janus Pro 7B
MIT
Janus-Pro 是一种新颖的自回归框架,统一了多模态理解和生成。
文本生成图像
Transformers

J
Athagi
15
1
Kosmos 2 PokemonCards Trl Merged
这是一个基于微软Kosmos-2模型微调的多模态模型,专门用于识别宝可梦卡牌中的宝可梦名称。
图像生成文本
Transformers

英语
K
Mit1208
51
1
Yi Ko 6B
Apache-2.0
Yi-Ko-6B是01-ai/Yi模型的进阶版本,通过扩展词汇表并加入韩语/英语语料进行进一步预训练,支持韩英双语文本生成。
大型语言模型
Transformers

支持多种语言
Y
beomi
3,183
37
Goliath 120b
巨人120B是通过合并两个经过微调的Llama-2 70B模型创建的自回归因果语言模型,支持对话式任务。
大型语言模型
Transformers

英语
G
alpindale
620
238
Molgen 7b
Apache-2.0
基于分子语言SELFIES构建的大型分子生成模型,可用于从头生成分子或补全部分分子结构。
分子模型
Transformers

M
zjunlp
150
8
Xgen 7b 8k Base
Apache-2.0
Salesforce AI Research发布的7B参数大语言模型,支持8K长序列输入,基于Apache-2.0协议开源
大型语言模型
Transformers

X
Salesforce
997
318
Musicgen Medium
MusicGen是一款基于文本描述或音频提示生成高质量音乐样本的文本转音乐模型,采用15亿参数的自回归Transformer架构。
音频生成
Transformers

M
facebook
1.5M
118
Decapoda Research Llama 7B Hf
其他
LLaMA是Meta AI开发的高效基础语言模型,提供7B到65B不同参数量级,基于Transformer架构,适用于多种自然语言处理任务。
大型语言模型
Transformers

D
baffo32
12.29k
63
Biomedlm
Openrail
BioMedLM 2.7B 是一个专门针对生物医学文本训练的 27 亿参数语言模型,在生物医学 NLP 任务中表现出色。
大型语言模型
Transformers

B
stanford-crfm
14.51k
422
Donut Proto
MIT
Donut是一种无需OCR的文档理解Transformer模型,结合视觉编码器和文本解码器处理图像到文本的转换
图像生成文本
Transformers

D
naver-clova-ix
30
7
Donut Base
MIT
Donut是一种无需OCR的文档理解Transformer模型,由视觉编码器(Swin Transformer)和文本解码器(BART)组成。
图像生成文本
Transformers

D
naver-clova-ix
50.34k
207
Assignment1 Maria
MIT
s2t-small-librispeech-asr 是一个用于自动语音识别(ASR)的语音到文本转换器(S2T)模型,基于序列到序列的转换器架构。
语音识别
Transformers

英语
A
Classroom-workshop
23
0
Assignment1 Joane
MIT
一个用于自动语音识别(ASR)的语音到文本转换器(S2T)模型
语音识别
Transformers

英语
A
Classroom-workshop
22
0
Assignment1 Jack
MIT
一个用于自动语音识别(ASR)的语音到文本转换器(S2T)模型,基于序列到序列转换器架构
语音识别
Transformers

英语
A
Classroom-workshop
24
0
Assignment1 Jane
MIT
s2t-small-librispeech-asr 是一个用于自动语音识别(ASR)的语音到文本转换器(S2T)模型,基于序列到序列转换器架构。
语音识别
Transformers

英语
A
Classroom-workshop
29
0
S2t Small Librispeech Asr
MIT
一个用于自动语音识别(ASR)的语音到文本转换器(S2T)模型,基于序列到序列转换器架构
语音识别
Transformers

英语
S
facebook
10.92k
27
S2t Large Librispeech Asr
MIT
一个用于自动语音识别(ASR)的端到端序列到序列转换器模型,基于LibriSpeech数据集训练
语音识别
Transformers

英语
S
facebook
422
10
Fr Boris
MIT
Boris 是一个基于 GPT-J 架构、拥有60亿参数的自回归语言模型,专注于法语文本处理。
大型语言模型
Transformers

法语
F
Cedille
3,085
39
Rebel Large
REBEL是一种基于BART的序列到序列模型,用于端到端关系抽取,支持200多种不同关系类型。
知识图谱
Transformers

英语
R
Babelscape
37.57k
219
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文