Sonics Spectttra Gamma 5s
MIT
用于检测端到端AI生成歌曲的先进模型,特别擅长捕捉长时音频特征
音频分类
英语
S
awsaf49
119
0
Gliner Biomed Bi Large V1.0
Apache-2.0
GLiNER-BioMed是基于GLiNER框架的专为生物医学领域设计的高效开放NER模型套件,能够识别多种类型的生物医学实体。
序列标注
英语
G
Ihor
56
1
Gliner Biomed Bi Base V1.0
Apache-2.0
GLiNER-BioMed是基于GLiNER框架的高效开放生物医学命名实体识别模型套件,专为生物医学领域设计,能够识别多种实体类型。
序列标注
英语
G
Ihor
25
1
Gliner Biomed Large V1.0
Apache-2.0
GLiNER-BioMed是基于GLiNER框架的专门高效开放生物医学NER模型套件,在生物医学实体识别任务中实现了最先进的零样本和小样本性能。
序列标注
PyTorch
英语
G
Ihor
163
6
Janus Pro 1B
MIT
Janus-Pro 是一种新颖的自回归框架,统一了多模态理解与生成能力。
文本生成图像
Transformers

J
deepseek-ai
34.02k
432
Deepseek Llm 7B Base AWQ
其他
Deepseek LLM 7B Base 是一个7B参数规模的基础大语言模型,采用AWQ量化技术优化推理效率。
大型语言模型
Transformers

D
TheBloke
1,863
2
Ced Tiny
Apache-2.0
CED-Tiny 是基于ViT-Transformer的简易音频标注模型,在Audioset上实现了最先进的性能表现。
音频分类
Transformers

C
mispeech
54
2
Ced Small
Apache-2.0
CED是基于ViT-Transformer的简易音频标注模型,在Audioset上实现了最先进的性能表现。
音频分类
Transformers

C
mispeech
18
0
Xlm Roberta Longformer Base 4096
Apache-2.0
基于XLM-R扩展的长序列处理模型,支持最长4096标记的序列处理,适用于多语言任务
大型语言模型
Transformers

其他
X
markussagen
9,499
37
Bigbird Roberta Large
Apache-2.0
BigBird是一种基于稀疏注意力的Transformer模型,能够处理长达4096的序列,适用于长文档任务。
大型语言模型
英语
B
google
1,152
27
Electra Large Generator
Apache-2.0
ELECTRA是一种高效的自监督语言表示学习方法,通过判别式预训练替代传统生成式预训练,显著提升计算效率。
大型语言模型
英语
E
google
473
8
Fnet Base Finetuned Qqp
Apache-2.0
该模型是在GLUE QQP数据集上对google/fnet-base进行微调的版本,用于文本分类任务,特别针对Quora问题对是否重复的问题。
文本分类
Transformers

英语
F
gchhablani
14
0
Fnet Base Finetuned Sst2
Apache-2.0
基于谷歌FNet架构在SST-2情感分析数据集上微调的文本分类模型
文本分类
英语
F
gchhablani
16
1
Xlm Roberta Longformer Base 4096
Apache-2.0
基于XLM-RoBERTa扩展的长序列模型,支持最长4096标记的序列处理,适用于多语言任务
大型语言模型
Transformers

其他
X
Peltarion
64
8
Distilbert Base En Es Pt Cased
Apache-2.0
这是distilbert-base-multilingual-cased的精简版本,支持英语、西班牙语和葡萄牙语,保持了原始模型的准确率。
大型语言模型
Transformers

其他
D
Geotrend
17
0
Albert Xxlarge V1
Apache-2.0
ALBERT XXLarge v1是基于英语语料、采用掩码语言建模(MLM)目标预训练的Transformer模型,具有参数共享特性。
大型语言模型
Transformers

英语
A
albert
930
5
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文