Lite Whisper Large V3 Turbo Fast
Apache-2.0
Lite-Whisper 是 OpenAI Whisper 的压缩版本,采用 LiteASR 技术,在保持较高准确率的同时显著减小模型体积。
语音识别
Transformers

L
efficient-speech
99
2
Lite Whisper Large V3
Apache-2.0
Lite-Whisper是基于OpenAI Whisper的压缩版本,采用LiteASR技术,在保持较高准确率的同时减小了模型大小。
语音识别
Transformers

L
efficient-speech
70
2
Meno Tiny 0.1
Apache-2.0
基于Qwen2.5-1.5B-Instruct微调的俄语指令优化模型,15亿参数,支持俄英双语,擅长RAG流程中的文本问答
大型语言模型
Transformers

支持多种语言
M
bond005
764
10
Ruri Reranker Stage1 Small
Apache-2.0
琉璃重排序器是一个日语通用重排序模型,专门用于提升日语文本检索结果的相关性排序。
文本嵌入
日语
R
cl-nagoya
25
0
Lamini Prompt Enchance
该模型是基于MBZUAI/LaMini-Flan-T5-248M微调的提示增强模型,主要用于文本描述增强任务。
文本生成
Transformers

L
gokaygokay
930
4
Drug Ollama V3 2
该模型是基于open_llama_3b使用H2O LLM Studio训练的大语言模型,专注于药物相关领域的文本生成任务。
大型语言模型
Transformers

英语
D
Ketak-ZoomRx
99
3
Bk Sdm Small
Openrail
BK-SDM是通过架构压缩的稳定扩散模型,用于高效通用文生图合成,通过移除U-Net中的残差和注意力块实现轻量化。
图像生成
B
nota-ai
745
31
Deeplabv3 Mobilevit Xx Small
其他
基于PASCAL VOC数据集预训练的轻量级语义分割模型,结合MobileViT和DeepLabV3架构
图像分割
Transformers

D
apple
1,571
10
Deeplabv3 Mobilevit X Small
其他
轻量级视觉Transformer模型,结合MobileNetV2与Transformer模块,适用于移动端语义分割任务。
图像分割
Transformers

D
apple
268
3
Mobilevit Xx Small
其他
MobileViT是一种轻量级、低延迟的视觉Transformer模型,结合了CNN和Transformer的优势,适合移动设备使用。
图像分类
Transformers

M
apple
6,077
16
Mobilevit X Small
其他
MobileViT是一种轻量级、低延迟的视觉Transformer模型,结合了CNN和Transformer的优势,适用于移动端设备。
图像分类
Transformers

M
apple
1,062
6
Bert Base Uncased Squadv1 X1.96 F88.3 D27 Hybrid Filled Opt V1
MIT
基于BERT-base uncased模型在SQuAD v1上微调并优化的问答模型,通过剪枝技术保留43%原始权重,推理速度提升1.96倍
问答系统
Transformers

英语
B
madlag
20
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文