Ayaf
A
Ayaf
由 AyaF 开发
ArSL VIT 是一个基于 Vision Transformer (VIT) 架构的图像分类模型,专门用于阿拉伯手语识别任务。
下载量 12
发布时间 : 12/2/2022
模型简介
该模型采用 Vision Transformer 架构,专注于阿拉伯手语图像的分类任务,具有高准确率和优秀的性能表现。
模型特点
高准确率
在阿拉伯手语识别任务中达到 99.35% 的准确率。
基于 Vision Transformer
采用先进的 Vision Transformer 架构,能够有效捕捉图像中的全局特征。
全面的评估指标
提供准确率、精确率、召回率和 F1 分数等多种评估指标。
模型能力
阿拉伯手语图像分类
高精度图像识别
使用案例
无障碍技术
阿拉伯手语翻译
用于实时翻译阿拉伯手语为文本或语音,帮助听障人士沟通。
高准确率的手语识别
教育
手语学习辅助
辅助学习者练习和评估阿拉伯手语的准确性。
提供即时反馈
精选推荐AI模型
Qwen2.5 VL 7B Abliterated Caption It I1 GGUF
Apache-2.0
Qwen2.5-VL-7B-Abliterated-Caption-it的量化版本,支持多语言图像描述任务。
图像生成文本
Transformers 支持多种语言

Q
mradermacher
167
1
Nunchaku Flux.1 Dev Colossus
其他
Colossus Project Flux 的 Nunchaku 量化版本,旨在根据文本提示生成高质量图像。该模型在优化推理效率的同时,将性能损失降至最低。
图像生成 英语
N
nunchaku-tech
235
3
Qwen2.5 VL 7B Abliterated Caption It GGUF
Apache-2.0
这是一个基于Qwen2.5-VL-7B模型的静态量化版本,专注于图像描述生成任务,支持多种语言。
图像生成文本
Transformers 支持多种语言

Q
mradermacher
133
1
Olmocr 7B 0725 FP8
Apache-2.0
olmOCR-7B-0725-FP8是基于Qwen2.5-VL-7B-Instruct模型,使用olmOCR-mix-0225数据集微调后量化为FP8版本的文档OCR模型。
图像生成文本
Transformers 英语

O
allenai
881
3
Lucy 128k GGUF
Apache-2.0
Lucy-128k是基于Qwen3-1.7B开发的专注于代理式网络搜索和轻量级浏览的模型,在移动设备上也能高效运行。
大型语言模型
Transformers 英语

L
Mungert
263
2