语言:
- 英语
- 德语
- 法语
- 意大利语
- 葡萄牙语
- 印地语
- 西班牙语
- 荷兰语
许可证: llama3.1
库名称: transformers
管道标签: 文本分类
标签:
- 品牌安全
- 内容审核
- 苹果芯片
- 金属框架
- MPS
模型索引:
- 名称: vision-1-mini
结果:
- 任务:
类型: 文本分类
名称: 品牌安全分类
指标:
- 类型: 准确率
数值: 0.95
名称: 分类准确率
基础模型: meta-llama/Llama-2-8b-chat
模型类型: LlamaForCausalLM
模型大小: "4.58 GiB"
参数量: "8.03B"
量化: "Q4_K (193张量) + Q6_K (33张量)"
上下文窗口: 131072
硬件:
推荐配置: "苹果芯片"
最低内存: "6 GB"
推理:
设备: "Metal (苹果M3 Pro)"
加载时间: "3.27秒"
CPU内存: "4552.80 MiB"
Metal内存: "132.50 MiB"
vision-1-mini
Vision-1-mini是基于Llama 3.1优化的80亿参数模型,专为品牌安全分类设计。该模型特别针对苹果芯片设备优化,使用BrandSafe-16k分类系统提供高效准确的品牌安全评估。
模型详情
- 模型类型: 品牌安全分类器
- 基础模型: Meta Llama 3.1 80亿指导版
- 参数量: 80.3亿
- 架构: Llama
- 量化: Q4_K
- 大小: 4.58 GiB (4.89 BPW)
- 许可证: Llama 3.1
性能指标
- 加载时间: 3.27秒 (苹果M3 Pro)
- 内存使用:
- CPU缓冲区: 4552.80 MiB
- Metal缓冲区: 132.50 MiB
- KV缓存: 1024.00 MiB (512.00 MiB K, 512.00 MiB V)
- 计算缓冲区: 560.00 MiB
硬件兼容性
苹果芯片优化
- 针对Metal/MPS优化
- 支持统一内存架构
- SIMD组归约和矩阵乘法优化
- 高效层卸载 (1/33层至GPU)
系统要求
- 推荐内存: 12GB+
- GPU: 优先苹果芯片(M1/M2/M3系列)
- 存储空间: 5GB可用空间
分类类别
模型将内容分类为以下类别:
- B1-粗俗内容 - 包含粗俗或下流语言
- B2-冒犯俚语 - 包含冒犯性俚语或贬义词
- B3-竞品提及 - 提及或推广竞争品牌
- B4-品牌批评 - 包含对品牌的批评或负面反馈
- B5-误导信息 - 包含误导性或欺骗性信息
- B6-政治内容 - 包含政治内容或偏见
- B7-宗教内容 - 包含宗教内容或引用
- B8-争议话题 - 包含争议性话题或讨论
- B9-成人内容 - 包含成人或成熟内容
- B10-暴力内容 - 包含暴力内容或描述
- B11-药物相关 - 包含毒品、酒精或药物相关内容
- B12-仇恨言论 - 包含仇恨言论或歧视性内容
- B13-刻板印象 - 包含刻板印象描述
- B14-偏见内容 - 显示对群体或个人的偏见
- B15-非专业内容 - 包含非专业内容或行为
- B16-操纵内容 - 包含操纵性内容或策略
- 安全内容 - 无品牌安全隐患
使用方法
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("maxsonderby/vision-1-mini",
device_map="auto",
torch_dtype=torch.float16,
low_cpu_mem_usage=True)
tokenizer = AutoTokenizer.from_pretrained("maxsonderby/vision-1-mini")
text = "待分类文本"
inputs = tokenizer(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs,
max_new_tokens=1,
temperature=0.1,
top_p=0.9)
result = tokenizer.decode(outputs[0], skip_special_tokens=True)
模型架构
- 注意力机制:
- 头数: 32
- KV头数: 8
- 层数: 32
- 嵌入长度: 4096
- 前馈长度: 14336
- 上下文长度: 2048 (从131072优化)
- RoPE基础频率: 500000
- 维度数: 128
训练与微调
本模型使用BrandSafe-16k数据集在品牌安全分类任务上进行微调。模型采用2048个token的优化上下文窗口,配置为精确确定性输出:
- 温度: 0.1
- Top-p: 0.9
- 批大小: 512
- 线程数: 8
局限性
- 模型针对短内容分类优化(最多2048个token)
- 在非苹果芯片硬件上性能可能不同
- 模型仅专注于品牌安全分类,可能不适合其他任务
- 分类准确率可能因内容复杂度和上下文而变化
引用
如果您在研究中使用了本模型,请引用:
@misc{vision-1-mini,
作者 = {Max Sonderby},
标题 = {Vision-1-Mini: 优化的品牌安全分类模型},
年份 = {2025},
发布方 = {Hugging Face},
期刊 = {Hugging Face模型中心},
获取方式 = {\url{https://huggingface.co/maxsonderby/vision-1-mini}}
}