🚀 ELISARCyberAIEdge7B-LoRA-GGUF
ELISARCyberAIEdge7B-LoRA-GGUF 是一款专为网络安全用例设计的离线就绪、量化的 LLaMA 边缘模型,可有效应对网络安全风险评估等多种场景。
🚀 快速开始
1. 下载模型文件
wget https://huggingface.co/sallani/ELISARCyberAIEdge7B-LoRA-GGUF/resolve/main/elisar_merged.gguf -O elisar_merged.gguf
或者,使用 Hugging Face Hub CLI:
pip install huggingface_hub
huggingface-cli login
huggingface-cli repo clone sallani/ELISARCyberAIEdge7B-LoRA-GGUF
cd ELISARCyberAIEdge7B-LoRA-GGUF
tree
✨ 主要特性
- 离线就绪:可完全在无网络环境下运行推理。
- 量化模型:采用 GGUF 格式并可选量化为 Q4_K_M(4 位),适合资源受限设备。
- 边缘友好:能在 CPU 或低端 GPU 上运行,冷启动速度快。
- 网络安全调优:针对网络安全问题训练,可进行日志分析、恶意软件分类等。
- 体积小巧:量化后的 GGUF 文件小于 5GB。
📦 安装指南
1. llama.cpp(离线推理)
git clone --depth 1 https://github.com/ggml-org/llama.cpp.git
cd llama.cpp
make clean
make CMAKE_CUDA=ON CMAKE_CUDA_ARCH=sm75
2. Python(Transformers) – 可选混合推理
python3 -m venv venv
source venv/bin/activate
pip install torch transformers peft
💻 使用示例
基础用法
A. 使用 llama.cpp
进行离线推理
cd llama.cpp
./main -m ../ELISARCyberAIEdge7B-LoRA-GGUF/elisar_merged.gguf -c 2048 -b 8 -t 8
B. Python / Transformers + PEFT 推理(混合)
from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig
import torch
model_id = "sallani/ELISARCyberAIEdge7B-LoRA-GGUF"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.float16,
device_map="auto",
)
prompt = "You are a blue-team AI assistant. Analyze the following network log for suspicious patterns: ..."
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
gen_config = GenerationConfig(
temperature=0.7,
top_p=0.9,
max_new_tokens=256,
)
output_ids = model.generate(**inputs, **gen_config.to_dict())
answer = tokenizer.decode(output_ids[0], skip_special_tokens=True)
print(answer)
📚 详细文档
模型概述
ELISARCyberAIEdge7B-LoRA-GGUF 是 Mistral-7B 骨干的 LoRA 微调、GGUF 量化版本,专为网络安全和蓝队 AI 场景的边缘部署而设计。该模型由 Sabri Sallani 博士开发,整合了以下组件:
- 基础模型:Mistral-7B-v0.3 (FP16 / BF16)
- LoRA 适配器:
sallani/ELISARCyberAIEdge7B
- 量化:转换为 GGUF 格式并可选量化为 Q4_K_M(4 位),便于在资源受限设备上高效推理。
此管道生成一个约 160 MiB 的单个文件 (elisar_merged.gguf
),可使用 llama.cpp
等框架进行离线部署,或通过基于 Torch 的最小推理运行。
文件结构
ELISARCyberAIEdge7B-LoRA-GGUF/
├── elisar_merged.gguf
└── README.md
提示指南
- 使用指令格式:
### Instruction:
/ ### Response:
- 在提示中添加相关日志/代码
- 该模型不能替代专业认证分析师
🔧 技术细节
- 基础模型:Mistral-7B-v0.3(70 亿参数)
- LoRA 适配器:
sallani/ELISARCyberAIEdge7B
- 量化格式:GGUF Q4_K_M,最终大小约 160 MiB
- 训练数据:CVEs、SAST、安全日志、蓝队手册
- 许可证:Apache 2.0
论文信息
论文标题
ELISAR: An Adaptive Framework for Cybersecurity Risk Assessment Powered by GenAI
作者
- Sabri ALLANI, PhD – AI & 网络安全专家
- Karam BOU-CHAAYA, PhD – AI & 网络安全专家
- Helmi RAIS – 全球实践负责人,Expleo France
日期
2025 年 5 月 31 日
模型仓库
https://huggingface.co/sallani/ELISARCyberAIEdge7B-LoRA-GGUF
出版物
该研究将由 Springer 出版于以下书籍:
👉 https://link.springer.com/book/9783031935978
🗓️ 预计出版日期:2025 年 7 月 10 日
模型总结
ELISAR 是基于 Mistral-7B 的微调 LoRA 模型,利用检索增强生成和智能体 AI 能力进行上下文网络安全风险评估。该模型针对以下实际用例:
- 威胁建模(Blue ELISAR)
- 攻击用例生成(Red ELISAR)
- GRC 合规自动化(GRC ELISAR)
使用场景
- ISO/IEC 42001 & NIS2 风险评估
- 威胁场景生成
- AI 审计准备和报告
- 安全 AI 系统设计
- ...
📄 许可证
本模型采用 Apache 2.0 许可证。
📜 引用
如果您在研究中使用此模型或参考 ELISAR 框架,请引用:
@incollection{elisar2025,
author = {Sabri Sallani and Karam Bou-Chaaya and Helmi Rais},
title = {ELISAR: An Adaptive Framework for Cybersecurity Risk Assessment Powered by GenAI},
booktitle = {Communications in Computer and Information Science (CCIS, volume 2518)},
publisher = {Springer},
year = {2025},
note = {To be published on July 10, 2025},
url = {https://link.springer.com/book/9783031935978}
}
或者简单引用:
Sallani, S., Bou-Chaaya, K., & Rais, H. (2025). ELISAR: An Adaptive Framework for Cybersecurity Risk Assessment Powered by GenAI. In Springer Book on AI for Cybersecurity. Publication date: July 10, 2025. https://link.springer.com/book/9783031935978
💬 支持与联系
感谢使用 ELISARCyberAIEdge7B-LoRA-GGUF,助力您的边缘 AI 安全!