🚀 AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF
SenecaLLM是一个专注于网络安全领域的大语言模型,经过近一个月(约100小时)的训练和微调,旨在像网络安全专家一样思考,为用户解答网络安全相关问题,同时防止恶意使用。

该模型由Alican Kiraz微调。

相关链接:
- 博客:https://alican-kiraz1.medium.com/
- 领英:https://tr.linkedin.com/in/alican-kiraz
- X:https://x.com/AlicanKiraz0
- YouTube:https://youtube.com/@alicankiraz0
🚀 快速开始
SenecaLLM经过近一个月(约100小时)的训练和微调,使用了1x4090、8x4090和3xH100等多种系统,专注于以下网络安全主题。其目标是像网络安全专家一样思考,为你的问题提供帮助。同时,它也经过了微调,以防止恶意使用。
该模型不追求任何利润。
随着时间的推移,它将在以下领域实现专业化:
- 事件响应
- 威胁狩猎
- 代码分析
- 漏洞开发
- 逆向工程
- 恶意软件分析
“那些照亮他人的人,自己不会陷入黑暗……”
📦 安装指南
此模型是通过llama.cpp,利用ggml.ai的GGUF-my-repo空间,从AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity
转换为GGUF格式的。有关该模型的更多详细信息,请参考原始模型卡片。
使用Homebrew安装llama.cpp(适用于Mac和Linux)
brew install llama.cpp
调用llama.cpp服务器或命令行界面(CLI)
CLI方式:
llama-cli --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -p "The meaning to life and the universe is"
服务器方式:
llama-server --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -c 2048
注意:你也可以直接通过Llama.cpp仓库中列出的使用步骤使用此检查点。
步骤1:从GitHub克隆llama.cpp。
git clone https://github.com/ggerganov/llama.cpp
步骤2:进入llama.cpp文件夹,并使用LLAMA_CURL=1
标志以及其他特定硬件标志(例如,在Linux上使用Nvidia GPU时使用LLAMA_CUDA=1
)进行编译。
cd llama.cpp && LLAMA_CURL=1 make
步骤3:通过主二进制文件运行推理。
./llama-cli --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -c 2048
📄 许可证
本项目采用MIT许可证。