许可证: mit
语言:
- 英文
基础模型:
- Qwen/Qwen2.5-Coder-7B-Instruct
任务标签: 文本分类
标签:
- gguf-my-repo
- 渗透测试
- 网络安全
- 道德黑客
- 信息安全
由 Alican Kiraz 微调



链接:
- Medium: https://alican-kiraz1.medium.com/
- LinkedIn: https://tr.linkedin.com/in/alican-kiraz
- X: https://x.com/AlicanKiraz0
- YouTube: https://youtube.com/@alicankiraz0
SenecaLLM 经过近一个月的训练和微调,总计约100小时,使用了包括1x4090、8x4090和3xH100在内的多种系统,专注于以下网络安全主题。其目标是像网络安全专家一样思考,并协助解答您的问题。该模型还经过微调以抵御恶意用途。
它不以盈利为目的。
随着时间的推移,它将专注于以下领域:
- 事件响应
- 威胁追踪
- 代码分析
- 漏洞开发
- 逆向工程
- 恶意软件分析
"为他人照亮道路的人,自己也不会留在黑暗中..."
AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF
此模型是从 AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity
通过 llama.cpp 使用 ggml.ai 的 GGUF-my-repo 空间转换为 GGUF 格式。
有关模型的更多详情,请参阅 原始模型卡片。
使用 llama.cpp
通过 brew 安装 llama.cpp(适用于 Mac 和 Linux)
brew install llama.cpp
调用 llama.cpp 服务器或 CLI。
CLI:
llama-cli --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -p "生命和宇宙的意义是"
服务器:
llama-server --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -c 2048
注意:您也可以通过 Llama.cpp 仓库中列出的 使用步骤 直接使用此检查点。
步骤 1: 从 GitHub 克隆 llama.cpp。
git clone https://github.com/ggerganov/llama.cpp
步骤 2: 进入 llama.cpp 文件夹,并使用 LLAMA_CURL=1
标志以及其他硬件特定标志(例如:Linux 上适用于 Nvidia GPU 的 LLAMA_CUDA=1
)进行构建。
cd llama.cpp && LLAMA_CURL=1 make
步骤 3: 通过主二进制文件运行推理。
./llama-cli --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -p "生命和宇宙的意义是"
或
./llama-server --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -c 2048