基础模型:
- meta-llama/Llama-Guard-3-1B
数据集:
- ealvaradob/phishing-dataset
语言:
- en
许可证: llama3.2
评估指标:
- 准确率
- 精确率
- 召回率
库名称: transformers
用Shrewd的Llama-Phishsense-1B革新钓鱼防护!

钓鱼攻击不断演变,企业和个人都成为目标。如果能部署一个高效/有效的AI驱动防御系统,主动识别这些威胁并保护你的收件箱会怎样?
- 欢迎使用Shrewd的AcuteShrewdSecurity/Llama-Phishsense-1B——你对抗钓鱼的新秘密SOTA(基于微调的Llama-Guard-3-1B)防御工具。它经过训练,能感知钓鱼攻击。
PS:它足够小巧,可在任何地方使用,是专为钓鱼检测设计的模型。查看发布文章和论文。
为什么钓鱼威胁日益严重
钓鱼不再只是个人问题,而是企业级威胁。许多网络攻击始于钓鱼邮件,旨在窃取宝贵数据。恶意行为者精心设计越来越具欺骗性的信息,即使最警惕的人也难以区分真假邮件。
后果?数十亿美元的经济损失,个人和职业账户被入侵,声誉受损。
解决方案:AI驱动的钓鱼检测
传统安全系统难以跟上现代钓鱼策略的步伐。这就是AI的用武之地。Llama-Phishsense-1B
旨在:
- 实时自动检测钓鱼模式。
- 保护组织免受代价高昂的入侵。
- 赋能用户,让他们自信地处理收件箱,知道自己是安全的。
加入提升网络安全的行动
我们的倡议不仅是一个AI工具,更是迈向全球网络韧性的一步。通过利用低秩适应(LoRA)的最新进展,AcuteShrewdSecurity/Llama-Phishsense-1B
模型设计用于以最小资源识别钓鱼尝试,快速高效且不牺牲准确性。
为什么你应该使用这个模型
1. 防范企业钓鱼攻击
在企业环境中,钓鱼邮件可能看起来合法,容易绕过传统过滤器。攻击者专门针对财务、人力资源或IT人员定制信息。AcuteShrewdSecurity/Llama-Phishsense-1B
可集成到企业邮件系统中,作为额外保护层:
- 降低针对人员的钓鱼攻击风险。
- 防止未经授权访问敏感信息。
- 减少因钓鱼攻击成功导致的停机时间。
2. 个人使用场景
对个人而言,管理个人信息比以往任何时候都重要。看似来自合法服务(如网上银行或社交网络)的钓鱼邮件可能轻易通过基本邮件过滤器。该模型:
- 在打开邮件前识别钓鱼尝试。
- 提供明确的“TRUE”或“FALSE”预测,判断邮件是否安全。
- 让你安心,知道私人数据安全。
3. 提供钓鱼防护服务
对安全专业人士和IT提供商而言,将Llama-Phishsense-1B
集成到安全服务中,可为客户提供可靠的AI驱动保护:
- 将该模型加入现有网络安全堆栈。
- 通过提供经过验证的钓鱼检测系统提高客户满意度。
- 帮助客户避免代价高昂的入侵,保持运营效率。
模型描述
Llama-Phishsense-1B
是meta-llama/Llama-Guard-3-1B
的微调版本,专门用于企业邮件环境中的钓鱼检测。通过先进的基于LoRA的微调,它将邮件分类为“TRUE”(钓鱼)或“FALSE”(非钓鱼),提供轻量级但强大的保护,应对日益增长的邮件诈骗威胁。
主要特点:
- 基础模型:
meta-llama/Llama-Guard-3-1B和meta-llama/Llama-3.2-1B
- LoRA微调:使用低秩适应进行高效调整,快速部署且资源友好。
- 任务:二元邮件分类——钓鱼(TRUE)或非钓鱼(FALSE)。
- 数据集:定制钓鱼邮件数据集,包含真实钓鱼和良性邮件。
- 模型大小:10亿参数,确保强大性能而不占用过多资源。
- 架构:因果语言模型,带LoRA适配层,确保速度和效率。
为什么选择这个模型?
钓鱼是当今大多数安全漏洞的根源。Llama-Phishsense-1B
模型是你的解决方案:
- 高精度:模型在真实评估中表现优异,在平衡数据集上F1分数达0.99。
- 快速高效:利用LoRA微调,运行更快,计算资源需求更低,意味着顶级保护而不拖慢系统。
- 人人可用:无论你是IT团队还是个人用户,该工具都设计为易于集成和使用。
训练与微调:
LoRA配置:
- 秩:
r=16
- Alpha:
lora_alpha=32
- Dropout:
lora_dropout=0.1
- 在q_proj和v_proj变压器层上进行适配,实现高效微调。
训练数据:
模型在平衡数据集(各3万条钓鱼和非钓鱼邮件)上微调,选自ealvaradob/phishing-dataset
,确保真实世界适用性。
优化器:
- AdamW优化器:权重衰减
0.01
,学习率1e-3
。
训练配置:
- 混合精度(FP16):更快训练而不牺牲准确性。
- 梯度累积步数:10。
- 批量大小:每设备10。
- 训练轮数:10。
性能(微调前后):
我们的模型在多个数据集上(来自zefang-liu/phishing-email-dataset
和自定义数据集)展示了其有效性:
指标 |
基础模型 (meta-llama/Llama-Guard-3-1B) |
微调模型 (AcuteShrewdSecurity/Llama-Phishsense-1B) |
性能提升 (微调 vs 基础) |
准确率 |
0.52 |
0.97 |
0.45 |
精确率 |
0.52 |
0.96 |
0.44 |
召回率 |
0.53 |
0.98 |
0.45 |

在验证数据集(包含专家设计的钓鱼案例)上,模型表现依然出色:
指标 |
基础模型 (meta-llama/Llama-Guard-3-1B) |
微调模型 (AcuteShrewdSecurity/Llama-Phishsense-1B) |
性能提升 (微调 vs 基础) |
准确率 |
0.31 |
0.98 |
0.67 |
精确率 |
0.99 |
1.00 |
0.01 |
召回率 |
0.31 |
0.98 |
0.67 |
与其他相关模型的比较如下。

论文可在此处找到here。如有反馈,请联系b1oo@shrewdsecurity.com :)。
如何使用模型:
使用Llama-Phishsense-1B
非常简单,只需几行Python代码。你需要加载基础模型和LoRA适配器,即可在几秒内分类邮件!
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel
def load_model():
tokenizer = AutoTokenizer.from_pretrained("AcuteShrewdSecurity/Llama-Phishsense-1B")
base_model = AutoModelForCausalLM.from_pretrained("AcuteShrewdSecurity/Llama-Phishsense-1B")
model_with_lora = PeftModel.from_pretrained(base_model, "AcuteShrewdSecurity/Llama-Phishsense-1B")
if torch.cuda.is_available():
model_with_lora = model_with_lora.to('cuda')
return model_with_lora, tokenizer
def predict_email(model, tokenizer, email_text):
prompt = f"将以下文本分类为钓鱼或非钓鱼。回答'TRUE'或'FALSE':\n\n{email_text}\n答案:"
inputs = tokenizer(prompt, return_tensors="pt")
if torch.cuda.is_available():
inputs = {key: value.to('cuda') for key, value in inputs.items()}
with torch.no_grad():
output = model.generate(**inputs, max_new_tokens=5, temperature=0.01, do_sample=False)
response = tokenizer.decode(output[0], skip_special_tokens=True).split("答案:")[1].strip()
return response
model, tokenizer = load_model()
email_text = "紧急:您的账户因可疑活动被标记。请立即登录。"
prediction = predict_email(model, tokenizer, email_text)
print(f"模型对邮件的预测:{prediction}")