SecBERT是一个基于网络安全文本训练的预训练语言模型,专为网络安全领域任务优化。
下载量 40.03k
发布时间 : 3/2/2022
模型简介
SecBERT是一个基于BERT架构的预训练语言模型,专门针对网络安全领域的文本数据进行训练,旨在提升网络安全相关任务(如命名实体识别、文本分类、语义理解等)的性能。
模型特点
网络安全领域优化
专门针对网络安全文本进行训练,包含自定义的WordPiece词汇表(secvocab),能更好地处理网络安全领域的术语和表达。
多源训练数据
训练数据来源于多个网络安全领域的公开数据集,包括APTnotes、Stucco-Data、CASIE等,覆盖广泛的网络安全文本类型。
多版本支持
提供SecBERT和SecRoBERTa两个版本,满足不同场景的需求。
模型能力
填充掩码
命名实体识别
文本分类
语义理解
问答系统
使用案例
网络安全分析
威胁情报分析
从网络安全报告中提取关键威胁情报信息
提升威胁情报提取的准确性和效率
安全事件检测
识别和分类网络安全事件
提高安全事件检测的精度
安全研究
安全报告分析
自动化处理和分析网络安全研究报告
加速安全研究过程
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文