许可证: 其他
许可证名称: deepseek
许可证链接: https://huggingface.co/deepseek-ai/deepseek-coder-33b-base/blob/main/LICENSE
本模型现已上线(我们将持续在网页应用中提供最新模型)!
访问地址: https://www.whiterabbitneo.com/
我们的Discord服务器
加入链接: https://discord.gg/8Ynkrcbk92 (2023年12月29日更新,永久有效链接)
DeepSeek Coder许可证 + WhiteRabbitNeo扩展版
许可证: 使用限制
您同意不以下列方式使用本模型或其衍生作品:
- 违反任何国家或国际法律法规,或侵犯第三方合法权益;
- 任何军事用途;
- 以任何方式剥削、伤害或试图剥削伤害未成年人;
- 生成或传播可验证的虚假信息/内容以损害他人;
- 根据适用监管要求生成或传播不当内容;
- 未经授权或非合理使用生成或传播个人身份信息;
- 诽谤、贬低或骚扰他人;
- 进行完全自动化决策从而负面影响个人法定权利或产生/修改具有约束力的义务;
- 基于线上/线下社会行为或个人特征进行歧视或伤害个人/群体;
- 利用特定人群的年龄、社会、生理或心理特征实质性扭曲其行为,导致或可能导致人身或心理伤害;
- 基于受法律保护的特征或类别歧视个人或群体。
涵盖主题:
- 开放端口:识别开放端口至关重要,它们可能是攻击者的入口点。常见检查端口包括HTTP(80,443)、FTP(21)、SSH(22)和SMB(445)。
- 过时软件/服务:运行过时软件的系统常存在漏洞,包括Web服务器、数据库和第三方软件。
- 默认凭证:许多系统安装时使用默认账号密码,容易被利用。
- 配置错误:服务配置、权限设置不当会引入漏洞。
- 注入漏洞:SQL注入、命令注入和跨站脚本(XSS)是Web应用常见问题。
- 未加密服务:使用非加密协议(如HTTP而非HTTPS)可能暴露敏感数据。
- 已知软件漏洞:可通过国家漏洞数据库(NVD)或Nessus等工具检查。
- 跨站请求伪造(CSRF):利用受信任用户的身份执行未授权命令。
- 不安全的直接对象引用:应用根据用户输入直接访问对象时产生。
- Web服务器/应用的安全配置错误:包括不安全的HTTP头或泄露过多信息的错误提示。
- 身份认证和会话管理缺陷:可能导致密码、密钥或会话令牌泄露。
- 敏感数据泄露:包括暴露信用卡号、健康记录等个人信息的漏洞。
- API漏洞:现代Web应用中的API可能存在不安全端点或数据泄露。
- 拒绝服务(DoS)漏洞:识别易受DoS攻击的服务。
- 缓冲区溢出:常见于旧版软件,可导致系统崩溃或任意代码执行。
使用条款
通过访问和使用本人工智能(AI)模型,用户确认并同意自行承担使用该模型及其结果的全部责任。用户同意对因使用AI模型直接或间接产生的任何索赔、责任、损害、损失、费用(包括合理律师费和诉讼费)进行赔偿,并使模型创作者、开发者及相关方免受损害。
本AI模型按"现状"提供,不作任何明示或暗示保证,包括但不限于适销性、特定用途适用性和非侵权保证。创作者不保证模型能满足用户需求或持续无中断、安全、无错误地运行。
用户使用AI模型的风险自担,对因此导致的计算机系统损坏或数据丢失承担全部责任。
本免责声明构成用户与AI模型创作者之间关于模型使用协议的部分内容,取代之前关于本AI模型使用的任何协议。
WhiteRabbitNeo

WhiteRabbitNeo是可用于攻防网络安全的模型系列。
我们现以公开预览版形式发布33B模型,旨在展示其能力并评估此类AI的社会影响。
import torch, json
from transformers import AutoModelForCausalLM, AutoTokenizer
模型路径 = "whiterabbitneo/WhiteRabbitNeo-33B-v-1"
模型 = AutoModelForCausalLM.from_pretrained(
模型路径,
torch_dtype=torch.float16,
device_map="auto",
load_in_4bit=False,
load_in_8bit=True,
trust_remote_code=True,
)
分词器 = AutoTokenizer.from_pretrained(模型路径, trust_remote_code=True)
def 生成文本(指令):
标记 = 分词器.encode(指令)
标记 = torch.LongTensor(标记).unsqueeze(0)
标记 = 标记.to("cuda")
实例 = {
"input_ids": 标记,
"top_p": 1.0,
"temperature": 0.5,
"generate_len": 1024,
"top_k": 50,
}
长度 = len(标记[0])
with torch.no_grad():
结果 = 模型.generate(
input_ids=标记,
max_length=长度 + 实例["generate_len"],
use_cache=True,
do_sample=True,
top_p=实例["top_p"],
temperature=实例["temperature"],
top_k=实例["top_k"],
num_return_sequences=1,
)
输出 = 结果[0][长度:]
字符串 = 分词器.decode(输出, skip_special_tokens=True)
回答 = 字符串.split("USER:")[0].strip()
return f"{回答}"
对话 = f"SYSTEM: 你是编程AI,请用代码回答。"
while True:
用户输入 = input("你: ")
提示 = f"{对话} \nUSER: {用户输入} \nASSISTANT: "
回答 = 生成文本(提示)
print(回答)
对话 = f"{提示}{回答}"
json数据 = {"prompt": 用户输入, "answer": 回答}