license: other
license_name: deepseek
license_link: https://huggingface.co/deepseek-ai/deepseek-coder-33b-base/blob/main/LICENSE
我们最新的33B模型已上线(我们将持续在网页应用中提供最新模型)!
访问地址:https://www.whiterabbitneo.com/
我们的Discord服务器
加入链接:https://discord.gg/8Ynkrcbk92(2023年12月29日更新,现为永久邀请链接)
DeepSeek Coder许可证 + WhiteRabbitNeo扩展版本
许可证:使用限制
您同意不以下列方式使用模型或其衍生作品:
- 违反任何国家/地区法律法规或侵犯第三方合法权益;
- 任何军事用途;
- 以任何方式剥削、伤害或试图剥削伤害未成年人;
- 生成/传播可验证的虚假信息及有害内容;
- 根据适用法规要求生成/传播不当内容;
- 未经授权或非合理使用个人身份信息;
- 诽谤、贬低或骚扰他人;
- 对个人法律权利产生不利影响的全自动决策;
- 基于网络/线下社会行为或个人特征进行歧视性使用;
- 利用特定群体年龄/生理特征实施可能造成身心伤害的操纵行为;
- 基于受法律保护特征实施歧视性行为。
涵盖主题:
- 开放端口:HTTP(80,443)、FTP(21)、SSH(22)、SMB(445)等可能成为攻击入口
- 过时软件:包含Web服务器、数据库及第三方软件的已知漏洞
- 默认凭证:未修改的预设账号密码组合
- 配置错误:权限设置不当、安全策略缺陷
- 注入漏洞:SQL注入、命令注入、XSS等Web应用漏洞
- 未加密服务:HTTP等明文传输协议导致数据泄露
- 已知漏洞:可通过NVD数据库或Nessus等工具检测
- CSRF攻击:利用受信用户身份执行未授权操作
- 不安全对象引用:直接暴露用户输入指向的内部对象
- Web服务器配置缺陷:如错误信息泄露过多细节
- 认证缺陷:可能导致会话劫持或身份冒用
- 敏感数据泄露:包括支付信息、医疗记录等
- API漏洞:不安全的接口端点或数据泄漏
- DoS漏洞:可导致服务不可用的攻击点
- 缓冲区溢出:旧版软件中可能存在的代码执行漏洞
使用条款
通过使用本人工智能模型,您确认并同意将独自承担使用后果。您须保障模型创建者、开发者及相关方免于因您使用行为产生的所有索赔、损害及费用(含合理律师费)。
本模型按"现状"提供,不作任何明示或暗示担保(包括适销性、特定用途适用性等)。创作者不保证模型的持续可用性、安全性或无差错性。
您需自行承担使用风险,对可能导致的系统损坏或数据丢失负全责。
本免责声明构成您与模型创建者之间完整协议,取代先前所有相关约定。
WhiteRabbitNeo

白兔新纪元系列模型可用于攻防网络安全领域。
当前发布的模型旨在展示其能力,并评估此类AI的社会影响。
import torch, json
from transformers import AutoModelForCausalLM, AutoTokenizer
model_path = "WhiteRabbitNeo/WhiteRabbitNeo-7B-v1.5a"
model = AutoModelForCausalLM.from_pretrained(
model_path,
torch_dtype=torch.float16,
device_map="auto",
load_in_4bit=False,
load_in_8bit=True,
trust_remote_code=True,
)
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
def generate_text(instruction):
tokens = tokenizer.encode(instruction)
tokens = torch.LongTensor(tokens).unsqueeze(0)
tokens = tokens.to("cuda")
instance = {
"input_ids": tokens,
"top_p": 1.0,
"temperature": 0.5,
"generate_len": 1024,
"top_k": 50,
}
length = len(tokens[0])
with torch.no_grad():
rest = model.generate(
input_ids=tokens,
max_length=length + instance["generate_len"],
use_cache=True,
do_sample=True,
top_p=instance["top_p"],
temperature=instance["temperature"],
top_k=instance["top_k"],
num_return_sequences=1,
)
output = rest[0][length:]
string = tokenizer.decode(output, skip_special_tokens=True)
answer = string.split("USER:")[0].strip()
return f"{answer}"
conversation = f"SYSTEM: 你是一个编程AI。请用代码回答。"
while True:
user_input = input("您: ")
llm_prompt = f"{conversation} \nUSER: {user_input} \nASSISTANT: "
answer = generate_text(llm_prompt)
print(answer)
conversation = f"{llm_prompt}{answer}"
json_data = {"prompt": user_input, "answer": answer}