许可协议:apache-2.0
支持语言:
- 英语
数据集:
- Waterhorse/chess_data
- anon8231489123/ShareGPT_Vicuna_unfiltered
- OpenAssistant/oasst1
- vicgalle/alpaca-gpt4
Chessgpt-Chat-v1 国际象棋对话模型
Chessgpt-Chat-v1是基于Chessgpt-Base-v1进行监督微调(SFT)的对话版本。
团队正在积极开发下一代模型ChessGPT-V2,诚邀贡献国际象棋相关数据集。合作事宜请联系xidong.feng.20@ucl.ac.uk。
模型详情
- 模型类型:语言模型
- 支持语言:英语
- 许可协议:Apache 2.0
- 模型描述:专攻国际象棋领域的28亿参数预训练语言模型
GPU推理指南
需配备8GB显存的GPU
import torch
import transformers
from transformers import AutoTokenizer, AutoModelForCausalLM
MIN_TRANSFORMERS_VERSION = '4.25.1'
assert transformers.__version__ >= MIN_TRANSFORMERS_VERSION, f'请将transformers升级至{MIN_TRANSFORMERS_VERSION}或更高版本'
tokenizer = AutoTokenizer.from_pretrained("Waterhorse/chessgpt-chat-v1")
model = AutoModelForCausalLM.from_pretrained("Waterhorse/chessgpt-chat-v1", torch_dtype=torch.float16)
model = model.to('cuda:0')
prompt = "人类之间的友好交流<|endoftext|>人类0: 1.e4 c5,这个开局叫什么?<|endoftext|>人类1:"
inputs = tokenizer(prompt, return_tensors='pt').to(model.device)
input_length = inputs.input_ids.shape[1]
outputs = model.generate(
**inputs, max_new_tokens=128, do_sample=True, temperature=0.7, top_p=0.7, top_k=50, return_dict_in_generate=True,
)
token = outputs.sequences[0, input_length:]
output_str = tokenizer.decode(token)
print(output_str)
使用场景
直接用途
本模型主要服务于大语言模型研究,特别是策略学习与语言建模交叉领域的研究。
非适用场景
作为专注于国际象棋领域的语言模型,在非国际象棋相关任务中可能表现欠佳。
偏差风险与局限性
与所有语言模型类似,需注意以下限制:
- 可能生成无关或错误响应(尤其在处理复杂模糊查询时)
- 基于网络数据训练,可能反映网络常见偏见
性能评估
详见团队论文与代码库
引用规范
@article{feng2023chessgpt,
title={ChessGPT:策略学习与语言建模的桥梁},
author={冯希东 and 罗毅成 and 王子岩 and 唐宏瑞 and 杨梦月 and 邵琨 and David Mguni and 杜雅丽 and 王军},
journal={arXiv预印本 arXiv:2306.09200},
year={2023}
}