标签:
- 训练生成
- 对话型
- 波兰语
许可证: mit
语言:
- 波兰语(pl)
数据集:
- eryk-mazus/polka-dpo-v1
管道标签: 文本生成
推理: 否

Polka-1.1B-Chat 波兰语对话模型
eryk-mazus/polka-1.1b-chat
是首个专为本地运行设计的波兰语对话助手模型。
该模型基于TinyLlama-1.1B,通过定制扩展的分词器提升波兰语生成效率,并额外进行了57亿token的预训练。随后在约6万条合成生成与机器翻译的多轮对话数据上进行了微调,并采用直接偏好优化(DPO)技术。
上下文长度: 4,096个token
同步发布资源:
使用示例
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
model_name = "eryk-mazus/polka-1.1b-chat"
tokenizer = AutoTokenizer.from_pretrained(model_name, use_fast=True)
tokenizer.pad_token = tokenizer.eos_token
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16 if torch.cuda.is_bf16_supported() else torch.float16,
device_map="auto"
)
streamer = TextStreamer(tokenizer, skip_prompt=True)
system_prompt = "你是一个乐于助人的助手。"
chat = [{"role": "system", "content": system_prompt}]
user_input = "写一首关于编程的短歌。"
chat.append({"role": "user", "content": user_input})
inputs = tokenizer.apply_chat_template(chat, add_generation_prompt=True, return_tensors="pt")
first_param_device = next(model.parameters()).device
inputs = inputs.to(first_param_device)
with torch.no_grad():
outputs = model.generate(
inputs,
pad_token_id=tokenizer.eos_token_id,
max_new_tokens=512,
temperature=0.2,
repetition_penalty=1.15,
top_p=0.95,
do_sample=True,
streamer=streamer,
)
new_tokens = outputs[0, inputs.size(1):]
response = tokenizer.decode(new_tokens, skip_special_tokens=True)
chat.append({"role": "assistant", "content": response})
本模型完美兼容vLLM推理框架。
提示词格式
采用ChatML格式:
<|im_start|>system
你是一个乐于助人的助手。
<|im_start|>user
成年人每日建议摄入多少卡路里?<|im_end|>
<|im_start|>assistant
建议成年人每日摄入2000-3000大卡以维持健康状态。<|im_end|>
可通过chat template功能自动格式化,如上文示例所示。