许可证:llama2
数据集:
- yentinglin/zh_TW_c4
- yentinglin/traditional_mandarin_instructions
语言:
- 中文(zh)
交互示例:
- 文本:"一位好奇用户与人工智能助手之间的对话。助手对用户问题提供有用、详尽且礼貌的回答。用户:你好,请问你可以帮我写一封推荐信吗?助手:"
库名称:transformers
流水线标签:文本生成
访问许可声明标题:确认许可证以访问仓库
访问许可提示:请联系作者获取访问权限
许可确认按钮:同意以上内容
访问许可字段:
姓名:文本
邮箱:文本
机构:文本
国家:文本
使用台湾LLM仓库必须明确注明原作者归属:复选框

台湾LLM 13B v1.0聊天模型卡
台湾LLM是一款专为繁体中文优化的先进语言模型,深度适配台湾语言文化语境。基于大模型开发,通过融合多元台湾文本数据与监督微调技术,显著提升语言理解与生成能力,精准捕捉台湾文化特质。在TC-Eval等基准测试中表现优异,体现其语境理解与文化关联性优势。完整技术细节请参阅技术报告。
模型描述
模型来源
- 代码库:https://github.com/MiuLab/Taiwan-LLaMa
- 演示平台:https://twllm.com/
性能表现

使用方式
通过🤗 Transformers库的pipeline函数调用模型:
import torch
from transformers import pipeline
pipe = pipeline("text-generation", model="yentinglin/Taiwan-LLaMa-v1.0", torch_dtype=torch.bfloat16, device_map="auto")
messages = [
{"role": "system", "content": "你是一个人工智能助理"},
{"role": "user", "content": "东北季风如何影响台湾气候?"},
]
prompt = pipe.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
outputs = pipe(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
print(outputs[0]["generated_text"])
训练超参数



训练采用以下超参数:
- 学习率:5e-05
- 分布式类型:多GPU
- 优化器:Adam(beta1=0.9,beta2=0.999,epsilon=1e-08)
- 学习率调度器:余弦退火
- 预热比例:0.03
- 训练轮次:5.0
引用
若台湾LLM对您的研究有帮助,请引用:
@misc{lin2023taiwan,
title={Taiwan LLM: Bridging the Linguistic Divide with a Culturally Aligned Language Model},
author={Yen-Ting Lin and Yun-Nung Chen},
year={2023},
eprint={2311.17487},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
免责声明
本模型按「现状」提供,不作任何明示或默示担保。使用者应自行评估输出结果的准确性与适用性,开发者对因使用产生的直接或间接损失不承担任何责任。
严禁将本模型用于医疗诊断、法律咨询、金融投资等高风险场景,此类需求请咨询专业资质人士。