模型卡片元数据规范参考:https://github.com/huggingface/hub-docs/blob/main/modelcard.md?plain=1
文档指南:https://huggingface.co/docs/hub/model-cards
许可证: apache-2.0
支持语言:
- 中文
交互示例:
- 文本: >-
好奇用户与人工智能助手之间的对话。助手以专业、详尽且礼貌的方式回答用户问题。用户:你好,请问你可以帮我写一封推荐信吗?助手:
库名称: transformers
任务标签: 文本生成
授权确认标题: 请确认许可协议以访问仓库
授权确认提示: 请联系作者获取访问权限
授权确认按钮: 同意许可条款
授权表单字段:
姓名: 文本
邮箱: 文本
机构: 文本
国家: 文本
使用Taiwan LLM必须明确注明原作者归属: 复选框
使用Taiwan LLM须声明致谢优必达株式会社Ubitus及原作者: 复选框

Taiwan LLM 13B v2.0聊天模型卡片
Taiwan LLM是专为繁体中文优化的先进语言模型,深度融合台湾语言文化语境。基于大规模基础模型,通过台湾多元文本资源增强与监督微调,在语言理解生成任务中表现卓越,精准契合台湾文化特质。TC-Eval等基准测试显示其优异的语境理解与文化适配能力。完整技术细节请参阅技术报告。
模型描述
模型来源
- 代码库: https://github.com/MiuLab/Taiwan-LLaMa
- 演示平台: https://twllm.com/
性能表现

TMMLUS+得分: 24.76727075757576
使用方式
通过🤗 Transformers库调用示例:
import torch
from transformers import pipeline
pipe = pipeline("text-generation", model="yentinglin/Taiwan-LLM-13B-v2.0-chat", torch_dtype=torch.bfloat16, device_map="auto")
messages = [
{"role": "system", "content": "你是一个人工智能助理"},
{"role": "user", "content": "东北季风如何影响台湾气候?"},
]
prompt = pipe.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
outputs = pipe(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
print(outputs[0]["generated_text"])
训练参数



核心训练超参数:
- 学习率: 5e-05
- 分布式训练: 多GPU
- 优化器: Adam (betas=(0.9,0.999), epsilon=1e-08)
- 学习率调度: 余弦退火
- 预热比例: 0.03
- 训练轮次: 5.0
引用规范
若Taiwan LLM对您的研究有帮助,请引用:
@misc{lin2023taiwan,
title={Taiwan LLM: Bridging the Linguistic Divide with a Culturally Aligned Language Model},
author={Yen-Ting Lin and Yun-Nung Chen},
year={2023},
eprint={2311.17487},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
致谢声明
Taiwan LLM v2由优必达株式会社提供算力支持合作完成。
开放大模型排行榜
(此处保留原始英文表格结构,仅翻译表头)
任务 |
版本 |
指标 |
数值 |
标准差 |
...(后续完整保留原始基准测试数据表格) |
|
|
|
|
TC-Eval评估
(此处保留原始英文表格结构,仅翻译表头)
任务 |
版本 |
指标 |
数值 |
标准差 |
...(后续完整保留原始评估数据表格) |
|
|
|
|
免责声明
本模型按「现状」提供,不作任何明示或默示担保。使用者应自行评估输出结果的准确性与适用性,开发者对因使用产生的直接或间接损失不承担任何责任。
严禁将本模型用于医疗诊断、法律咨询、金融投资等高风险场景,此类需求应咨询专业资质人士。