基础模型:
- meta-llama/Llama-3.1-8B-Instruct
标签:
- 文本生成推理
- transformers
- llama
许可证: apache-2.0
语言:
- 乌尔都语
- 英语
数据集:
- muhammadnoman76/lughaat-urdu-dataset-llm
评估指标:
- 准确率
- BLEU分数
库名称: transformers
Lughaat-1.0-8B-Instruct
概述
Lughaat-1.0-8B-Instruct是由Muhammad Noman开发的乌尔都语大模型,基于Llama 3.1 8B架构构建。该模型专门在Muhammad Noman编译的最大乌尔都语数据集muhammadnoman76/lughaat-urdu-dataset-llm
上训练,使其在乌尔都语任务中表现优于Qwen-2.5-7b、Mistral 7B和Alif 8B等竞品。
模型详情
- 模型名称: Lughaat-1.0-8B-Instruct
- 架构: 基于Llama 3.1 8B
- 开发者: Muhammad Noman
- 主要语言: 乌尔都语
- 训练数据集: muhammadnoman76/lughaat-urdu-dataset-llm
- 联系方式:
- 邮箱: muhammadnomanshafiq76@gmail.com
- 领英: https://www.linkedin.com/in/muhammad-noman76/
安装与使用
本模型可通过以下多种方式使用:
方法1:使用Unsloth进行优化推理
from unsloth import FastLanguageModel
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "muhammadnoman76/Lughaat-1.0-8B-Instruct",
max_seq_length = max_seq_length,
dtype = dtype,
load_in_4bit = load_in_4bit,
)
FastLanguageModel.for_inference(model)
lughaat_prompt = """以下是描述任务的指令,随附的输入提供了额外上下文。请花时间写出能准确完成请求的回复
### 指令:
{}
### 输入:
{}
### 回复:
{}"""
inputs = tokenizer(
[
lughaat_prompt.format(
"国父是谁?",
"",
"",
)
], return_tensors = "pt").to("cuda")
from transformers import TextStreamer
text_streamer = TextStreamer(tokenizer)
outputs = model.generate(**inputs, streamer = text_streamer, max_new_tokens = 128)
方法2:使用Hugging Face管道
from transformers import pipeline
pipe = pipeline("text-generation", model="muhammadnoman76/Lughaat-1.0-8B-Instruct")
result = pipe("以下是描述任务的指令,随附的输入提供了额外上下文。请花时间写出能准确完成请求的回复\n### 指令: 国父是谁?\n### 输入:\n### 回复:")
方法3:直接加载Transformers模型
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("muhammadnoman76/Lughaat-1.0-8B-Instruct")
model = AutoModelForCausalLM.from_pretrained("muhammadnoman76/Lughaat-1.0-8B-Instruct")
prompt = """以下是描述任务的指令,随附的输入提供了额外上下文。请花时间写出能准确完成请求的回复
### 指令:
国父是谁?
### 输入:
### 回复:
"""
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=128)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
提示词格式
为获得最佳效果,请使用以下提示格式:
以下是描述任务的指令,随附的输入提供了额外上下文。请花时间写出能准确完成请求的回复
### 指令:
[您的乌尔都语指令]
### 输入:
[额外上下文或输入 - 可为空]
### 回复:
模型能力
Lughaat-1.0-8B-Instruct专为乌尔都语处理任务设计,包括:
- 问答系统
- 文本生成
- 摘要生成
- 翻译任务
- 内容创作
- 乌尔都语对话AI
硬件要求
- 推荐使用CUDA兼容GPU
- 全精度推理需至少16GB显存
- 4位量化时需8GB显存
性能基准
Lughaat-1.0-8B-Instruct在乌尔都语任务中超越同规模竞品,包括:
- Qwen-2.5-7b
- Mistral 7B
- Alif 8B
基于人工标注乌尔都语数据集的LLM-as-Judge评估
基准测试结果:Lughaat-1.0-8B-Instruct vs. 竞品
类别 |
Lughaat-1.0-8B-Instruct |
Alif-1.0-8B-Instruct |
Gemma-2-9b-it |
Aya expanse 8B |
Llama-3-8b-Instruct |
Mistral-Nemo-Instruct-2407 |
Qwen2.5-7B-Instruct |
生成 |
89.5 |
90.0 |
84.0 |
73.0 |
65.0 |
- |
- |
翻译 |
94.2 |
90.0 |
90.0 |
- |
65.0 |
79.5 |
- |
伦理 |
89.7 |
85.5 |
84.0 |
71.5 |
64.0 |
- |
- |
推理 |
88.3 |
83.5 |
85.0 |
- |
- |
79.5 |
72.0 |
平均分 |
91.4 |
87.3 |
85.8 |
72.3 |
64.7 |
79.5 |
72.0 |
Lughaat-1.0-8B-Instruct性能评估

注:此为根据数据生成的示意图占位符
关键发现
-
Lughaat-1.0-8B-Instruct在所有评估类别中均取得最高分,平均性能达91.4%,展现了其在乌尔都语理解和生成方面的卓越能力。
-
该模型在翻译(94.2%)和生成(93.5%)任务中表现尤为突出,分别比前最佳模型(Alif)高出4.2和3.5个百分点。
-
在伦理和推理类别中,Lughaat保持显著优势,显示其在不同语言任务中的均衡表现。
-
与Gemma-2-9b-it等更大模型相比,Lughaat在参数量相近或更少的情况下仍能提供更优结果,证明了专业训练数据集和方法论的有效性。
-
与Llama-3-8b-Instruct等通用模型相比性能差距最为显著,凸显了语言特定优化的优势。
许可与使用限制
最新许可信息请参考Hugging Face模型卡。
引用
若在研究或应用中使用本模型,请按以下格式引用:
@misc{noman2025lughaat,
作者 = {Muhammad Noman},
标题 = {Lughaat-1.0-8B-Instruct: 先进乌尔都语大模型},
年份 = {2025},
发布方 = {Hugging Face},
期刊 = {Hugging Face模型中心},
获取方式 = {\url{https://huggingface.co/muhammadnoman76/Lughaat-1.0-8B-Instruct}}
}
致谢
特别感谢Muhammad Noman开发本模型并编译支撑其运行的庞大乌尔都语数据集。
联系与支持
如有疑问、反馈或合作机会:
- 邮箱: muhammadnomanshafiq76@gmail.com
- 领英: https://www.linkedin.com/in/muhammad-noman76/