模型简介
模型特点
模型能力
使用案例
🚀 ALLaM-7B-Instruct-preview
ALLaM是一系列强大的语言模型,由沙特数据与人工智能管理局(SDAIA)旗下的国家人工智能中心开发,旨在推动阿拉伯语言技术(ALT)的发展。ALLaM-AI/ALLaM-7B-Instruct-preview
是从头开始训练的。我们的从头预训练方法包括两个步骤:先在4万亿个英语标记上进行训练,然后在1.2万亿个混合的阿拉伯语/英语标记上继续训练。这样可以在不出现灾难性遗忘的情况下保留模型的英语能力,有效地将知识从一种语言分布迁移到另一种语言分布。
🚀 快速开始
系统提示
需要注意的是,该模型经过优化,可以在没有预定义系统提示的情况下运行。虽然Allam没有默认的系统提示,但它提供了添加自定义系统提示的灵活性。
例如,一个精心设计的系统提示可以是:
- “You are ALLaM, a bilingual English and Arabic AI assistant.”
- 系统提示也可以用阿拉伯语表示:"أنت علام، مساعد ذكاء اصطناعي مطور من الهيئة السعودية للبيانات والذكاء الاصطناعي، تجيب على الأسئلة بطريقة مفيدة مع مراعاة القيم الثقافية المحلية."
或者,用户可以创造性地设置提示,例如:“You are an AI assistant who responds to everything like a pirate.”
系统提示集成在分词器配置中(通过 apply_chat_template()
模块访问)。
代码示例
ALLaM模型检查点的权重可以通过 HuggingFace transformers 访问(测试版本 transformers>=4.40.1
)。以下代码片段展示了如何加载模型并使用 ALLaM-AI/ALLaM-7B-Instruct-preview
模型生成文本:
from transformers import AutoModelForCausalLM, AutoTokenizer
allam_model = AutoModelForCausalLM.from_pretrained("ALLaM-AI/ALLaM-7B-Instruct-preview")
tokenizer = AutoTokenizer.from_pretrained("ALLaM-AI/ALLaM-7B-Instruct-preview")
messages=[
{"role": "user", "content": "كيف أجهز كوب شاهي؟"},
]
inputs = tokenizer.apply_chat_template(messages, tokenize=False)
inputs = tokenizer(inputs, return_tensors='pt', return_token_type_ids=False)
inputs = {k: v.to('cuda') for k,v in inputs.items()}
allam_model = allam_model.to('cuda')
response = allam_model.generate(**inputs, max_new_tokens=4096, do_sample=True, top_k=50, top_p=0.95, temperature=.6)
print(tokenizer.batch_decode(response, skip_special_tokens=True)[0])
✨ 主要特性
- 专为阿拉伯语优化:ALLaM是专门为阿拉伯语训练的大语言模型家族,能够有效处理阿拉伯语相关的任务。
- 多语言能力:支持阿拉伯语和英语两种语言,在保留英语能力的同时,提升了阿拉伯语的处理效果。
- 灵活的训练方式:提供了从头开始预训练和基于开源/权重模型继续训练两种方式,满足不同的应用需求。
📦 安装指南
文档未提及具体安装步骤,故跳过此章节。
💻 使用示例
基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
allam_model = AutoModelForCausalLM.from_pretrained("ALLaM-AI/ALLaM-7B-Instruct-preview")
tokenizer = AutoTokenizer.from_pretrained("ALLaM-AI/ALLaM-7B-Instruct-preview")
messages=[
{"role": "user", "content": "كيف أجهز كوب شاهي؟"},
]
inputs = tokenizer.apply_chat_template(messages, tokenize=False)
inputs = tokenizer(inputs, return_tensors='pt', return_token_type_ids=False)
inputs = {k: v.to('cuda') for k,v in inputs.items()}
allam_model = allam_model.to('cuda')
response = allam_model.generate(**inputs, max_new_tokens=4096, do_sample=True, top_k=50, top_p=0.95, temperature=.6)
print(tokenizer.batch_decode(response, skip_special_tokens=True)[0])
高级用法
文档未提及高级用法相关代码示例,故跳过此部分。
📚 详细文档
预期用途
ALLaM
旨在通过大语言模型加速阿拉伯语言技术的研究和开发。它是构建产品和促进实验项目的基础元素之一。
ALLaM系列模型被设计为更大AI系统的一个组件,开发人员在创建这些系统时应纳入安全措施。这些安全措施对于确保有效性和安全性之间的平衡至关重要,同时可以最大限度地减少潜在风险,例如模型与外部工具集成可能带来的风险。
模型详情
ALLaM是专门为阿拉伯语训练的大语言模型家族。预训练主要遵循两条路径:
- ALLaM:从头开始预训练模型
- ALLaM-Adapted/ALLaM-(**)/(**)-ALLaM:基于开源/权重模型继续训练
本次发布提供了从头开始预训练的70亿参数指令微调生成模型。
该模型的一些参数如下表所示:
规模 | 上下文长度 | 预训练标记 | 指令数量 | 偏好对数量 |
---|---|---|---|---|
70亿参数 | 4096个标记 | 4万亿(英语) + 1.2万亿(英语+阿拉伯语) | 700万 | 26万 |
模型描述
- 开发者:SDAIA 旗下的国家人工智能中心
- 模型类型:自回归Transformer
- 语言:阿拉伯语、英语
- 许可证:请参阅 LICENSE 文件
- 输入:文本
- 输出:文本
训练详情
ALLaM-7B-Instruct-preview
在总共5.2万亿个英语和阿拉伯语标记上进行预训练。我们的训练代码库基于 NVIDIA/MegatronLM 构建。训练期间的平均模型利用率(MFU)约为42%。我们使用bf16混合精度训练模型。
伦理考量与局限性
ALLaM是一个生成式模型,存在固有的不确定性。测试无法涵盖所有可能的用例,因此无法预测ALLaM在所有上下文中的响应,有时会导致不正确或有偏差的输出。开发人员必须进行全面的安全评估并进行特定调整,以确保模型适合预期用途。
此模型生成的输出不被视为国家人工智能中心、沙特数据与人工智能管理局或任何其他组织的声明。
评估
自动基准测试
阿拉伯语基准测试
- 大规模多任务语言理解(MMLU):是一个包含许多多项选择题的评估集,问题来自不同学术水平(小学到大学),通常与人文、STEM或社会科学相关。它最初是一个英语数据集,但也有阿拉伯语版本:
- 阿拉伯语MMLU:由MBZUAI发布,包含14,575个原始阿拉伯语问题,涵盖40个领域。
- OpenAI MMLU-ar:包含14,042个问题,从OpenAI发布的原始MMLU基准翻译而来。
- Exams Arabic (Exams (Ar)):一个包含537个样本的多项选择题数据集,涵盖多个领域,如伊斯兰研究、科学、人文和物理。
- 阿拉伯文化对齐(ACVA) (ACVA):该数据集由
gpt-3.5-turbo
生成,包含来自58个不同领域的8,710个是非题。 - 教育与培训评估委员会(ETEC):该数据集由ALLaM团队与 沙特ETEC 合作编译,包含阿拉伯语多项选择题,涵盖从小学到大学后的各个教育水平,共有1,887个测试样本。
- IEN:该数据集从教育部的 IEN平台 整理而来,按年级、主题和难度级别组织,全面覆盖从一年级到高中的整个沙特课程,包含9990个多项选择题和5823个是非题。
- GAT:通用能力测试(GAT)数据集包含约16,000个阿拉伯语多项选择题,代表 Qiyas通用能力测试 的各个部分,包括代数、阅读理解、类比、算术、关联、比较、完成、上下文理解和几何。
- AraPro:由我们的领域专家编写的5001个多项选择题(MCQ)的精选集,涵盖数学、科学等多个学科,为评估提供了多样化的问题集。
- AraMath:由 ArMath 中的605个多项选择题组成,其中包括数学应用题,内部转换为多项选择题。
- Ar-IFEval:一个阿拉伯语指令遵循(IF)评估数据集,旨在通过可验证的方法自动评估语言模型对指定指令的遵循情况。该数据集由535个实例组成,每个实例包含两到四个可验证的指令,可以使用确定性编程方法进行验证。
所有模型都使用我们专有的评估管道和 LM Evaluation Harness框架 进行评估,以确保公平比较。对于基于API的模型,我们使用生成输出的精确匹配评估。
ALLaM的评估分数可以在 此处 以JSON格式找到。
各模型在阿拉伯语基准测试中的评估分数如下:
模型 | 平均得分 | ETEC 0次射击 | IEN-MCQ 0次射击 | IEN-TF 0次射击 | AraPro 0次射击 | AraMath 5次射击 | Ar-IFEval(严格提示)0次射击 | Ar-IFEval(严格指令)0次射击 | ExamsAR 5次射击 | ACVA 5次射击 | 阿拉伯语MMLU 0次射击 | OpenAI MMLU 0次射击 | GAT 0次射击 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
ALLaM-7B-Instruct-preview | 64.42 | 66.67 | 91.77 | 82.95 | 69.71 | 66.78 | 31.34 | 67.65 | 51.58 | 76.33 | 67.78 | 55.91 | 44.53 |
AceGPT-v2-8B-Chat | 52.67 | 56.81 | 77.01 | 75.91 | 63.51 | 41.49 | 10.26 | 39.25 | 51.96 | 72.69 | 57.02 | 49.99 | 36.15 |
AceGPT-v2-32B-Chat | 62.23 | 64.81 | 81.6 | 80.35 | 67.19 | 64.46 | 25.75 | 63.41 | 55.31 | 71.57 | 68.3 | 60.8 | 43.21 |
jais-family-6p7b-chat | 46.31 | 45.47 | 46.22 | 63.92 | 54.31 | 25.29 | 13.99 | 52.97 | 46.93 | 73.8 | 56.15 | 44.96 | 31.71 |
jais-family-13b-chat | 49.14 | 48.65 | 62.95 | 68.68 | 57.53 | 26.61 | 17.16 | 54.27 | 45.07 | 71.18 | 58.14 | 47.73 | 31.72 |
jais-family-30b-16k-chat | 52.54 | 53.31 | 74.88 | 68.76 | 62.79 | 41.49 | 16.6 | 54.95 | 49.72 | 60.08 | 62.04 | 50.98 | 34.85 |
jais-family-30b-8k-chat | 53.19 | 53.52 | 72.76 | 70.65 | 61.27 | 33.39 | 16.79 | 54.68 | 50.28 | 74.47 | 63.11 | 50.9 | 36.44 |
jais-adapted-7b-chat | 45.19 | 40.49 | 57.38 | 67.18 | 50.59 | 28.43 | 14.93 | 54.27 | 40.6 | 70.44 | 49.75 | 38.54 | 29.68 |
jais-adapted-13b-chat | 51.86 | 48.12 | 69.65 | 71.85 | 59.07 | 37.02 | 23.32 | 60.61 | 48.23 | 67.78 | 56.42 | 46.83 | 33.4 |
jais-adapted-70b-chat | 58.32 | 56.81 | 74.51 | 76.47 | 64.59 | 45.62 | 27.05 | 65.05 | 54.75 | 73.33 | 65.74 | 56.82 | 39.15 |
Qwen2.5-7B-Instruct | 60.55 | 64.12 | 66.38 | 78.46 | 64.63 | 71.74 | 28.17 | 65.19 | 50.65 | 78.17 | 61.54 | 56.1 | 41.42 |
Qwen2.5-14B-Instruct | 71.26 | 72.18 | 80.51 | 77.64 | 69.11 | 82.81 | 68.66 | 86.76 | 57.54 | 75.04 | 69.36 | 63.8 | 51.7 |
Qwen2.5-72B-Instruct | 76.91 | 78.7 | 86.88 | 86.62 | 74.69 | 92.89 | 67.72 | 87.51 | 60.71 | 79.92 | 74.1 | 73.59 | 59.54 |
Mistral-7B-Instruct-v0.3 | 43.05 | 35.67 | 53.59 | 63.4 | 43.85 | 27.11 | 30.41 | 64.03 | 34.08 | 60.25 | 45.27 | 32.3 | 26.65 |
Mistral-Nemo-Instruct-2407 | 53.79 | 49.28 | 68.43 | 71.78 | 57.61 | 40.0 | 35.82 | 70.58 | 47.49 | 76.92 | 55.97 | 46.15 | 25.44 |
Mistral-Small-Instruct-2409 | 51.11 | 40.96 | 60.64 | 63.66 | 47.73 | 44.46 | 51.12 | 78.16 | 38.73 | 68.93 | 50.43 | 39.63 | 28.82 |
Falcon3-7B-Instruct | 41.3 | 37.52 | 52.65 | 57.63 | 41.47 | 56.53 | 8.58 | 47.92 | 31.84 | 58.98 | 42.08 | 32.36 | 27.99 |
Meta-Llama-3.1-8B-Instruct | 54.08 | 45.68 | 59.23 | 71.7 | 52.51 | 34.38 | 51.87 | 79.11 | 52.51 | 69.93 | 56.43 | 44.67 | 30.9 |
Llama-3.3-70B-Instruct | 71.43 | 68.84 | 79.6 | 78.81 | 70.49 | 70.91 | 70.9 | 88.6 | 65.74 | 76.93 | 72.01 | 70.25 | 44.12 |
封闭模型在阿拉伯语基准测试中的评估分数如下:
模型 | ETEC 0次射击 | IEN-MCQ 0次射击 | IEN-TF 0次射击 | AraPro 0次射击 | AraMath 5次射击 | AR-IFEval(严格提示)0次射击 | AR-IFEval(严格指令)0次射击 | ExamsAR 5次射击 | ACVA 5次射击 | 阿拉伯语MMLU 0次射击 | OpenAI MMLU 0次射击 | GAT 0次射击 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
Azureml GPT4o (gpt-4o-900ptu) | 79.39 | 92.03 | 88.97 | 80.86 | 83.47 | 70.9 | 88.12 | 61.82 | 72.51 | 79.02 | 76.5 | 62.65 |
Claude Sonnet 3.5 (claude-3-5-sonnet-20241022) | 85.9 | 86.17 | 89.42 | 81.46 | 79.83 | 53.73 | 80.14 | 62.38 | 80.42 | 69.5 | 66.4 | 68.89 |
gemini pro 1.5 (gemini-1.5-pro) | 83.31 | 88.28 | 85.44 | 76.22 | 94.88 | 74.81 | 90.17 | 58.1 | 75.17 | 82.0 | 64.8 | 59.14 |
英语基准测试
各模型在英语基准测试中的评估分数如下:
模型 | 平均得分 | AGIEval 0次射击 | Arc(挑战)0次射击 | GPQA(主要)0次射击 | Hendrycks伦理0次射击 | Winogrande 0次射击 | HellaSwag 0次射击 | TriviaQa 5次射击 | MMLU专业5次射击 | Minerva数学4次射击 | MMLU 0次射击 | TruthfulQA(mc2)0次射击 | IFEval(严格提示)0次射击 | IFEval(严格指令)0次射击 | GSM8k 5次射击 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
ALLaM-7B-Instruct-preview | 46.85 | 41.99 | 51.28 | 22.77 | 73.17 | 70.48 | 76.26 | 16.07 | 30.4 | 17.3 | 59.6 | 46.67 | 38.08 | 50.0 | 61.79 |
AceGPT-v2-8B-Chat | 49.51 | 37.17 | 53.5 | 25.67 | 68.14 | 73.72 | 79.21 | 67.65 | 37.38 | 17.58 | 64.62 | 55.2 | 23.48 | 32.97 | 56.86 |
AceGPT-v2-32B-Chat | 57.14 | 56.01 | 53.92 | 32.8125 | 66.23 | 79.16 | 83.29 | 69.45 | 45.89 | 32.8 | 74.03 | 59.18 | 27.54 | 40.89 | 78.7 |
jais-family-6p7b-chat | 38.33 | 30.56 | 44.62 | 23.21 | 65.7 | 62.43 | 72.05 | 29.74 | 23.3 | 2.56 | 49.62 | 40.99 | 14.05 | 23.5 | 54.36 |
jais-family-13b-chat | 42.62 | 30.31 | 47.87 | 25.89 | 65.91 | 65.04 | 75.0 | 35.82 | 24.4 | 19.1 | 51.91 | 40.57 | 19.41 | 30.82 | 64.59 |
jais-family-30b-16k-chat | 45.15 | 31.85 | 48.46 | 23.88 | 69.44 | 68.19 | 76.21 | 43.99 | 29.11 | 22.3 | 58.5 | 44.78 | 18.3 | 29.14 | 67.93 |
jais-family-30b-8k-chat | 47.59 | 36.65 | 48.38 | 21.88 | 69.28 | 70.32 | 78.55 | 46.67 | 28.7 | 26.44 | 57.46 | 49.49 | 22.92 | 37.05 | 72.48 |
jais-adapted-7b-chat | 44.91 | 32.9 | 52.65 | 23.88 | 55.32 | 71.74 | 79.39 | 63.89 | 24.38 | 15.34 | 52.36 | 41.12 | 22.0 | 35.73 | 58.07 |
jais-adapted-13b-chat | 47.7 | 36.49 | 54.18 | 26.34 | 65.73 | 69.77 | 80.86 | 58.48 | 26.29 | 21.34 | 55.66 | 42.27 | 24.95 | 36.57 | 68.84 |
jais-adapted-70b-chat | 53.49 | 39.96 | 59.56 | 20.98 | 70.8 | 77.27 | 84.06 | 68.64 | 37.25 | 27.72 | 65.23 | 44.49 | 31.61 | 44.0 | 77.26 |
Qwen2.5-7B-Instruct | 54.68 | 59.2 | 51.28 | 26.56 | 73.76 | 69.38 | 79.55 | 50.59 | 44.92 | 12.04 | 70.56 | 58.93 | 57.3 | 68.23 | 43.29 |
Qwen2.5-14B-Instruct | 62.37 | 66.32 | 62.12 | 25.89 | 76.19 | 75.77 | 84.36 | 59.47 | 52.44 | 23.04 | 78.93 | 69.01 | 52.13 | 64.03 | 83.47 |
Qwen2.5-72B-Instruct | 70.06 | 71.09 | 63.48 | 25.67 | 78.33 | 76.24 | 87.41 | 70.9 | 62.77 | 54.04 | 83.44 | 69.54 | 67.65 | 77.1 | 93.25 |
Mistral-7B-Instruct-v0.3 | 51.98 | 36.45 | 58.87 | 23.21 | 72.58 | 73.95 | 82.93 | 67.97 | 33.18 | 13.44 | 59.74 | 59.69 | 42.51 | 54.8 | 48.37 |
Mistral-Nemo-Instruct-2407 | 54.0 | 39.65 | 59.04 | 24.33 | 67.86 | 74.66 | 82.35 | 72.77 | 44.27 | 29.62 | 65.56 | 54.88 | 30.13 | 38.97 | 71.95 |
Mistral-Small-Instruct-2409 | 61.65 | 40.76 | 60.49 | 25.89 | 72.27 | 78.53 | 85.35 | 79.11 | 47.47 | 39.42 | 69.42 | 56.35 | 58.23 | 68.35 | 81.43 |
Falcon3-7B-Instruct | 58.04 | 43.84 | 59.47 | 33.71 | 70.39 | 70.09 | 78.43 | 51.98 | 46.73 | 30.76 | 68.14 | 55.53 | 56.01 | 68.59 | 78.92 |
Meta-Llama-3.1-8B-Instruct | 56.5 | 42.39 | 55.12 | 27.23 | 66.69 | 73.95 | 79.28 | 70.05 | 40.641622 | 34.26 | 67.96 | 54.05 | 44.36 | 58.51 | 76.5 |
Llama-3.3-70B-Instruct | 67.7 | 55.44 | 63.4 | 25.89 | 81.05 | 79.24 | 84.39 | 81.7 | 60.51 | 46.42 | 81.99 | 60.91 | 63.22 | 72.78 | 90.83 |
多轮基准测试(MT-Bench)
多轮基准测试(MT-Bench):是一个具有挑战性的多轮基准测试,使用GPT-4o作为评判者。MT-Bench包含来自8个领域的80个问题。每个问题都会呈现给模型,模型的响应会提交给GPT-4o进行评分。评判者会分别为第一轮和第二轮的响应给出分数。
该数据集也被自动翻译成阿拉伯语,并经过手动验证和文化对齐。
各模型在MT-Bench中的评估分数如下:
模型 | 阿拉伯语平均得分 | 阿拉伯语第一轮得分 | 阿拉伯语第二轮得分 | 英语平均得分 | 英语第一轮得分 | 英语第二轮得分 |
---|---|---|---|---|---|---|
ALLaM-7B-Instruct-preview | 5.9 | 6.93 | 4.88 | 6.5 | 7.49 | 5.15 |
AceGPT-v1.5-13B-Chat | 4.61 | 5.28 | 3.93 | 4.86 | 5.56 | 4.17 |
AceGPT-v2-32B-Chat | 5.43 | 6.61 | 4.26 | 6.5 | 7.41 | 5.58 |
jais-family-13b-chat | 4.89 | 5.37 | 4.41 | 4.77 | 5.57 | 3.97 |
jais-family-30b-16k-chat | 4.87 | 5.50 | 4.25 | 5.13 | 5.86 | 4.4 |
jais-adapted-70b-chat | 5.86 | 6.33 | 5.38 | 5.88 | 6.41 | 5.36 |
引用
如果您发现这项工作有帮助或使用了其中的任何部分,请包含以下引用:
@inproceedings{
bari2025allam,
title={{ALL}aM: Large Language Models for Arabic and English},
author={M Saiful Bari and Yazeed Alnumay and Norah A. Alzahrani and Nouf M. Alotaibi and Hisham Abdullah Alyahya and Sultan AlRashed and Faisal Abdulrahman Mirza and Shaykhah Z. Alsubaie and Hassan A. Alahmed and Ghadah Alabduljabbar and Raghad Alkhathran and Yousef Almushayqih and Raneem Alnajim and Salman Alsubaihi and Maryam Al Mansour and Saad Amin Hassan and Dr. Majed Alrubaian and Ali Alammari and Zaki Alawami and Abdulmohsen Al-Thubaity and Ahmed Abdelali and Jeril Kuriakose and Abdalghani Abujabal and Nora Al-Twairesh and Areeb Alowisheq and Haidar Khan},
booktitle={The Thirteenth International Conference on Learning Representations},
year={2025},
url={https://openreview.net/forum?id=MscdsFVZrN}
}
除了论文的作者,ALLaM团队正在迅速壮大,得到了大量有才华的内部专业人员的支持,在此我们对他们表示衷心感谢。
致谢
本次发布由 沙特数据与人工智能管理局 资助。我们感谢 Mishari Almishari 和 Yaser Alonaizan 领导 ALLaM 项目。以下是支持 ALLaM 开发的不同团队:
技术人员成员
Alhanoof Althnian, Iman Albilali, Jubair Sheikh, Ibrahim Mammu, Ghadah Alsaif, Abdulhameed Alothaimeen, Hadeel Alnegheimish, Emad Alghamdi, Khalid Almubarak, Atheer Al-Barqi, Batool Al-Otaibi, Muhammad Al-Hajji, Abdulraouf Al-Maasoumi, Abdulmajeed Alrowithi, Faisal Qarah, Sakhar Alkhereyf, Arwa Omayrah, Mohammed Al-Saleem, Amal Al-Shammari, Maryam Saif, Raeda Al-Marzooq, Lamyaa Alqhatani, Anas Al-Manie, Ghassan Al-Ward, Shahad Al-Zaidi, Batool Al-Ghoraibi, Alanoud Al-Shammari, Saad Alrazoq.
数据获取、管理与工程团队
Ali Alotaibi, Abdulrahman Alsaudi, Abdulaziz Asheyban, Areej Alokaili, Norah Alangari, Hamad Alnamazi, Fatima Alsalman, Saleh Alrusayyis, Moneerah Alballa, Omar AlGhamdi, Raneem Alqahtani, Amirah Albinhar, Nour Al-Aldahan, Khalid Alharbi, Hanouf Aljlayl, Fatimah Alzubaidi, Lama Aldossary, Rania Alzahrani, Shoug Alkhalaf.
开发与基础设施团队
Saud AlHamoud, Fahad Alothaimeen, Ahmed Alrowatie, Saad Alajlan, Hassan Almitib, Abdinasir Mohamed, Sultan Alotaibi, Mohammed Alanazi, Mohammed Alsharani, Khalid Aljandal, Faisal Abulnaja, Ahmed Alosaimi, Muhannad Abu Hussain, Nasser Almoffarej, Muhammad Al-Hashem, Ahmed Al-Ghamdi, Amer Ashraf, Abeer Al-khars, Nawaf Babgy, Fevicks Kumar, Islam Gamal, Layla Al-Mutairi, Shroq Al-Ghamdi, Amjad Al-Zahrani, Tjad Clark, Ali bjorn, Meshari Alyami, Abdulrahman Bahkali, Reema Alomair.
项目管理团队
Naif Shalhoub, Esshaq Almotawa, Sara AlRasheed, Mohammed Alshaalan, Mohammed Albreeh, Nezar Kaaki, Muna Alsahli, Abdullah Aldahami, Faisal Al-Tamimi, Tariq Alrouqi, Sahar Alghamdi, Raghad Abuznadah, Naif Almohammed, Oraib Alhemmyraine, Sarah Binlibdah, Shrooq Almohamdi.
人工评估团队
Amal Almohammadi, Badr almalki, Amjad Alsaeed, Alhanouf Alotaibi, Rajaa Almalki, Maryam Alasmari, Maha Awaji, Fatima Alshehri, Maryam ALshuwaiman, Ebtesam Alzahrani, Yasmeen Al-gahtani, Atheer Almusailem, Rehab Almalky, Shahad Alsulami, Abdullah Albalawi, Abeer Alqahtani, Lama Alrajeh, Shahad Aqeel, Yasir Alharbi, Rassil Al-Otaibi, Khulud Alawadh, Fatimah Almutairi, Suad Alkhamshi, Abdulrahman Alasmari, Goot Alqahtani, alhanouf Alfoaim, Rawan Aljohani, Aisha Almutairi.
🔧 技术细节
文档未提及具体技术细节,故跳过此章节。
📄 许可证
本模型使用Apache-2.0许可证,详情请参阅 LICENSE 文件。



