A.X 3.1 Light
A.X 3.1 Light 是一款专为韩语理解和企业部署优化的轻量级大语言模型(LLM),由SKT完全自主研发。
下载量 411
发布时间 : 7/10/2025
模型简介
A.X 3.1 Light 是一款高效的多语言大语言模型,尤其注重韩语能力,支持长上下文处理和多语言任务。
模型特点
纯正的韩国主权AI
完全由SKT自主研发,使用自主的GPU基础设施和高质量数据集训练。
卓越的韩语能力
在韩语语言评估基准KMMLU和KoBALT-700中表现优异,超越其他韩语特定模型。
高效的标记使用
处理韩语输入时,比GPT-4o少33%的标记,更具成本效益和计算效率。
长上下文处理能力
支持多达32,768个标记的长上下文处理。
模型能力
韩语文本生成
多语言翻译
指令遵循
数学计算
代码生成
使用案例
翻译
韩英翻译
将韩语文本翻译为英语或其他语言。
高质量翻译结果,适用于企业文档和多语言交流。
企业部署
客户支持
用于自动化客户支持系统,处理韩语查询。
高效响应客户需求,降低人力成本。
🚀 A.X 3.1 Light
A.X 3.1 Light 是一款专为韩语理解和企业部署优化的轻量级大语言模型(LLM)。该模型由SKT完全自主研发,从模型架构设计、数据整理到训练,均在SKT自主的超级计算基础设施TITAN上完成。它基于包含1.65万亿标记的高质量多语言语料库从头开始训练,尤其注重韩语数据。凭借对数据质量的严格把控,A.X 3.1 Light在韩语大语言模型中,相对于其训练语料库规模实现了帕累托最优性能,从而实现了高效且经济的计算资源利用。

✨ 主要特性
- 纯正的韩国主权AI:A.X 3.1 Light在高质量多语言数据集上进行训练,该数据集由SKT内部完全整理,并使用了SKT自主的GPU基础设施。
- 高效的多语言LLM:尽管A.X 3.1 Light的训练规模相对较小,仅为1.65万亿标记,但在开源韩语大语言模型中表现出色。
- 卓越的韩语能力:在KMMLU(韩语语言评估的领先基准,是MMLU的韩语特定改编版本)中,A.X 3.1 Light取得了61.7分的成绩,超越了其他韩语特定模型。
- 深入的韩语理解:在KoBALT - 700(韩语高级语言任务的基准)中,A.X 3.1 Light获得了27.43分,优于其他韩语专业模型。
- 高效的标记使用:处理同等韩语输入时,A.X 3.1 Light所需的标记比GPT - 4o约少33%,从而实现了更具成本效益和计算效率的推理。
- 长上下文处理能力:A.X 3.1 Light支持多达32,768个标记。
🔧 技术细节
A.X 3.1 Light代表了一种高效的主权AI模型,由SKT端到端开发,涵盖了模型架构、数据整理、基础设施部署和优化等方面。
模型架构规格
属性 | 详情 |
---|---|
模型 | A.X 3.1 Light |
参数数量 | 7B |
层数 | 32 |
KV头数量 | 32 |
隐藏维度 | 4096 |
FFN维度 | 10880 |
高质量数据管道与策略性混合
- 收集并整理了一个包含20万亿标记的训练数据集,数据来源广泛。
- 整个数据集通过SKT自主的数据管道进行处理,包括合成数据生成和全面的质量过滤。
- 训练A.X 3.1 Light时,总共使用了1.65万亿标记,这些标记来自以韩语为重点的多语言语料库。
帕累托最优计算效率
与性能相近的模型相比,A.X 3.1 Light的计算成本降低了5到6倍。严格的数据整理和基于STEM数据的两阶段训练,使其在减少浮点运算次数的情况下仍能实现有竞争力的性能。
📊 基准测试结果
基准测试 | 子测试 | A.X 3.1 Light | Kanana - 1.5 - 8B | EXAONE - 3.5 - 7.8B | Qwen2.5 - 7B | Qwen3 - 8B (无推理) |
---|---|---|---|---|---|---|
知识 | KMMLU | 61.70 | 48.28 | 53.76 | 49.56 | 63.53 |
知识 | CLIcK | 71.22 | 61.30 | 64.11 | 58.30 | 63.31 |
知识 | KoBALT | 27.43 | 23.14 | 21.71 | 21.57 | 26.57 |
知识 | MMLU | 66.95 | 68.82 | 72.20 | 75.40 | 82.89 |
通用 | Ko - MT - Bench | 78.56 | 76.30 | 81.06 | 61.31 | 64.06 |
通用 | MT - Bench | 74.38 | 77.60 | 83.50 | 79.37 | 65.69 |
指令遵循 | Ko - IFEval | 70.04 | 69.96 | 65.01 | 60.73 | 73.39 |
指令遵循 | IFEval | 79.86 | 80.11 | 82.61 | 76.73 | 85.38 |
数学 | HRM8K | 41.70 | 30.87 | 31.88 | 35.13 | 52.50 |
数学 | MATH | 70.14 | 59.28 | 63.20 | 65.58 | 71.48 |
代码 | HumanEval+ | 73.78 | 76.83 | 76.83 | 74.39 | 77.44 |
代码 | MBPP+ | 61.64 | 67.99 | 64.29 | 68.50 | 62.17 |
🚀 快速开始
使用HuggingFace Transformers
使用 skt/A.X-3.1-Light
需要 transformers>=4.46.0
或最新版本。
pip install transformers>=4.46.0
基础用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "skt/A.X-3.1-Light"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
device_map="auto",
)
model.eval()
tokenizer = AutoTokenizer.from_pretrained(model_name)
messages = [
{"role": "system", "content": "당신은 사용자가 제공하는 영어 문장들을 한국어로 번역하는 AI 전문가입니다."},
{"role": "user", "content": "The first human went into space and orbited the Earth on April 12, 1961."},
]
input_ids = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt").to(model.device)
with torch.no_grad():
output = model.generate(
input_ids,
max_new_tokens=128,
do_sample=False,
)
len_input_prompt = len(input_ids[0])
response = tokenizer.decode(output[0][len_input_prompt:], skip_special_tokens=True)
print(response)
# Output:
# 1961년 4월 12일, 최초의 인간이 우주에 나가 지구를 궤도를 돌았습니다.
使用vLLM
使用工具使用功能需要 vllm>=v0.6.4.post1
或最新版本。
pip install vllm>=v0.6.4.post1
# 如果您不想激活工具使用功能,只需注释掉下面的vLLM选项
VLLM_OPTION="--enable-auto-tool-choice --tool-call-parser hermes"
vllm serve skt/A.X-3.1-Light $VLLM_OPTION
基础用法
from openai import OpenAI
def call(messages, model):
completion = client.chat.completions.create(
model=model,
messages=messages,
)
print(completion.choices[0].message)
client = OpenAI(
base_url="http://localhost:8000/v1",
api_key="api_key"
)
model = "skt/A.X-3.1-Light"
messages = [{"role": "user", "content": "에어컨 여름철 적정 온도는? 한줄로 답변해줘"}]
call(messages, model)
# Output:
# 에어컨 여름철 적정 온도는 24~26도입니다.
messages = [{"role": "user", "content": "What is the appropriate temperature for air conditioning in summer? Respond in a single sentence."}]
call(messages, model)
# Output:
# The appropriate temperature for air conditioning in summer is generally set between 24 to 26°C for optimal comfort and energy efficiency.
工具使用示例
from openai import OpenAI
def call(messages, model):
completion = client.chat.completions.create(
model=model,
messages=messages,
tools=tools
)
print(completion.choices[0].message)
client = OpenAI(
base_url="http://localhost:8000/v1",
api_key="api_key"
)
model = "skt/A.X-3.1-Light"
calculate_discount = {
"type": "function",
"function": {
"name": "calculate_discount",
"description": "원가격과 할인율(퍼센트 단위)을 입력받아 할인된 가격을계산한다.",
"parameters": {
"type": "object",
"properties": {
"original_price": {
"type": "number",
"description": "상품의 원래 가격"
},
"discount_percentage": {
"type": "number",
"description": "적용할 할인율"
}
},
"required": ["original_price", "discount_percentage"]
}
}
}
get_exchange_rate = {
"type": "function",
"function": {
"name": "get_exchange_rate",
"description": "두 통화 간의 환율을 가져온다.",
"parameters": {
"type": "object",
"properties": {
"base_currency": {
"type": "string",
"description": "The currency to convert from."
},
"target_currency": {
"type": "string",
"description": "The currency to convert to."
}
},
"required": ["base_currency", "target_currency"]
}
}
}
tools = [calculate_discount, get_exchange_rate]
### 插槽填充 ###
messages = [{"role": "user", "content": "우리가 뭘 사야되는데 원가가 57600원인데 직원할인 받으면 얼마야?"}]
call(messages, model)
# Output:
# ChatCompletionMessage(content='직원 할인을 적용하기 위해서는 할인율을 알 수 있어야 합니다. 할인율을 알려주실 수 있나요?', role='assistant', function_call=None, tool_calls=[], reasoning_content=None)
### 函数调用 ###
messages = [
{"role": "user", "content": "우리가 뭘 사야되는데 원가가 57600원인데 직원할인 받으면 얼마야?"},
{"role": "assistant", "content": "직원 할인을 적용하기 위해서는 할인율을 알 수 있어야 합니다. 할인율을 알려주실 수 있나요?"},
{"role": "user", "content": "15% 할인 받을 수 있어."},
]
call(messages, model)
# Output:
# ChatCompletionMessage(content=None, role='assistant', function_call=None, tool_calls=[ChatCompletionMessageToolCall(id='chatcmpl-tool-3ebf11847364450daf363039db80cc50', function=Function(arguments='{"original_price": 57600, "discount_percentage": 15}', name='calculate_discount'), type='function')], reasoning_content=None)
### 完成 ###
messages = [
{"role": "user", "content": "우리가 뭘 사야되는데 원가가 57600원인데 직원할인 받으면 얼마야?"},
{"role": "assistant", "content": ""},
{"role": "user", "content": "15% 할인 받을 수 있어."},
{"role": "tool", "tool_call_id": "random_id", "name": "calculate_discount", "content": "{\"original_price\": 57600, \"discount_percentage\": 15, \"discounted_price\": 48960.0}"}
]
call(messages, model)
# Output:
# ChatCompletionMessage(content='57,600원의 상품에 15% 할인을 적용하면, 할인된 가격은 48,960원입니다.', role='assistant', function_call=None, tool_calls=[], reasoning_content=None)
📄 许可证
A.X 3.1 Light
模型采用 Apache License 2.0
许可。
引用
@article{SKTAdotX3.1Light,
title={A.X 3.1 Light},
author={SKT AI Model Lab},
year={2025},
url={https://huggingface.co/skt/A.X-3.1-Light}
}
联系我们
- 商务合作联系:a.x@sk.com
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型 支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型 英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型 英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型 英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型 英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型 英语
O
facebook
6.3M
198
1
基于transformers库的预训练模型,适用于多种NLP任务
大型语言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers 支持多种语言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型 支持多种语言
T
google-t5
5.4M
702
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文