语言:
- 泰米尔语
- 英语
许可证: llama2
模型索引:
- 名称: tamil-llama-7b-instruct-v0.1
结果:
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: AI2推理挑战赛(25样本)
类型: ai2_arc
配置: ARC挑战赛
分割: 测试集
参数:
少量样本数: 25
指标:
- 类型: 标准化准确率
值: 48.04
名称: 标准化准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=abhinand/tamil-llama-7b-instruct-v0.1
名称: 开放大语言模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: HellaSwag(10样本)
类型: hellaswag
分割: 验证集
参数:
少量样本数: 10
指标:
- 类型: 标准化准确率
值: 70.97
名称: 标准化准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=abhinand/tamil-llama-7b-instruct-v0.1
名称: 开放大语言模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: MMLU(5样本)
类型: cais/mmlu
配置: 全部
分割: 测试集
参数:
少量样本数: 5
指标:
- 类型: 准确率
值: 39.95
名称: 准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=abhinand/tamil-llama-7b-instruct-v0.1
名称: 开放大语言模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: TruthfulQA(0样本)
类型: truthful_qa
配置: 多项选择
分割: 验证集
参数:
少量样本数: 0
指标:
- 类型: mc2
值: 41.7
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=abhinand/tamil-llama-7b-instruct-v0.1
名称: 开放大语言模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: Winogrande(5样本)
类型: winogrande
配置: winogrande_xl
分割: 验证集
参数:
少量样本数: 5
指标:
- 类型: 准确率
值: 70.64
名称: 准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=abhinand/tamil-llama-7b-instruct-v0.1
名称: 开放大语言模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: GSM8k(5样本)
类型: gsm8k
配置: 主要
分割: 测试集
参数:
少量样本数: 5
指标:
- 类型: 准确率
值: 1.82
名称: 准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=abhinand/tamil-llama-7b-instruct-v0.1
名称: 开放大语言模型排行榜
泰米尔LLaMA 7B指令微调版v0.1
欢迎使用泰米尔LLaMA 7B指令模型的首次发布——这是推动泰米尔语大语言模型发展的重要一步。该模型已准备好进行即时推理,也可针对您的特定NLP任务进行进一步微调。
要深入了解该模型的开发过程与能力,请阅读研究论文和介绍性博客文章(待完善),其中概述了我们的研发历程以及该模型的潜在影响。
模型描述
泰米尔LLaMA模型在原版LLaMA-2基础上进行了增强和定制,特别扩充了包含16,000个词汇的泰米尔语词表。
提示格式
无输入提示模板
{系统提示}
### 指令:
{指令或查询}
### 响应:
{响应}
带输入提示模板
{系统提示}
### 指令:
{指令或查询}
### 输入:
{输入内容}
### 响应:
{响应}
相关模型
模型 |
类型 |
数据量 |
基础模型 |
参数量 |
下载链接 |
泰米尔LLaMA 7B基础版 |
基础模型 |
12GB |
LLaMA 7B |
7B |
HF中心 |
泰米尔LLaMA 13B基础版 |
基础模型 |
4GB |
LLaMA 13B |
13B |
HF中心 |
泰米尔LLaMA 7B指令版 |
指令跟随模型 |
14.5万条指令 |
泰米尔LLaMA 7B基础版 |
7B |
HF中心 |
泰米尔LLaMA 13B指令版 |
指令跟随模型 |
14.5万条指令 |
泰米尔LLaMA 13B基础版 |
13B |
HF中心 |
使用须知
需特别注意,这些模型尚未进行去毒处理。虽然它们具备出色的语言能力,但仍有可能生成被认为有害或冒犯性的内容。我们强烈建议用户审慎使用,特别是在公开或敏感场景中,需密切监督模型输出。
开发团队
认识这一创新模型背后的开发者,关注他们在该领域的贡献:
引用
如果您在研究中使用了本模型或任何泰米尔-Llama数据集,请引用:
@misc{balachandran2023tamilllama,
title={Tamil-Llama:基于Llama 2的新型泰米尔语模型},
author={Abhinand Balachandran},
year={2023},
eprint={2311.05845},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
我们希望这个模型能成为您NLP工具包中的宝贵资源,并期待看到它在泰米尔语理解和生成方面带来的进步。
详细结果请参见此处
指标 |
数值 |
平均得分 |
45.52 |
AI2推理挑战赛(25样本) |
48.04 |
HellaSwag(10样本) |
70.97 |
MMLU(5样本) |
39.95 |
TruthfulQA(0样本) |
41.70 |
Winogrande(5样本) |
70.64 |
GSM8k(5样本) |
1.82 |