🚀 推出 Akshara-8B:为印度打造的人工智能 🇮🇳✨
我们自豪地推出 Akshara-8B,这是我们专门为印度多元语言环境打造的前沿 人工智能集群。Akshara 旨在能够 无缝理解和生成 多种印度语言的文本,让人工智能更易获取、更强大,且更贴合我们国家的需求。
🚀 快速开始
Akshara-8B 是 SVECTOR 旗舰大型人工智能模型(Akshara)的 高度优化蒸馏版本。它保留了其母模型的核心智能和多语言能力,同时特别针对 效率、速度和可访问性 进行了设计。它利用先进的蒸馏技术,在保证轻量级和可扩展性的同时,提供强大的人工智能性能。Akshara-8B 体现了 SVECTOR 为印度带来前沿人工智能的承诺,确保为 印度的多元语言和应用 提供强大支持。
Akshara 能够流畅地理解和生成以下语言的内容:
✅ 印地语
✅ 古吉拉特语
✅ 马拉地语
✅ 泰米尔语
✅ 泰卢固语
✅ 卡纳达语
✅ 旁遮普语
✅ 英语
✨ 主要特性
- 🔹 印度制造,服务印度与全球 🇮🇳
- 🔹 针对速度和效率进行优化 ⚡
- 🔹 无缝的多语言处理 🗣️
- 🔹 平衡的准确性和创造性 🎨
- 🔹 轻量级且可扩展,适用于实际应用 🚀
📦 安装指南
安装依赖项
pip install transformers torch
💻 使用示例
基础用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "SVECTOR-CORPORATION/Akshara-8B-Llama-Multilingual-V0.1"
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16).to("cuda")
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
input_text = "भारत की सबसे बड़ी भाषा कौनसी है?"
input_ids = tokenizer(input_text, return_tensors="pt").to("cuda")
output = model.generate(**input_ids, max_new_tokens=256)
response = tokenizer.decode(output[0], skip_special_tokens=True)
print(response)
高级用法
messages = [
{"role": "system", "content": "आप Akshara हैं, भारत के लिए बना एक AI, जो हिंदी, गुजराती, मराठी, तमिल, तेलुगु, कन्नड़, पंजाबी और अंग्रेजी में बातचीत कर सकता है।"},
{"role": "user", "content": "नमस्ते! आप क्या कर सकते हैं?"}
]
input_ids = tokenizer.apply_chat_template(messages, return_tensors="pt").to("cuda")
outputs = model.generate(input_ids, max_new_tokens=256)
response = outputs[0][input_ids.shape[-1]:]
print(tokenizer.decode(response, skip_special_tokens=True))
📚 详细文档
通过接纳印度的语言多样性,Akshara 代表着在我国 缩小人工智能差距 的重要一步。无论是 教育、研究、客户服务、内容创作还是智能自动化,Akshara 都将彻底改变 多语言人工智能交互。
加入我们,共同塑造印度人工智能的未来! 🇮🇳🚀
Akshara
📄 许可证
本项目采用 Apache-2.0 许可证。
🔖 引用
@misc{SVECTOR2025Akshara,
title = {Akshara: A Multilingual AI Model for India},
author = {SVECTOR},
year = {2025},
url = {https://svector.co.in},
note = {Developed by SVECTOR CORPORATION for multilingual AI Model},
}