许可证: mit
数据集:
- Abhishekcr448/Hinglish-Everyday-Conversations-1M
语言:
- en
标签:
- 微型模型
- 印地英语混合
- 小型模型
- 文本生成推理
- 文本补全
- GPT2
库名称: transformers
Tiny Hinglish-Chat-21M 模型卡
这是一个微型印地英语混合对话文本补全模型,能够用印地英语(Hinglish)进行日常生活话题的对话。立即通过Hugging Face Space体验吧!
更多信息
关于该模型、训练过程或相关资源的更多信息,请查看GitHub仓库Tiny-Hinglish-Chat-21M-Scripts。
快速开始
运行以下Python代码即可使用该模型:
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
model, tokenizer = (AutoModelForCausalLM.from_pretrained("Abhishekcr448/Tiny-Hinglish-Chat-21M")
.to("cuda" if torch.cuda.is_available() else "cpu"),
AutoTokenizer.from_pretrained("Abhishekcr448/Tiny-Hinglish-Chat-21M"))
def generate_text(prompt):
inputs = tokenizer(prompt, return_tensors='pt').to(model.device)
output = model.generate(inputs['input_ids'],
max_length=inputs['input_ids'].shape[-1] + 25,
no_repeat_ngram_size=2, temperature=0.8,
top_k=50, top_p=0.9, do_sample=True)
return tokenizer.decode(output[0], skip_special_tokens=True)
prompt = 'kya kar rahe ho'
print(generate_text(prompt))
输出示例
kya kar rahe ho bas yaar ghar pe hi hoon main toh kabhi kabhi itna kaam karta hoon ki bore ho jata hoon
模型详情
模型描述
Tiny Hinglish-Chat-21M是一个基于印地英语混合对话数据集训练的小型文本生成模型。该模型采用GPT-2架构,适用于日常对话场景的文本补全任务。
模型使用GPT4o-mini生成的合成印地英语数据集进行微调,模拟两人之间的非正式对话。专为边缘设备设计,在保持响应相关性的同时确保轻量化和快速响应。
完整构建流程和代码详见GitHub仓库:Tiny-Hinglish-Chat-21M-Scripts
模型架构
基于GPT-2架构的Transformer模型,经过印地英语混合对话数据微调,能理解印地英语混合文本。
性能
- 语言支持: 印地英语混合
- 主要用途: 对话机器人的文本补全
- 参数量: ~2100万
用途
适用于生成印地英语混合文本,特别适合计算资源有限的小型聊天机器人或边缘设备应用场景。
直接使用
可通过Hugging Face Space直接使用,或集成到自有应用中。当前暂无在线服务,但可轻松部署至对话系统。
偏差、风险与限制
与其他AI模型类似,本模型可能偶尔生成无关或带有偏见的输出。由于训练数据来自GPT4o-mini生成的合成数据,输出可能反映原始数据的偏差。建议用户审查生成内容以确保相关性。
风险
- 可能产生上下文错误或带有偏见的响应
- 非标准语言混合可能导致部分用户理解困难
建议
敏感场景部署前应监控生成内容,避免不当响应。
训练详情
训练流程(包括数据收集、预处理和模型微调)详见GitHub仓库:Tiny-Hinglish-Chat-21M-Scripts。模型基于GPT4o-mini生成的定制印地英语数据集训练。
环境影响
模型在NVIDIA RTX 4090 GPU上训练约10小时,使用MLCO2 Impact Calculator计算的碳排放数据:
硬件类型: RTX 4090
训练时长: ~10小时
云服务商: Vast.ai
计算区域: 德国
碳排放量: 1.3 kg CO₂(估算值)
技术规格
模型架构与目标
架构: GPT-2(小型)
目标: 基于印地英语对话提示的文本生成
软件环境
框架: PyTorch, Hugging Face Transformers
环境: Python 3.8, torch 2.5.1, transformers 4.46.3
引用
若使用本模型或数据集,请引用:
BibTeX:
@misc{Tiny-Hinglish-Chat-21M,
author = {Abhishek Khatri},
title = {Tiny Hinglish-Chat-21M: A Small Hinglish Conversational Model},
year = {2024},
url = {https://huggingface.co/Abhishekcr448/Tiny-Hinglish-Chat-21M},
}
APA:
Khatri, A. (2024). Tiny Hinglish-Chat-21M: A Small Hinglish Conversational Model. Retrieved from https://huggingface.co/Abhishekcr448/Tiny-Hinglish-Chat-21M
术语表
Hinglish: 印地语与英语的混合语,常见于印度及周边地区的日常交流
GPT-2: OpenAI开发的基于Transformer的文本生成模型
模型卡作者
作者: Abhishek Khatri