G

GPT JT 6B V1

由 togethercomputer 开发
GPT-JT是基于GPT-J(6B)微调的大语言模型,采用UL2训练目标,在分类任务上表现优异
下载量 4,299
发布时间 : 11/24/2022

模型简介

通过新型分布式训练算法在35.3亿token上微调GPT-J(60亿参数)获得的改进模型,整合了多种开源技术和数据集,在分类基准测试中超越了许多千亿参数模型

模型特点

UL2训练目标
采用带前缀的因果掩码,使模型能双向查看提示/输入上下文,同时保持自回归生成能力
多数据集整合
整合自然指令集、P3、思维链和堆叠数据集等多种高质量训练数据
高效微调
仅用35.3亿token微调就在分类任务上超越许多千亿参数模型

模型能力

文本生成
情感分析
实体识别
数据清洗
问答系统
分类任务

使用案例

文本分析
情感分析
分析文本情绪并分类为悲伤、喜悦、爱、愤怒、恐惧或惊讶
示例显示能准确识别'悲伤'和'愤怒'情绪
仇恨言论检测
识别针对移民或女性的仇恨言论
示例显示能区分仇恨言论和非仇恨言论
信息提取
实体识别
从文本中提取人名、地名和组织名
示例显示能准确识别'萨提亚·纳德拉'等实体
事实查询
回答关于国家货币等事实性问题
示例显示能正确回答'瑞士法郎'
数据预处理
数据清洗
将非结构化数据格式化为CSV
示例显示能正确处理姓名、邮箱和电话号码
AIbase
智启未来,您的人工智能解决方案智库
简体中文