Cnmbert MoE
C

Cnmbert MoE

由 Midsummra 开发
CNMBert是一个专门用于翻译拼音缩写的模型,基于Chinese-BERT-wwm训练,通过修改预训练任务适配拼音缩写翻译任务。
下载量 26
发布时间 : 4/25/2025

模型简介

该模型主要用于将拼音缩写转换为对应的汉字词组,例如将'bhys'翻译为'不好意思'。相较于微调过的GPT模型以及GPT-4o,达到了当前最优性能。

模型特点

多掩码支持
通过修改预训练任务来适配拼音缩写翻译任务,支持多掩码预测。
高性能
相较于微调过的GPT模型以及GPT-4o,达到了当前最优性能(sota)。
MoE支持
提供带MoE的版本,提升模型性能。

模型能力

拼音缩写翻译
多掩码预测
中文文本处理

使用案例

社交媒体
拼音缩写翻译
将社交媒体中的拼音缩写转换为对应的汉字词组。
例如将'bhys'翻译为'不好意思'。
自然语言处理
文本补全
在文本中预测并补全拼音缩写对应的汉字。
例如在句子'我有两千kq'中预测'kq'为'块钱'。
AIbase
智启未来,您的人工智能解决方案智库