Tavbert Tr
针对土耳其语的类BERT掩码语言模型,基于字符级别运行,采用类似SpanBERT的字符跨度掩码方法进行预训练。
大型语言模型
Transformers

其他
T
tau
15
1
Tavbert He
一个基于字符操作的希伯来语BERT风格掩码语言模型,通过掩码字符片段进行预训练,类似于SpanBERT。
大型语言模型
Transformers

其他
T
tau
116
1
Mongolian Gpt2
这是一个基于GPT2架构的蒙古语文本生成模型,旨在生成通顺的蒙古语文本。
大型语言模型
其他
M
flax-community
75
3
Robit Roberta Base It
RobIt 是一个基于RoBERTa架构的意大利语模型,使用Flax框架在OSCAR数据集的意大利语部分上从头训练。
大型语言模型
R
flax-community
14
1
Gujarati XLM R Base
该模型基于XLM-RoBERTa的基础变体,使用古吉拉特语和OSCAR单语数据集进行微调,适用于古吉拉特语的自然语言处理任务。
大型语言模型
Transformers

其他
G
ashwani-tanwar
22
0
Sinhalaberto
这是一个基于OSCAR僧伽罗语去重数据集训练的稍小模型,为低资源僧伽罗语提供基础支持。
大型语言模型
其他
S
keshan
34
1
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文