Olmo 2 0425 1B
Apache-2.0
OLMo 2 1B是艾伦人工智能研究所推出的开放语言模型系列中最小的模型,基于OLMo-mix-1124预训练,并在中期训练阶段使用Dolmino-mix-1124数据集。
大型语言模型
Transformers

英语
O
allenai
13.31k
45
Olmo 2 0325 32B
Apache-2.0
OLMo 2 32B是艾伦人工智能研究院(AI2)推出的开放语言模型系列中规模最大的32B参数模型,基于Apache 2.0许可开源,支持英语语言处理。
大型语言模型
Transformers

英语
O
allenai
2,246
47
Deberta V3 Large Lemon Spell 5k
基于DeBERTa-v3-large微调的英语语法纠错模型,专注于检测和修正常见语法错误
序列标注
Transformers

支持多种语言
D
manred1997
15
1
Mistral 7B Instruct Ukrainian
Apache-2.0
针对乌克兰语优化的开源大语言模型,通过三阶段训练流程构建,包括微调、模型融合和直接偏好优化
大型语言模型
Transformers

M
SherlockAssistant
1,443
22
Sambert
这是一个基于sentence-transformers的希伯来语嵌入模型,能将句子和段落映射到768维的密集向量空间,适用于聚类或语义搜索等任务。
文本嵌入
Transformers

其他
S
MPA
149
2
Pegasus Indian Legal
MIT
该模型是基于legal-pegasus在印度法律数据集上微调的法律文本摘要模型
大型语言模型
Transformers

P
akhilm97
104
2
Colossal LLaMA 2 7b Base
基于LLaMA-2的中英双语开源大语言模型,经过约85亿token的持续预训练,支持4096 token的上下文窗口。
大型语言模型
Transformers

支持多种语言
C
hpcai-tech
147
76
Klue Sroberta Base Continue Learning By Mnr
这是一个基于KLUE/NLI和KLUE/STS数据集训练的韩语句子嵌入模型,采用sentence-transformers框架,通过两阶段训练优化句子相似度任务。
文本嵌入
Transformers

韩语
K
bespin-global
88.10k
32
Indobert Base P1
MIT
IndoBERT是基于BERT模型的印尼语先进语言模型,采用掩码语言建模(MLM)和下一句预测(NSP)目标进行训练。
大型语言模型
其他
I
indobenchmark
261.95k
25
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文