Arrowneo AME 4x3B V0.1 MoE
MIT
一个以成为AI虚拟主播灵魂为目标的混合专家模型,结合了代码生成、指令跟随和多轮对话能力
大型语言模型
支持多种语言
A
DataPilot
51
3
Deepseek V3 0324 GGUF
MIT
DeepSeek-V3-0324的GGUF量化版本,适用于本地文本生成任务。
大型语言模型
D
MaziyarPanahi
97.25k
19
PEGASUS Medium
MIT
PEGASUS Medium 是基于 PEGASUS 模型微调后的版本,专门针对印度尼西亚新闻文章进行抽象文本摘要任务优化。
文本生成
Safetensors
其他
P
fatihfauzan26
87
1
Depth Anything V2 Base Hf
Depth Anything V2 是目前最强大的单目深度估计模型,基于59.5万张合成标注图像和6200万+真实无标注图像训练而成,具有更精细的细节和更强的鲁棒性。
3D视觉
Transformers

D
depth-anything
47.73k
1
Depth Anything V2 Base
Depth Anything V2是目前最强大的单目深度估计(MDE)模型,基于59.5万张合成标注图像与6200万+真实无标注图像训练而成
3D视觉
英语
D
depth-anything
66.95k
17
Qwen2 1.5B Ita
Apache-2.0
Qwen2 1.5B是一款专为意大利语优化的紧凑型语言模型,性能接近ITALIA(iGenius)但体积缩小6倍。
大型语言模型
Transformers

支持多种语言
Q
DeepMount00
6,220
21
Nbailab Base Ner Scandi
MIT
适用于丹麦语、挪威语、瑞典语、冰岛语和法罗语的命名实体识别模型,基于NbAiLab/nb-bert-base微调而成
序列标注
Transformers

其他
N
saattrupdan
16.94k
22
Legal Bert Small Uncased
轻量版法律领域专用BERT模型,体积仅为BERT-BASE的33%,在保持性能的同时显著提升效率
大型语言模型
英语
L
nlpaueb
11.99k
21
Chinese Electra Small Generator
Apache-2.0
中文ELECTRA是哈工大-讯飞联合实验室基于谷歌ELECTRA架构开发的中文预训练模型,参数量仅为BERT的1/10但性能相近。
大型语言模型
Transformers

中文
C
hfl
16
0
Chinese Electra Base Generator
Apache-2.0
中文ELECTRA是由哈工大-讯飞联合实验室(HFL)基于谷歌与斯坦福大学发布的ELECTRA模型开发的中文预训练模型,具有参数量小、性能高的特点。
大型语言模型
Transformers

中文
C
hfl
15
0
Distill Bert Base Spanish Wwm Cased Finetuned Spa Squad2 Es
Apache-2.0
基于BETO模型通过蒸馏技术优化的西班牙语问答模型,比标准版更轻量高效
问答系统
西班牙语
D
mrm8488
2,145
48
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文