多任务支持
Seed Coder 8B Instruct V1
基于Transformers库的通用文本生成模型,支持多种自然语言处理任务
大型语言模型
Transformers
S
wasmdashai
57
2
YOYO O1 32B
YOYO-O1-32B是一个融合了开源社区顶尖32B推理模型与代码模型的多功能大语言模型,采用SCE融合技术构建。
大型语言模型
Transformers
Y
YOYO-AI
25
2
Mxbai Rerank Large V2 Seq
Apache-2.0
一个支持多种语言的句子转换器模型,适用于文本排序任务
大型语言模型
Transformers
支持多种语言
M
michaelfeil
210
8
Frigg V2 8b ACADEMIC 128K Q4 K M GGUF
Frigg-v2-8b-ACADEMIC-128K-Q4_K_M-GGUF 是一个基于 GGUF 格式的 8B 参数大语言模型,适用于多种文本生成任务。
大型语言模型
英语
F
MrRobotoAI
18
0
Llama 3.1 0x Mini
0x Mini是由Ozone AI开发的轻量级语言模型,基于Llama-3.1架构优化,提供高效的文本生成能力
大型语言模型
Transformers
L
ozone-research
21
5
Llama 3.2 Taiwan 1B
Llama-3.2-Taiwan-1B 是一个基于 Meta 的 Llama-3.2-1B 模型的多语言文本生成模型,特别支持中文(台湾地区)及其他多种语言。
大型语言模型
Transformers
支持多种语言
L
lianghsun
47
4
Omnigen V1 Fp8 E4m3fn
MIT
OmniGen是一个统一的多模态图像生成模型,能够根据多样化指令生成各类图像,无需额外插件和预处理步骤。
文本生成图像
O
silveroxides
64
2
Phien Table Structure Recognition 143 V 1 1 All
该模型是一个基于Transformers架构的模型,具体用途和功能需要进一步信息确认。
大型语言模型
Transformers
P
trungphien
13
0
Sam2 Hiera Small
Apache-2.0
SAM2-Hiera小型版是Meta发布的SAM2模型的小型变体,用于高效的掩模生成任务。
图像分割
S
merve
44
1
Xfinder Qwen1505
xFinder-qwen1505 是专为大语言模型(LLMs)关键答案提取设计的模型,通过对 Qwen-1.5-0.5B 微调训练而成。
大型语言模型
Transformers
英语
X
IAAR-Shanghai
234.62k
6
Bonito V1
Apache-2.0
Bonito是一个开源的条件任务生成模型,专注于将未标注文本转化为特定任务的指令调优训练数据集。
大型语言模型
Transformers
英语
B
BatsResearch
344
95
Yolov8
YOLOv8 是 Ultralytics 开发的最新一代目标检测模型,基于先前 YOLO 版本的成功构建,引入了新功能和改进,进一步提升性能和灵活性。
目标检测
Y
Ultralytics
5,391
212
Instantid
Apache-2.0
InstantID 是一种无需调优的先进方法,仅需单张图像即可实现身份保持生成,支持多种下游任务。
图像生成
英语
I
InstantX
86.99k
783
Has 820m
腾讯安全玄武实验室开发的隐私保护模型,通过隐藏敏感信息与还原输出的流程保护用户隐私。
大型语言模型
Transformers
支持多种语言
H
SecurityXuanwuLab
2,730
24
Tamil Bert
基于公开可用的泰米尔语单语数据集训练的BERT模型,适用于泰米尔语自然语言处理任务。
大型语言模型
Transformers
其他
T
l3cube-pune
331
3
Bertin Base Xnli Es
基于西班牙语RoBERTa-base架构的预训练模型,针对XNLI数据集进行微调,采用高斯采样方法优化训练数据质量
大型语言模型
Transformers
西班牙语
B
bertin-project
20
1
Bert Base Dutch Cased
由格罗宁根大学开发的荷兰语预训练BERT模型,适用于各种荷兰语NLP任务。
大型语言模型
B
wietsedv
32.50k
2
Hebert NER
HeBERT是一个基于BERT架构的希伯来语预训练语言模型,支持极性分析和情感识别等任务。
大型语言模型
Transformers
H
avichr
435
5
Bert Base Greek Uncased V1
希腊语BERT是一个基于希腊语的预训练语言模型,适用于各种希腊语自然语言处理任务。
大型语言模型
其他
B
nlpaueb
5,984
37
Chinese Roberta Wwm Ext Large
Apache-2.0
采用全词掩码策略的中文预训练BERT模型,旨在加速中文自然语言处理研究进程。
大型语言模型
中文
C
hfl
30.27k
200
Chinese Roberta Wwm Ext
Apache-2.0
采用全词掩码技术的中文预训练BERT模型,旨在加速中文自然语言处理的发展。
大型语言模型
中文
C
hfl
96.54k
324