中文文本处理
Train 1000 ViT5 Test
这是一个基于VietAI/vit5-base模型,使用AutoTrain进行训练的序列到序列模型,支持文本生成任务。
大型语言模型
Transformers
T
Nosiath
29
1
Summllama3 8B Q3 K M GGUF
该模型是基于DISLab/SummLlama3-8B转换的GGUF格式模型,适用于文本摘要任务。
文本生成
S
dil99x
32
0
Setfit Contracts Clauses
这是一个基于SetFit框架的文本分类模型,专门用于合同条款分类任务,准确率达94.25%。
文本分类
S
scholarly360
100
6
Gyr66 Bert Base Chinese Finetuned Ner Onnx
Apache-2.0
这是 gyr66/bert-base-chinese-finetuned-ner 模型的 ONNX 格式转换版本,用于中文命名实体识别任务。
序列标注
Transformers
中文
G
protectai
171
1
Gujiroberta Jian Fan
该模型是基于/gemini/data-1/sikuroberta_vocabtxt微调得到的版本,具体用途和功能需要进一步信息补充。
大型语言模型
Transformers
G
hsc748NLP
62
5
Zh Wiki Punctuation Restore
一个用于中文维基百科文本的标点符号恢复工具,支持恢复6种常见标点符号。
序列标注
Transformers
支持多种语言
Z
p208p2002
102.99k
11
T5 Finetune Cnndaily News
MIT
基于Transformer架构的轻量级预训练编码器-解码器模型,专用于中文新闻摘要生成任务。
文本生成
Transformers
英语
T
minhtoan
22
2
Bert Base Chinese Ws Finetuned Ner All
Gpl-3.0
该模型是基于ckiplab/bert-base-chinese-ws在中文命名实体识别(NER)任务上微调的版本,在评估集上表现出色。
序列标注
Transformers
B
HYM
41
2
Bert Base Han Chinese Ws
Gpl-3.0
该模型为古代汉语提供分词功能,训练数据集涵盖汉语发展的四个历史时期。
序列标注
Transformers
中文
B
ckiplab
14
2
Model Distiluse Base Multilingual Cased V1 10 Epochs
这是一个基于sentence-transformers的句子嵌入模型,能够将句子和段落映射到512维的稠密向量空间,适用于语义搜索和聚类等任务。
文本嵌入
M
jfarray
33
0
Model Dccuchile Bert Base Spanish Wwm Uncased 1 Epochs
这是一个基于sentence-transformers的句子嵌入模型,可将文本映射到256维向量空间,适用于语义搜索和聚类任务。
文本嵌入
M
jfarray
8
0
Model Dccuchile Bert Base Spanish Wwm Uncased 10 Epochs
这是一个基于sentence-transformers的句子嵌入模型,可将文本映射到256维向量空间,适用于语义搜索和聚类任务。
文本嵌入
M
jfarray
12
0
Finetuned Bart
基于BART架构的序列到序列模型,在CNN/DailyMail数据集上进行了微调,适用于文本摘要任务。
大型语言模型
Transformers
F
Mousumi
19
0