Train 1000 ViT5 Test
这是一个基于VietAI/vit5-base模型,使用AutoTrain进行训练的序列到序列模型,支持文本生成任务。
大型语言模型
Transformers

T
Nosiath
29
1
Summllama3 8B Q3 K M GGUF
该模型是基于DISLab/SummLlama3-8B转换的GGUF格式模型,适用于文本摘要任务。
文本生成
S
dil99x
32
0
Setfit Contracts Clauses
这是一个基于SetFit框架的文本分类模型,专门用于合同条款分类任务,准确率达94.25%。
文本分类
S
scholarly360
100
6
Gyr66 Bert Base Chinese Finetuned Ner Onnx
Apache-2.0
这是 gyr66/bert-base-chinese-finetuned-ner 模型的 ONNX 格式转换版本,用于中文命名实体识别任务。
序列标注
Transformers

中文
G
protectai
171
1
Gujiroberta Jian Fan
该模型是基于/gemini/data-1/sikuroberta_vocabtxt微调得到的版本,具体用途和功能需要进一步信息补充。
大型语言模型
Transformers

G
hsc748NLP
62
5
Zh Wiki Punctuation Restore
一个用于中文维基百科文本的标点符号恢复工具,支持恢复6种常见标点符号。
序列标注
Transformers

支持多种语言
Z
p208p2002
102.99k
11
T5 Finetune Cnndaily News
MIT
基于Transformer架构的轻量级预训练编码器-解码器模型,专用于中文新闻摘要生成任务。
文本生成
Transformers

英语
T
minhtoan
22
2
Bert Base Chinese Ws Finetuned Ner All
Gpl-3.0
该模型是基于ckiplab/bert-base-chinese-ws在中文命名实体识别(NER)任务上微调的版本,在评估集上表现出色。
序列标注
Transformers

B
HYM
41
2
Bert Base Han Chinese Ws
Gpl-3.0
该模型为古代汉语提供分词功能,训练数据集涵盖汉语发展的四个历史时期。
序列标注
Transformers

中文
B
ckiplab
14
2
Model Distiluse Base Multilingual Cased V1 10 Epochs
这是一个基于sentence-transformers的句子嵌入模型,能够将句子和段落映射到512维的稠密向量空间,适用于语义搜索和聚类等任务。
文本嵌入
M
jfarray
33
0
Model Dccuchile Bert Base Spanish Wwm Uncased 1 Epochs
这是一个基于sentence-transformers的句子嵌入模型,可将文本映射到256维向量空间,适用于语义搜索和聚类任务。
文本嵌入
M
jfarray
8
0
Model Dccuchile Bert Base Spanish Wwm Uncased 10 Epochs
这是一个基于sentence-transformers的句子嵌入模型,可将文本映射到256维向量空间,适用于语义搜索和聚类任务。
文本嵌入
M
jfarray
12
0
Finetuned Bart
基于BART架构的序列到序列模型,在CNN/DailyMail数据集上进行了微调,适用于文本摘要任务。
大型语言模型
Transformers

F
Mousumi
19
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文