Arat5v2 XLSum Arabic Text Summarization
基于AraT5v2微调的阿拉伯语文本摘要模型,专为新闻及长文本摘要优化
文本生成
Transformers

A
omarsabri8756
166
1
Opus Mt Ar En Finetuned Augmented Backmt Cleaned Ar To En
Apache-2.0
该模型是基于Helsinki-NLP/opus-mt-ar-en微调的阿拉伯语到英语翻译模型,在评估集上取得了54.65的BLEU分数。
机器翻译
Transformers

O
Jezia
29
1
Ket5 News Summarizer
Apache-2.0
基于T5架构的韩语文本摘要模型,专门针对新闻报道进行微调训练
文本生成 支持多种语言
K
onebeans
40
1
Modernbert Llm Router
Apache-2.0
基于BERT-base的微调模型,用于文本分类任务,在评估集上F1分数达到0.9313
大型语言模型
Transformers

M
SunitOutreach
15
1
Whisper Sinhala Audio To Text
Apache-2.0
基于openai/whisper-small微调的僧伽罗语语音识别模型,支持将僧伽罗语语音转换为文本。
语音识别
Transformers

W
AqeelShafy7
229
2
Emotions Detection French
MIT
基于camembert-base微调的法语情感分类模型,在评估集上准确率达89.32%
文本分类
Transformers

E
ac0hik
323
2
Spanish Offensive Language Bert Base Spanish Wwm Cased
基于BERT架构的西班牙语冒犯性语言检测模型,在西班牙语冒犯性语言数据集上微调。
文本分类
Transformers 西班牙语

S
jorgeortizfuentes
19
1
Codenlbert Tiny
MIT
基于bert-small的代码与自然语言分类模型,准确率超过99%
文本分类
Transformers 支持多种语言

C
vishnun
68
2
Mt5 Hindi To English
Apache-2.0
基于google/mt5-small预训练模型微调的印地语到英语翻译模型
机器翻译
Transformers 英语

M
snehalyelmati
125
7
Indobert Hoax Classification
MIT
基于IndoBERT的印尼语虚假新闻分类模型,在未知数据集上微调,准确率达80.59%
文本分类
Transformers

I
Rifky
3,215
1
Bert Base German Cased Finetuned Subj V6 7Epoch
MIT
基于bert-base-german-cased微调的德语文本分类模型,在评估集上表现出色
文本分类
Transformers

B
tbosse
15
0
Finetune Indian Asr
基于Harveenchadha/vakyansh-wav2vec2-indian-english-enm-700微调的印度英语语音识别模型
语音识别
Transformers

F
Simply-divine
20
1
Bert Base Italian Uncased Finetuned ComunaliRoma
MIT
基于意大利语BERT基础模型在ComunaliRoma数据集上微调的模型
大型语言模型
Transformers

B
maxspaziani
38
0
Wynehills Mimi ASR
这是一个自动语音识别(ASR)模型,在未知数据集上训练,词错误率(WER)为0.6309。
语音识别
Transformers

W
mimi
26
0
Roberta Base Indonesian Sentiment Analysis Smsa
MIT
这是一个基于RoBERTa架构的印尼语情感分析模型,在indonlu数据集上微调,专门用于印尼语短信的情感分类任务。
文本分类
Transformers

R
ayameRushia
21
0
Roberta Base Bne Finetuned Hate Speech Offensive Spanish
Apache-2.0
该模型是基于BSC-TeMU/roberta-base-bne在MNLI数据集上微调的版本,主要用于自然语言推理任务。
文本分类
Transformers

R
JonatanGk
240
2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文