Modernbert Base Is New Arxiv Dataset
Apache-2.0
基于ModernBERT-base在arxiv-new-datasets数据集上微调的模型,主要用于文本分类任务
大型语言模型
Transformers

M
davanstrien
10.40k
1
Qwen2.5 14B CIC SciCite GGUF
Apache-2.0
基于Qwen2.5-14B-Instruct微调的引文意图分类模型,专注于科学文献中的引文分析任务。
大型语言模型
英语
Q
sknow-lab
57
1
Scientific Paper Summarizer
基于PEGASUS架构微调的科学论文摘要生成专用模型
文本生成
S
Harsit
40
3
Cde Small V1
cde-small-v1 是一个基于 transformer 架构的小型句子嵌入模型,在多个文本分类、聚类和检索任务上表现出色。
文本嵌入
Transformers

C
OrcaDB
90.62k
4
Scientific Paper Summarization
Apache-2.0
基于T5-small微调的科学论文摘要生成模型,能够从科学论文中提取关键信息生成摘要。
文本生成
Transformers

S
GilbertKrantz
22
1
Roberta Kaz Large
基于RoBERTa架构的哈萨克语语言模型,采用RobertaForMaskedLM从头训练而成,适用于哈萨克语文本处理任务。
大型语言模型
Transformers

其他
R
nur-dev
93
3
Venusaur
MIT
Venusaur是基于Mihaiii/Bulbasaur基础模型开发的句子嵌入模型,专注于句子相似度和特征提取任务。
文本嵌入
V
Mihaiii
290
3
Llama 3 8B Summarization QLoRa
其他
基于Meta-Llama-3-8B模型在scitldr数据集上使用QLoRa技术微调的摘要生成模型
大型语言模型
TensorBoard

L
pkbiswas
29
0
Gte Qwen1.5 7B Instruct
Apache-2.0
基于Qwen1.5架构的7B参数规模句子嵌入模型,专注于句子相似度计算和多任务评估
文本嵌入
Transformers

G
Alibaba-NLP
253
103
K2S3 SOLAR 11b V2.0
基于SOLAR-10.7B-v1.0微调的韩语大语言模型,专注于韩语理解和生成任务
大型语言模型
Transformers

韩语
K
Changgil
16
1
Mistral 7B Summarization QLoRa
Apache-2.0
基于 Mistral-7B-Instruct-v0.2 微调的摘要生成模型,适用于科学文献摘要任务
文本生成
TensorBoard

M
pkbiswas
39
1
Gte Small
MIT
GTE-small 是一个小型通用文本嵌入模型,适用于多种自然语言处理任务,包括句子相似度计算、文本分类和检索等。
文本嵌入
英语
G
thenlper
450.86k
158
Gte Large
MIT
GTE-Large 是一个强大的句子转换器模型,专注于句子相似度和文本嵌入任务,在多个基准测试中表现出色。
文本嵌入
英语
G
thenlper
1.5M
278
Bart Large Paper2slides Summarizer
MIT
基于Bart-Large架构的摘要模型,专门用于将科研论文内容精准摘要为适合幻灯片展示的形式。
文本生成
Transformers

英语
B
com3dian
26
7
T5 Small Korean Summarization
基于T5架构的韩语文本摘要模型,专门针对韩语文本进行优化,能够生成简洁准确的摘要。
文本生成
Transformers

韩语
T
eenzeenee
123
3
Long T5 Tglobal Xl 16384 Book Summary
Bsd-3-clause
基于BookSum数据集微调的LongT5-XL模型,专为长文本摘要设计,能生成类似SparkNotes的摘要。
文本生成
Transformers

L
pszemraj
58
19
Myanberta
Apache-2.0
MyanBERTa是基于BERT架构的缅甸语预训练语言模型,在包含5,992,299个句子的缅甸语数据集上进行了预训练。
大型语言模型
Transformers

其他
M
UCSYNLP
91
4
Bart Large Citesum Title
基于facebook/bart-large在CiteSum数据集上微调的文本摘要模型,专门用于生成科学文献的标题式摘要。
文本生成
Transformers

英语
B
yuningm
25
1
Roberta Base Finetuned Abbr
MIT
基于RoBERTa-base在PLOD-filtered数据集上微调的命名实体识别模型,专门用于检测文本中的缩写实体。
序列标注
Transformers

R
surrey-nlp
85
1
Biobert Base Cased V1.2 Finetuned Ner CRAFT English
基于BioBERT的命名实体识别模型,在CRAFT英文数据集上微调
序列标注
Transformers

B
StivenLancheros
41
1
Stanza La
Apache-2.0
Stanza是一套精准高效的多语言文本分析工具集,为拉丁语提供文本分析功能。
序列标注
其他
S
stanfordnlp
163
1
Mathbert Custom
基于数学领域英语文本预训练的BERT模型,专注于数学语言理解任务
大型语言模型
Transformers

M
tbs17
214
7
Bert Large Japanese
基于日语维基百科预训练的BERT大型模型,采用Unidic词典分词和全词掩码策略
大型语言模型
日语
B
tohoku-nlp
1,272
9
Bert Large Japanese Char
基于日语维基百科预训练的BERT模型,采用字符级分词与全词掩码策略,适用于日语自然语言处理任务
大型语言模型
日语
B
tohoku-nlp
24
4
Led Base Book Summary
Bsd-3-clause
一个基于LED架构的文本摘要模型,专门用于处理技术性、学术性和叙事性长文本的摘要生成。
文本生成
Transformers

其他
L
pszemraj
13.10k
63
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文