PP DocLayout L
Apache-2.0
PP-DocLayout-L 是一个高精度的文档布局区域定位模型,基于 RT-DETR-L 架构,支持检测 23 种常见文档布局类别。
文字识别 支持多种语言
P
PaddlePaddle
285
0
Olmocr 7B Faithful
Apache-2.0
基于olmOCR-7B-0225-preview微调的版本,专注于完整提取文档中的所有信息,包括页眉页脚内容。
大型语言模型
Transformers 英语

O
tngtech
201
8
Flan T5 Titlegen Springer
MIT
基于google/flan-t5-base微调的模型,专门用于将科学摘要精炼为简洁标题的抽象摘要生成任务。
文本生成
Transformers 英语

F
tiam4tt
236
0
Qwen2.5 14B CIC ACLARC
Apache-2.0
基于Qwen 2.5 14B Instruct微调的引文意图分类模型,专门用于科学出版物中的引文意图分类。
文本分类
Transformers 英语

Q
sknow-lab
24
2
Camembertav2 Base
MIT
CamemBERTav2是基于2750亿法语文本标记预训练的法语语言模型,采用DebertaV2架构,在多个法语NLP任务上表现优异。
大型语言模型
Transformers 法语

C
almanach
2,972
19
Longcite Llama3.1 8b
LongCite-llama3.1-8b 是基于 Meta-Llama-3.1-8B 训练的模型,专注于长上下文问答并生成细粒度引用,支持最大 128K 标记的上下文窗口。
大型语言模型
Transformers 支持多种语言

L
THUDM
4,469
30
Gte Qwen2 7B Instruct
Apache-2.0
基于Qwen2架构的7B参数规模的大语言模型,专注于句子相似度计算和文本嵌入任务。
大型语言模型
Transformers

G
Alibaba-NLP
169.82k
398
Gte Base En V1.5
Apache-2.0
GTE-base-en-v1.5 是一个英文句子转换器模型,专注于句子相似度任务,在多个文本嵌入基准测试中表现优异。
文本嵌入
Transformers 支持多种语言

G
Alibaba-NLP
1.5M
63
Sci Rus Tiny
MIT
SciRus-tiny 是一个用于获取俄语和英语科学文本嵌入向量的微型模型,基于 eLibrary 数据训练,采用对比学习技术。
文本嵌入
Transformers 支持多种语言

S
mlsa-iai-msu-lab
369
12
Propositionizer Wiki Flan T5 Large
Apache-2.0
该模型是一个基于Flan-T5-Large的命题分割模型,用于将文本内容分解为独立的命题单元。
大型语言模型
Transformers

P
chentong00
892
45
Led Large Book Summary Continued
Bsd-3-clause
这是一个基于LED架构的大型书籍摘要生成模型,专门用于处理长文档摘要任务,特别是书籍内容的摘要生成。
文本生成
Transformers 支持多种语言

L
pszemraj
92
2
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP15
Bsd-3-clause
基于Long-T5架构的大规模摘要生成模型,专门针对书籍和长文档摘要任务进行优化
文本生成
Transformers

L
pszemraj
17
0
Long T5 Tglobal Base 16384 Booksum V12
Bsd-3-clause
基于T5架构优化的长文本摘要生成模型,支持处理长达16384个token的输入,在书籍摘要任务上表现优异。
文本生成
Transformers

L
pszemraj
109
4
Camembert Base Fquad
Gpl-3.0
基于CamemBERT-base的法语问答模型,在FQuAD数据集上微调而成,适用于法语问答任务。
问答系统
Transformers 法语

C
illuin
854
7
S Scibert Snli Multinli Stsb
基于sentence-transformers的模型,能够将句子和段落映射到768维稠密向量空间,适用于聚类或语义搜索等任务。
文本嵌入
Transformers

S
pritamdeka
891
4
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文