法律文本处理
Qwen2.5 0.5B Portuguese V1
MIT
基于Qwen2.5-0.5B-Instruct微调的葡萄牙语大语言模型,专注于文本生成任务
大型语言模型
其他
Q
cnmoro
2,218
4
Legal Ai India Ner Results
该模型是基于nlpaueb/legal-bert-base-uncased在InLegalNER数据集上微调的版本,专门用于印度法律文本的命名实体识别任务。
序列标注
Transformers
L
Amitava25
30
1
Halong Embedding
Apache-2.0
专注于RAG(检索增强生成)和生产效率的越南语文本嵌入模型,基于intfloat/multilingual-e5-base微调
文本嵌入
支持多种语言
H
hiieu
7,651
29
Phi 3 Portuguese Tom Cat 4k Instruct Q5 K M GGUF PTBR
Apache-2.0
这是一个基于Microsoft Phi-3-mini-4k-instruct模型微调的葡萄牙语指令模型,转换为GGUF格式以便在llama.cpp中使用。
大型语言模型
其他
P
noxinc
21
1
Mistral 7B Portuguese
基于Mistral-7B-Instruct-v0.2微调的葡萄牙语大语言模型,专注于提升葡萄牙语文本生成能力
大型语言模型
Transformers
支持多种语言
M
cnmoro
124
13
Polish Cross Encoder
这是一个基于波兰语的交叉编码器模型,用于文本排序和句子相似度计算。
文本嵌入
Transformers
其他
P
radlab
4,106
4
Vietnamese FlanT5 Large
Apache-2.0
基于Flan-T5-Large的多语言序列到序列模型,支持越南语、英语和中文,适用于摘要生成、翻译和问答等任务。
大型语言模型
Transformers
支持多种语言
V
Hatto
116
4
EUBERT
EUBERT是一个基于欧洲出版局文档训练的多语言BERT模型,支持24种欧盟语言,适用于文本分类、问答和语言理解任务。
大型语言模型
Transformers
支持多种语言
E
EuropeanParliament
118
14
German Qg T5 Quad
MIT
针对德语问题生成任务微调的T5模型,基于GermanQUAD数据集训练
问答系统
Transformers
德语
G
dehio
85
5
Legal Longformer Base
基于LexLM(基础版)RoBERTa模型扩展的长文本法律语言模型,专为处理法律长文档优化
大型语言模型
Transformers
英语
L
lexlms
221
5
Legal Xlm Roberta Base
CC
基于法律数据预训练的多语言XLM-RoBERTa模型,支持24种欧洲语言的法律文本处理
大型语言模型
Transformers
支持多种语言
L
joelniklaus
387
3
Bert Large Portuguese Cased Sts
基于BERTimbau大模型微调的葡萄牙语语义文本相似度模型,可将句子映射到1024维向量空间
文本嵌入
Transformers
其他
B
rufimelo
633
8
Bart Large Tos
MIT
BART是一个采用编码器-编码器架构的Transformer模型,针对服务条款的抽象摘要任务进行了微调
文本生成
Transformers
B
ML-unipi
21
2
Hupd T5 Small
该模型是基于HUPD数据集微调的T5小型模型,专门用于专利文本的摘要生成任务。
文本生成
Transformers
英语
H
HUPD
21
3
Bertimbaulaw Base Portuguese Cased
MIT
该模型是基于葡萄牙语BERT基础模型(neuralmind/bert-base-portuguese-cased)进行微调的版本,具体任务未明确说明
大型语言模型
Transformers
B
alfaneo
47
1
Bertimbau Base Portuguese Sts
基于BERTimbau的葡萄牙语句子相似度计算模型,可将句子和段落映射到768维向量空间
文本嵌入
Transformers
B
alfaneo
344
1
Ledbill
Apache-2.0
基于Billsum数据集微调的长文档编码器-解码器(LED)模型,专长于法律文本摘要生成
文本生成
Transformers
其他
L
d0r1h
22
0
Ner Bert Base Cased Pt Lenerbr
这是一个针对葡萄牙语法律领域的命名实体识别(NER)模型,基于BERT基础架构微调而成,专门用于识别法律文本中的命名实体。
序列标注
Transformers
其他
N
pierreguillou
2,429
17
Robertalex
Apache-2.0
基于西班牙法律领域语料训练的RoBERTa基础模型,专注于西班牙语法律文本处理
大型语言模型
Transformers
西班牙语
R
PlanTL-GOB-ES
379
17