Qwen2.5 0.5B Portuguese V1
MIT
基于Qwen2.5-0.5B-Instruct微调的葡萄牙语大语言模型,专注于文本生成任务
大型语言模型
其他
Q
cnmoro
2,218
4
Legal Ai India Ner Results
该模型是基于nlpaueb/legal-bert-base-uncased在InLegalNER数据集上微调的版本,专门用于印度法律文本的命名实体识别任务。
序列标注
Transformers

L
Amitava25
30
1
Halong Embedding
Apache-2.0
专注于RAG(检索增强生成)和生产效率的越南语文本嵌入模型,基于intfloat/multilingual-e5-base微调
文本嵌入
支持多种语言
H
hiieu
7,651
29
Phi 3 Portuguese Tom Cat 4k Instruct Q5 K M GGUF PTBR
Apache-2.0
这是一个基于Microsoft Phi-3-mini-4k-instruct模型微调的葡萄牙语指令模型,转换为GGUF格式以便在llama.cpp中使用。
大型语言模型
其他
P
noxinc
21
1
Mistral 7B Portuguese
基于Mistral-7B-Instruct-v0.2微调的葡萄牙语大语言模型,专注于提升葡萄牙语文本生成能力
大型语言模型
Transformers

支持多种语言
M
cnmoro
124
13
Polish Cross Encoder
这是一个基于波兰语的交叉编码器模型,用于文本排序和句子相似度计算。
文本嵌入
Transformers

其他
P
radlab
4,106
4
Vietnamese FlanT5 Large
Apache-2.0
基于Flan-T5-Large的多语言序列到序列模型,支持越南语、英语和中文,适用于摘要生成、翻译和问答等任务。
大型语言模型
Transformers

支持多种语言
V
Hatto
116
4
EUBERT
EUBERT是一个基于欧洲出版局文档训练的多语言BERT模型,支持24种欧盟语言,适用于文本分类、问答和语言理解任务。
大型语言模型
Transformers

支持多种语言
E
EuropeanParliament
118
14
German Qg T5 Quad
MIT
针对德语问题生成任务微调的T5模型,基于GermanQUAD数据集训练
问答系统
Transformers

德语
G
dehio
85
5
Legal Longformer Base
基于LexLM(基础版)RoBERTa模型扩展的长文本法律语言模型,专为处理法律长文档优化
大型语言模型
Transformers

英语
L
lexlms
221
5
Legal Xlm Roberta Base
CC
基于法律数据预训练的多语言XLM-RoBERTa模型,支持24种欧洲语言的法律文本处理
大型语言模型
Transformers

支持多种语言
L
joelniklaus
387
3
Bert Large Portuguese Cased Sts
基于BERTimbau大模型微调的葡萄牙语语义文本相似度模型,可将句子映射到1024维向量空间
文本嵌入
Transformers

其他
B
rufimelo
633
8
Bart Large Tos
MIT
BART是一个采用编码器-编码器架构的Transformer模型,针对服务条款的抽象摘要任务进行了微调
文本生成
Transformers

B
ML-unipi
21
2
Hupd T5 Small
该模型是基于HUPD数据集微调的T5小型模型,专门用于专利文本的摘要生成任务。
文本生成
Transformers

英语
H
HUPD
21
3
Bertimbaulaw Base Portuguese Cased
MIT
该模型是基于葡萄牙语BERT基础模型(neuralmind/bert-base-portuguese-cased)进行微调的版本,具体任务未明确说明
大型语言模型
Transformers

B
alfaneo
47
1
Bertimbau Base Portuguese Sts
基于BERTimbau的葡萄牙语句子相似度计算模型,可将句子和段落映射到768维向量空间
文本嵌入
Transformers

B
alfaneo
344
1
Ledbill
Apache-2.0
基于Billsum数据集微调的长文档编码器-解码器(LED)模型,专长于法律文本摘要生成
文本生成
Transformers

其他
L
d0r1h
22
0
Ner Bert Base Cased Pt Lenerbr
这是一个针对葡萄牙语法律领域的命名实体识别(NER)模型,基于BERT基础架构微调而成,专门用于识别法律文本中的命名实体。
序列标注
Transformers

其他
N
pierreguillou
2,429
17
Robertalex
Apache-2.0
基于西班牙法律领域语料训练的RoBERTa基础模型,专注于西班牙语法律文本处理
大型语言模型
Transformers

西班牙语
R
PlanTL-GOB-ES
379
17
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文