下游任务微调
Verithoughts Reasoning 7B
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途待补充。
大型语言模型
Transformers
V
nyu-dice-lab
15
1
Bitnet R1 Llama 8b
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息
大型语言模型
Transformers
B
codys12
188
4
Skin Disease Classifier
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers
S
muhammadnoman76
28
0
Log Anomaly Detection Model New
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途待补充。
大型语言模型
Transformers
L
Dumi2025
652
1
News Classification
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需进一步补充信息。
大型语言模型
Transformers
N
Sanali18
111
1
Custommodel Tripadvisor Finetuned
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers
C
AndrewLi403
37
1
Deepfake Detector Faceforensics
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需进一步补充信息。
大型语言模型
Transformers
D
HrutikAdsare
57
1
Full Finetuned Bert Qa
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers
F
reidddd
55
1
Songgen Mixed Pro
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers
S
LiuZH-19
1,006
2
Qwen2.5 Coder 7B Instruct Bd
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers
Q
nomic-ai
44
1
Eru Kg Base
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途待补充。
大型语言模型
Transformers
E
lamdo
81
1
Span Arithmetic Classification
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要补充详细信息。
大型语言模型
Transformers
S
rahul14
72
1
Llama 3.2 Vision 11b 4bits
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers
L
vanthuanngo
308
1
Ophtimus 8B Base
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers
O
BaekSeungJu
733
1
Mbert Lstm Sentiment Analysis
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers
M
simoneprete
691
1
Wasmai 7b V1
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers
W
wasmdashai
133
1
Bone Fracture Detr
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers
B
D3STRON
96
0
Qwen2.5 1.5B Apeach
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确描述。
大型语言模型
Transformers
Q
jason9693
49.16k
3
Phien Table Structure Recognition 143
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers
P
trungphien
27
0
Kpfbert Nli 1
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息
大型语言模型
Transformers
K
eeeyounglee
23
1
Bone Fracture DETA
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers
B
Judy07
13
0
Llama 3 Base 8B SFT SimPO
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要补充信息
大型语言模型
Transformers
L
princeton-nlp
1,814
1
Bert Large Book Genre Classification
该模型是托管在Hugging Face Hub上的transformers模型,具体功能和用途需进一步补充信息
大型语言模型
Transformers
B
TenzinGayche
37.38k
1
Prometheus Bgb 8x7b V2.0
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers
P
prometheus-eval
772
6
Stress Sentiment Analysis
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers
S
machinelearningzuu
18
1
Musicgen Stereo Melody
该模型是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers
M
ylacombe
1,017
0
Tinymistral 248M GGUF
Apache-2.0
TinyMistral-248M 是一个基于 Mistral 7B 模型预训练的小型语言模型,参数规模缩减至约2.48亿,主要用于下游任务的微调。
大型语言模型
英语
T
afrideva
211
5
Tinymistral 248M
Apache-2.0
基于Mistral 7B模型缩减至2.48亿参数的语言模型,专为文本生成任务设计,适用于下游任务微调。
大型语言模型
Transformers
英语
T
Locutusque
1,127
46
Albertina 100m Portuguese Ptbr Encoder
MIT
Albertina 100M PTBR是一个面向巴西葡萄牙语的基础大语言模型,属于BERT家族的编码器,基于Transformer神经网络架构,并在DeBERTa模型基础上开发。
大型语言模型
Transformers
其他
A
PORTULAN
131
7
Xlm Roberta Longformer Base 16384
MIT
基于XLM-RoBERTa权重初始化的多语言版Longformer模型,支持16384的上下文长度,适用于下游任务的微调。
大型语言模型
Transformers
X
severinsimmler
5,438
26
Roberta Base Serbian
这是一个基于srWaC预训练的塞尔维亚语(西里尔字母和拉丁字母)RoBERTa模型,适用于下游任务微调。
大型语言模型
Transformers
其他
R
KoichiYasuoka
20
1
Roberta Small Belarusian
这是一个基于CC-100数据集预训练的RoBERTa模型,适用于白俄罗斯语文本处理任务。
大型语言模型
Transformers
其他
R
KoichiYasuoka
234
5
Debertav2 Base Uncased
Apache-2.0
BERT是一个基于Transformer架构的预训练语言模型,通过掩码语言建模和下一句预测任务在英语语料上训练。
大型语言模型
英语
D
mlcorelib
21
0
Albert Small V2
ALBERT Small v2 是 ALBERT-base-v2 的 6 层轻量级版本,基于 Transformer 架构,适用于自然语言处理任务。
大型语言模型
Transformers
A
nreimers
62
0
Roberta Small Japanese Aozora
基于青空文库文本预训练的日语RoBERTa小型模型,适用于多种下游NLP任务
大型语言模型
Transformers
日语
R
KoichiYasuoka
19
0
Distilbert Base Nepali
Apache-2.0
这是一个基于尼泊尔语文本预训练的DistilBERT模型,专门针对尼泊尔语的下游任务优化。
大型语言模型
Transformers
D
Sakonii
109
7
Roberta Base Thai Char
Apache-2.0
这是一个基于泰语维基百科文本预训练的RoBERTa模型,采用字符级嵌入以适配BertTokenizerFast。
大型语言模型
Transformers
其他
R
KoichiYasuoka
23
0
Bert Base Uncased Sparse 70 Unstructured
这是BERT基础模型的剪枝版本,达到70%的稀疏度,适用于下游任务的微调。
大型语言模型
Transformers
英语
B
Intel
28
0
Distilroberta Base
Apache-2.0
DistilRoBERTa是RoBERTa-base模型的蒸馏版本,参数更少但速度更快,适用于英语文本处理任务。
大型语言模型
英语
D
distilbert
1.2M
153
Albert Xxlarge V2
Apache-2.0
ALBERT XXLarge v2是基于掩码语言建模目标预训练的大型语言模型,采用参数共享的Transformer架构,具有12层重复结构和2.23亿参数。
大型语言模型
英语
A
albert
19.79k
20