Verithoughts Reasoning 7B
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途待补充。
大型语言模型
Transformers

V
nyu-dice-lab
15
1
Bitnet R1 Llama 8b
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息
大型语言模型
Transformers

B
codys12
188
4
Skin Disease Classifier
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers

S
muhammadnoman76
28
0
Log Anomaly Detection Model New
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途待补充。
大型语言模型
Transformers

L
Dumi2025
652
1
News Classification
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需进一步补充信息。
大型语言模型
Transformers

N
Sanali18
111
1
Custommodel Tripadvisor Finetuned
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers

C
AndrewLi403
37
1
Deepfake Detector Faceforensics
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需进一步补充信息。
大型语言模型
Transformers

D
HrutikAdsare
57
1
Full Finetuned Bert Qa
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers

F
reidddd
55
1
Songgen Mixed Pro
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers

S
LiuZH-19
1,006
2
Qwen2.5 Coder 7B Instruct Bd
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers

Q
nomic-ai
44
1
Eru Kg Base
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途待补充。
大型语言模型
Transformers

E
lamdo
81
1
Span Arithmetic Classification
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要补充详细信息。
大型语言模型
Transformers

S
rahul14
72
1
Llama 3.2 Vision 11b 4bits
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers

L
vanthuanngo
308
1
Ophtimus 8B Base
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers

O
BaekSeungJu
733
1
Mbert Lstm Sentiment Analysis
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers

M
simoneprete
691
1
Wasmai 7b V1
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers

W
wasmdashai
133
1
Bone Fracture Detr
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers

B
D3STRON
96
0
Qwen2.5 1.5B Apeach
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确描述。
大型语言模型
Transformers

Q
jason9693
49.16k
3
Phien Table Structure Recognition 143
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers

P
trungphien
27
0
Kpfbert Nli 1
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息
大型语言模型
Transformers

K
eeeyounglee
23
1
Bone Fracture DETA
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers

B
Judy07
13
0
Llama 3 Base 8B SFT SimPO
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要补充信息
大型语言模型
Transformers

L
princeton-nlp
1,814
1
Bert Large Book Genre Classification
该模型是托管在Hugging Face Hub上的transformers模型,具体功能和用途需进一步补充信息
大型语言模型
Transformers

B
TenzinGayche
37.38k
1
Prometheus Bgb 8x7b V2.0
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers

P
prometheus-eval
772
6
Stress Sentiment Analysis
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers

S
machinelearningzuu
18
1
Musicgen Stereo Melody
该模型是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers

M
ylacombe
1,017
0
Tinymistral 248M GGUF
Apache-2.0
TinyMistral-248M 是一个基于 Mistral 7B 模型预训练的小型语言模型,参数规模缩减至约2.48亿,主要用于下游任务的微调。
大型语言模型
英语
T
afrideva
211
5
Tinymistral 248M
Apache-2.0
基于Mistral 7B模型缩减至2.48亿参数的语言模型,专为文本生成任务设计,适用于下游任务微调。
大型语言模型
Transformers

英语
T
Locutusque
1,127
46
Albertina 100m Portuguese Ptbr Encoder
MIT
Albertina 100M PTBR是一个面向巴西葡萄牙语的基础大语言模型,属于BERT家族的编码器,基于Transformer神经网络架构,并在DeBERTa模型基础上开发。
大型语言模型
Transformers

其他
A
PORTULAN
131
7
Xlm Roberta Longformer Base 16384
MIT
基于XLM-RoBERTa权重初始化的多语言版Longformer模型,支持16384的上下文长度,适用于下游任务的微调。
大型语言模型
Transformers

X
severinsimmler
5,438
26
Roberta Base Serbian
这是一个基于srWaC预训练的塞尔维亚语(西里尔字母和拉丁字母)RoBERTa模型,适用于下游任务微调。
大型语言模型
Transformers

其他
R
KoichiYasuoka
20
1
Roberta Small Belarusian
这是一个基于CC-100数据集预训练的RoBERTa模型,适用于白俄罗斯语文本处理任务。
大型语言模型
Transformers

其他
R
KoichiYasuoka
234
5
Debertav2 Base Uncased
Apache-2.0
BERT是一个基于Transformer架构的预训练语言模型,通过掩码语言建模和下一句预测任务在英语语料上训练。
大型语言模型
英语
D
mlcorelib
21
0
Albert Small V2
ALBERT Small v2 是 ALBERT-base-v2 的 6 层轻量级版本,基于 Transformer 架构,适用于自然语言处理任务。
大型语言模型
Transformers

A
nreimers
62
0
Roberta Small Japanese Aozora
基于青空文库文本预训练的日语RoBERTa小型模型,适用于多种下游NLP任务
大型语言模型
Transformers

日语
R
KoichiYasuoka
19
0
Distilbert Base Nepali
Apache-2.0
这是一个基于尼泊尔语文本预训练的DistilBERT模型,专门针对尼泊尔语的下游任务优化。
大型语言模型
Transformers

D
Sakonii
109
7
Roberta Base Thai Char
Apache-2.0
这是一个基于泰语维基百科文本预训练的RoBERTa模型,采用字符级嵌入以适配BertTokenizerFast。
大型语言模型
Transformers

其他
R
KoichiYasuoka
23
0
Bert Base Uncased Sparse 70 Unstructured
这是BERT基础模型的剪枝版本,达到70%的稀疏度,适用于下游任务的微调。
大型语言模型
Transformers

英语
B
Intel
28
0
Distilroberta Base
Apache-2.0
DistilRoBERTa是RoBERTa-base模型的蒸馏版本,参数更少但速度更快,适用于英语文本处理任务。
大型语言模型
英语
D
distilbert
1.2M
153
Albert Xxlarge V2
Apache-2.0
ALBERT XXLarge v2是基于掩码语言建模目标预训练的大型语言模型,采用参数共享的Transformer架构,具有12层重复结构和2.23亿参数。
大型语言模型
英语
A
albert
19.79k
20
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文