Internlm3 8b Instruct
Apache-2.0
InternLM3-8B-Instruct是上海人工智能实验室开发的80亿参数指令模型,面向通用用途和高阶推理设计,具有高效能和低成本的特点。
大型语言模型
I
internlm
53.04k
217
Ruri Reranker Stage1 Small
Apache-2.0
琉璃重排序器是一个日语通用重排序模型,专门用于提升日语文本检索结果的相关性排序。
文本嵌入
日语
R
cl-nagoya
25
0
Wav2vec2 Phoneme
Apache-2.0
基于facebook/wav2vec2-large-xlsr-53微调的语音识别模型,专注于音素识别任务
语音识别
Transformers

W
Bluecast
189
3
Pointllm 7B V1.2
这是一个基于知识共享署名-非商业性使用 4.0 国际许可协议发布的模型,具体信息需参考模型页面。
大型语言模型
Transformers

P
RunsenXu
920
3
Ko Ocgn Ep1
该模型遵循知识共享署名-非商业性使用 4.0 国际许可协议,适用于非商业用途的知识共享。
大型语言模型
Transformers

K
maywell
1,769
1
Mlewd L2 13B V2 1 050
大型语言模型
Transformers

M
Undi95
18
1
Stanford Dogs Google Vit Large Patch32 384
MIT
大型语言模型
Transformers

S
ep44
48
1
Crypto Sentiment Analysis Bert
这是一个基于Bert架构微调的模型,专门用于分析文本消息的情感倾向,能够区分正面和负面情感。
文本分类
Transformers

C
Robertuus
206
1
Ivila Row Layoutlm Finetuned S2vl V2
大型语言模型
Transformers

英语
I
allenai
92.04k
2
Wav2vec2 Base Vios Commonvoice 1
Apache-2.0
该模型是基于facebook/wav2vec2-xls-r-300m在Common Voice数据集上微调的语音识别模型,支持自动语音识别任务。
语音识别
Transformers

W
tclong
21
0
20220517 150219
Apache-2.0
该模型是基于facebook/wav2vec2-xls-r-300m微调的语音识别模型,支持自动语音识别(ASR)任务。
语音识别
Transformers

2
lilitket
29
0
Data2vec Vision Large Ft1k
Apache-2.0
Data2Vec-Vision是一个基于BEiT架构的自监督学习视觉模型,在ImageNet-1k数据集上微调,适用于图像分类任务。
图像分类
Transformers

D
facebook
68
5
Twteval Pretrained
MIT
基于BERT-BASE-UNCASED架构预训练的情感分析模型,专门针对TWTEVAL数据集进行优化。
文本分类
Transformers

T
ArnavL
26
0
Bert Base Chinese
大型语言模型
Transformers

中文
B
yechen
48
0
Wav2vec2 Base Ft Keyword Spotting Int8
基于wav2vec2架构的语音关键词检测模型,经过OpenVINO量化优化
语音识别
Transformers

W
dkurt
14
2
Hvila Block Layoutlm Finetuned Grotoap2
大型语言模型
Transformers

英语
H
allenai
108
0
Wav2vec2 Large Xls R 300m Hi
Apache-2.0
该模型是基于facebook/wav2vec2-xls-r-300m在通用语音数据集上微调的版本,主要用于语音识别任务。
语音识别
Transformers

W
anuragshas
22
0
Deit Small Distilled Patch16 224
Apache-2.0
蒸馏版DeiT模型在ImageNet-1k上以224x224分辨率进行了预训练和微调,使用蒸馏方法从教师CNN中学习
图像分类
Transformers

D
facebook
2,253
6
Hvila Row Layoutlm Finetuned Docbank
大型语言模型
Transformers

英语
H
allenai
70
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文