Perception LM 8B
其他
Meta发布的基于PyTorch框架的预训练语言模型,适用于非商业研究用途。
大型语言模型
英语
P
facebook
638
28
Bytedance Research.ui TARS 72B SFT GGUF
字节跳动研究团队发布的72B参数规模的多模态基础模型,专注于图像文本转文本任务
图像生成文本
B
DevQuasar
81
1
Nllb 200 Bnb 4bit
NLLB-200-3.3B是Meta(原Facebook)开发的多语言神经机器翻译模型,支持200种语言之间的翻译任务。
机器翻译
Transformers

N
Youseff1987
17
1
Ruri Reranker Large
Apache-2.0
琉璃重排序器是一个日语通用重排序模型,基于Sentence Transformers架构,专门用于日语文本相关性排序任务。
文本嵌入
日语
R
cl-nagoya
2,538
11
Gte En Mlm Large
Apache-2.0
GTE-v1.5系列中的大型英语文本编码器,支持长达8192的上下文长度,基于改进的BERT架构构建。
大型语言模型
支持多种语言
G
Alibaba-NLP
171
5
Llmc Gpt2 774M 150B
MIT
这是一个基于GPT-2架构的774M参数语言模型,使用FineWeb数据集中的1500亿token进行训练。
大型语言模型
Transformers

英语
L
mdouglas
18
1
Aya 23 35B GGUF
aya-23-35B-GGUF量化版是基于CohereForAI/aya-23-35B的GGUF量化版本,支持23种语言的多语言文本生成任务。
大型语言模型
支持多种语言
A
legraphista
399
2
GNER T5 Xxl
Apache-2.0
GNER-T5-xxl是基于Flan-T5架构的生成式命名实体识别模型,参数量达11B,在零样本识别任务中表现优异。
序列标注
Transformers

英语
G
dyyyyyyyy
51
3
Ziya LLaMA 13B Pretrain V1
Gpl-3.0
基于LLaMa架构的130亿参数大规模预训练模型,针对中文分词进行优化,完成1100亿token的中英文增量预训练,显著提升中文生成与理解能力
大型语言模型
Transformers

支持多种语言
Z
IDEA-CCNL
113
20
Blenderbot 90M
Apache-2.0
BlenderBot是一个开放域聊天机器人模型,专注于多轮对话和多种对话技能的融合。
对话系统
Transformers

英语
B
facebook
4,669
3
T5 Efficient Large Nh32
Apache-2.0
T5高效大型-NH32是谷歌T5模型的深度窄型变体,专注于通过增加模型深度提升下游任务性能。
大型语言模型
英语
T
google
16
0
T5 Efficient Large
Apache-2.0
T5-Efficient-LARGE是基于谷歌T5的变体,采用深度窄型架构优化下游任务性能,拥有7.377亿参数。
大型语言模型
英语
T
google
183
4
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文