Einstein V6.1 Llama3 8B
其他
基于Meta-Llama-3-8B在多样化科学数据集上微调的大语言模型,专注于STEM领域任务
大型语言模型
Transformers 英语

E
Weyaxi
70
67
SOLAR Math 2x10.7b V0.2
由两个Solar-10.7B指令微调模型合并而成的大语言模型,性能与GPT-3.5和Gemini Pro相当,超越Mixtral-8x7b
大型语言模型
Transformers

S
macadeliccc
92
4
Chart To Table
Apache-2.0
该模型用于将图表转换为结构化表格,基于UniChart架构构建,生成的表格使用特定分隔符表示行列结构。
图像生成文本
Transformers 英语

C
khhuang
345
17
Nf Cats
MIT
基于RoBERTa的问答分类模型,用于识别非事实性问题的类别
文本分类
Transformers 英语

N
Lurunchik
245
5
Mixqg 3b
MixQG是一种基于混合答案类型的神经问题生成模型,能够根据给定的上下文和答案生成相关问题。
问答系统
Transformers 英语

M
Salesforce
448
7
Mixqg Base
MixQG是一种新型问题生成模型,通过混合多种答案类型的问答数据集进行预训练。
问答系统
Transformers 英语

M
Salesforce
71
9
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文