长文本连贯性
Writing Model Qwen 7B
Apache-2.0
基于Qwen2.5-7B-Instruct微调的写作评估专用模型,使用12K规模SFT数据集训练
大型语言模型
Transformers
W
AQuarterMile
72
3
Minimax Text 01
该模型是一个文本生成模型,能够根据输入的提示生成连贯的文本内容。
文本生成
M
MiniMaxAI
8,231
580
Turkish Llama 8b V0.1
基于LLaMA-3 8B模型,使用30GB土耳其语数据集进行完整微调的土耳其语文本生成模型
大型语言模型
Transformers
其他
T
ytu-ce-cosmos
3,317
60
Turkish Gpt2 Large
MIT
这是一个土耳其语GPT2大模型,专为文本生成任务设计,能够以连贯且符合上下文的方式延续给定的文本片段。
大型语言模型
Transformers
其他
T
ytu-ce-cosmos
4,642
40
Gpt2 Medium Indonesian
基于印尼语的GPT-2中型预训练模型,采用因果语言建模目标训练,适用于印尼语文本生成任务。
大型语言模型
其他
G
flax-community
100
6
Japanese Gpt 1b
MIT
由凛那株式会社训练的13亿参数日语GPT模型,专注于日语文本生成任务
大型语言模型
Transformers
支持多种语言
J
rinna
2,763
101
Ivila Block Layoutlm Finetuned Grotoap2
一个多功能的大语言模型,能够处理各种自然语言任务
大型语言模型
Transformers
英语
I
allenai
43
0
Genji Jp
Apache-2.0
基于GPT-J 6B的日语因果语言模型,在日本网络小说数据集上微调
大型语言模型
Transformers
支持多种语言
G
NovelAI
23
51
GPT J 6B Janeway
MIT
基于GPT-J 6B微调的科幻奇幻题材语言模型,扩展了20%多题材内容
大型语言模型
Transformers
英语
G
KoboldAI
3,175
13