T
Thinkygemma 4b
由 xsanskarx 开发
基于Google Gemma-3-4b-pt微调的伪推理专家模型,专为结构化推理/伪诱导推理设计
下载量 19
发布时间 : 3/14/2025
模型简介
该模型是Google Gemma-3-4b-it的微调版本,旨在伪装成优秀的推理者,专注于结构化推理和伪诱导推理任务。
模型特点
结构化推理能力
专为结构化推理和伪诱导推理设计,能够生成逻辑连贯的推理过程。
高效微调
使用LoRA微调技术(r = 128, alpha = 256),在单块NVIDIA H100上仅需9小时完成训练。
优质训练数据
基于2.5万条经过验证的思维链(CoT)轨迹进行训练,数据来自DeepSeek R1和Qwen QWQ。
模型能力
文本生成
结构化推理
伪诱导推理
使用案例
教育
逻辑推理教学
用于生成逻辑推理示例,帮助学生理解复杂问题的解决过程。
生成连贯的推理链条,展示问题解决的逐步过程。
研究
推理能力研究
用于研究AI模型的推理能力和伪推理行为。
提供可分析的推理轨迹,帮助理解模型推理机制。
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文