模型介绍
内容详情
替代品
模型简介
ReasonableLlama-3B是一款基于LLaMA-3B构建的推理模型,经过微调增强了推理能力,支持多种语言处理任务。
模型特点
多语言支持
支持包括英语、德语、法语等8种语言的文本生成和推理
增强推理能力
经过专门微调,提升了模型的逻辑推理和链式思考能力
边缘设备友好
作为小型LLM,适合在边缘设备上部署运行
模型能力
多语言文本生成
逻辑推理
链式思考
指令跟随
使用案例
教育
语言学习辅助
帮助学习者练习多语言写作和阅读理解
研究
小型LLM研究
用于研究小型语言模型在边缘计算场景下的表现
标签:
- meta
- pytorch
- llama
- llama-3
- mlx
- mlx
- reasoning
- llama
- deepseek
- ollama
- chain-of-thoughts
- small-llm
- edge 基础模型: mlx-community/Llama-3.2-3B-Instruct 语言:
- 英文
- 德语
- 法语
- 意大利语
- 葡萄牙语
- 印地语
- 西班牙语
- 泰语
库名称: transformers
许可证: llama3.2
管道标签: 文本生成
额外授权提示: "### LLAMA 3.2 社区许可协议\n\nLlama 3.2版本发布日期:2024年9月25日\n\n“协议”指此处规定的关于Llama材料使用、复制、分发和修改的条款和条件。\n\n“文档”指Meta在https://llama.meta.com/doc/overview分发的Llama 3.2随附的规格、手册和文档。\n\n“被许可方”或“您”指您、您的雇主或任何其他个人或实体(如果您代表该个人或实体签订本协议),且根据适用法律、规则或法规已达到提供法律同意的年龄,并具有法律约束力代表您的雇主或该其他个人或实体(如果您代表他们签订本协议)。\n\n“Llama 3.2”指基础大语言模型和软件及算法,包括机器学习模型代码、训练模型权重、推理启用代码、训练启用代码、微调启用代码以及Meta在https://www.llama.com/llama-downloads分发的上述内容的其他元素。\n\n“Llama材料”指根据本协议提供的Meta专有的Llama 3.2和文档(及其任何部分)的统称。\n\n“Meta”或“我们”指Meta Platforms爱尔兰有限公司(如果您位于或,如果是实体,您的主要营业地点位于欧洲经济区或瑞士)和Meta Platforms, Inc.(如果您位于欧洲经济区或瑞士之外)。\n\n通过点击下方的“我接受”或使用或分发Llama材料的任何部分或元素,您同意受本协议约束。\n\n1. 许可权利和再分发。\na. 权利授予。根据Meta在Llama材料中体现的知识产权或其他权利,授予您非排他性、全球性、不可转让且免版税的有限许可,以使用、复制、分发、复制、创建衍生作品并对Llama材料进行修改。\nb. 再分发和使用。\ni. 如果您分发或提供Llama材料(或其任何衍生作品),或包含其中任何内容的产品或服务(包括另一个AI模型),您应(A)随任何此类Llama材料提供本协议的副本;(B)在相关网站、用户界面、博客文章、关于页面或产品文档中显著显示“基于Llama构建”。如果您使用Llama材料或其任何输出或结果来创建、训练、微调或以其他方式改进AI模型,并将其分发或提供,您还应在任何此类AI模型名称的开头包含“Llama”。\nii. 如果您作为集成终端用户产品的一部分从被许可方接收Llama材料或其任何衍生作品,则本协议第2条不适用于您。\niii. 您必须在分发的所有Llama材料副本中保留以下归属声明,作为此类副本的一部分在“通知”文本文件中分发:“Llama 3.2根据Llama 3.2社区许可协议授权,版权所有© Meta Platforms, Inc. 保留所有权利。”\niv. 您对Llama材料的使用必须遵守适用的法律和法规(包括贸易合规法律和法规),并遵守Llama材料的可接受使用政策(可在https://www.llama.com/llama3_2/use-policy获取),该政策通过引用并入本协议。\n\n2. 附加商业条款。如果在Llama 3.2版本发布日期,由被许可方或其关联公司提供的产品或服务的月活跃用户在前一个日历月超过7亿月活跃用户,您必须向Meta申请许可,Meta可自行决定是否授予您许可,除非或直到Meta明确授予您此类权利,否则您无权行使本协议下的任何权利。\n3. 免责声明。除非适用法律要求,Llama材料及其任何输出和结果均按“原样”提供,不提供任何形式的保证,Meta否认所有明示或默示的保证,包括但不限于所有权、不侵权、适销性或特定用途适用性的保证。您全权负责确定使用或再分发Llama材料的适当性,并承担与使用Llama材料及其任何输出和结果相关的任何风险。\n4. 责任限制。在任何情况下,Meta或其关联公司均不对因本协议引起的任何责任理论(无论是合同、侵权、疏忽、产品责任或其他)负责,包括任何利润损失或任何间接、特殊、后果性、附带、示范性或惩罚性损害赔偿,即使Meta或其关联公司已被告知此类损害的可能性。\n5. 知识产权。\na. 本协议未授予任何商标许可,在与Llama材料相关的情况下,Meta和被许可方均不得使用另一方或其任何关联公司拥有或关联的任何名称或标记,除非为合理和惯常使用以描述和再分发Llama材料或如第5(a)条所述。Meta特此授予您使用“Llama”(“标记”)的许可,仅用于遵守第1.b.i条最后一句话的要求。您将遵守Meta的品牌指南(当前可在https://about.meta.com/brand/resources/meta/company-brand/获取)。您使用标记所产生的所有商誉将归属于Meta。\nb. 在Meta对Llama材料及Meta或其代表制作的衍生作品的所有权的前提下,对于您制作的Llama材料的任何衍生作品和修改,在您和Meta之间,您是并将是此类衍生作品和修改的所有者。\nc. 如果您对Meta或任何实体提起诉讼或其他程序(包括诉讼中的交叉索赔或反诉),指控Llama材料或Llama 3.2输出或结果或其任何部分构成对您拥有或可许可的知识产权或其他权利的侵权,则本协议授予您的任何许可应自提起诉讼或索赔之日起终止。您将赔偿并使Meta免受因您使用或分发Llama材料引起的任何第三方索赔的损害。\n6. 期限和终止。本协议的期限自您接受本协议或访问Llama材料之日起开始,并将持续有效,直至根据本协议的条款和条件终止。如果您违反本协议的任何条款或条件,Meta可以终止本协议。本协议终止后,您应删除并停止使用Llama材料。第3、4和7条在本协议终止后仍然有效。\n7. 适用法律和管辖权。本协议将根据加利福尼亚州法律解释和适用,不考虑法律冲突原则,且《联合国国际货物销售合同公约》不适用于本协议。加利福尼亚州的法院对本协议引起的任何争议具有专属管辖权。\n### Llama 3.2可接受使用政策\nMeta致力于促进其工具和功能(包括Llama 3.2)的安全和公平使用。如果您访问或使用Llama 3.2,您同意本可接受使用政策(“政策”)。本政策的最新版本可在https://www.llama.com/llama3_2/use-policy找到。\n#### 禁止用途\n我们希望每个人都能安全且负责任地使用Llama 3.2。您同意您不会使用或允许他人使用Llama 3.2:\n1. 违反法律或他人权利,包括:\n 1. 参与、促进、生成、促成、鼓励、计划、煽动或进一步非法或违法活动或内容,例如:\n 1. 暴力或恐怖主义\n 2. 对儿童的剥削或伤害,包括招揽、创建、获取或传播儿童剥削内容或未报告儿童性虐待材料\n 3. 人口贩运、剥削和性暴力\n 4. 向未成年人非法分发信息或材料,包括淫秽材料,或未按要求对相关信息或材料实施年龄限制\n 5. 性招揽\n 6. 任何其他犯罪活动\n 1. 参与、促进、煽动或便利对个人或群体的骚扰、虐待、威胁或欺凌\n 2. 参与、促进、煽动或便利在就业、就业福利、信贷、住房、其他经济利益或其他基本商品和服务方面的歧视或其他非法或有害行为\n 3. 从事未经授权或无执照的任何职业实践,包括但不限于金融、法律、医疗/健康或相关专业实践\n 4. 收集、处理、披露、生成或推断个人的私人或敏感信息,包括个人身份、健康或人口统计信息,除非您已根据适用法律获得这样做的权利\n 5. 参与或便利任何侵犯、盗用或以其他方式侵犯任何第三方权利的行为或生成任何内容,包括使用Llama材料的任何产品或服务的输出或结果\n 6. 创建、生成或便利恶意代码、恶意软件、计算机病毒的创建,或执行任何可能禁用、过载、干扰或损害网站或计算机系统的正常运行、完整性、操作或外观的行为\n 7. 参与任何行为,或便利任何行为,以故意规避或移除使用限制或其他安全措施,或启用被Meta禁用的功能\n2. 参与、促进、煽动、便利或协助计划或开发对个人有死亡或身体伤害风险的活动,包括与以下内容相关的Llama 3.2使用:\n 8. 军事、战争、核工业或应用、间谍活动,用于受美国国务院《国际武器贸易条例》(ITAR)、《1989年美国生物武器反恐法案》或《1997年化学武器公约实施法案》约束的材料或活动\n 9. 枪支和非法武器(包括武器开发)\n 10. 非法药物和受管制/控制的物质\n 11. 关键基础设施、运输技术或重型机械的操作\n 12. 自残或伤害他人,包括自杀、自残和饮食失调\n 13. 任何旨在煽动或促进暴力、虐待或对个人造成身体伤害的内容\n3. 故意欺骗或误导他人,包括与以下内容相关的Llama 3.2使用:\n 14. 生成、促进或进一步欺诈或虚假信息的创建或推广\n 15. 生成、促进或进一步诽谤性内容,包括诽谤性陈述、图像或其他内容的创建\n 16. 生成、促进或进一步分发垃圾邮件\n 17. 未经同意、授权或法律权利冒充另一个个人\n 18. 表示Llama 3.2或其输出是人工生成的\n 19. 生成或便利虚假在线互动,包括虚假评论和其他虚假在线互动手段\n4. 未能向终端用户适当披露您的AI系统的任何已知危险\n5. 与设计用于生成非法内容或参与非法或有害行为的第三方工具、模型或软件交互,和/或表示此类工具、模型或软件的输出与Meta或Llama 3.2相关联\n\n关于Llama 3.2中包含的任何多模态模型,如果您是居住在欧盟的个人或主要营业地点在欧盟的公司,则Llama 3.2社区许可协议第1(a)条授予的权利不适用于您。此限制不适用于包含任何此类多模态模型的产品或服务的终端用户。\n\n请通过以下方式之一报告违反本政策的行为、软件“错误”或其他可能导致违反本政策的问题:\n\n* 报告模型问题:https://github.com/meta-llama/llama-models/issues\n* 报告模型生成的风险内容:developers.facebook.com/llama_output_feedback\n* 报告错误和安全问题:facebook.com/whitehat/info\n* 报告违反可接受使用政策或未经许可使用Llama 3.2的行为:LlamaUseReport@meta.com"
额外授权字段:
名字: 文本
姓氏: 文本
出生日期: 日期选择器
国家: 国家
所属机构: 文本
职位:
类型: 选择
选项:
- 学生
- 研究生
- AI研究员
- AI开发人员/工程师
- 记者
- 其他 地理位置: IP定位 ? 通过点击下方的提交按钮,我接受许可条款,并确认我提供的信息将根据Meta隐私政策进行收集、存储、处理和共享 : 复选框 额外授权描述: 您提供的信息将根据Meta隐私政策进行收集、存储、处理和共享。 额外授权按钮内容: 提交
ReasonableLlama-3B:微调推理模型
HF: https://huggingface.co/adeelahmad/ReasonableLlama3-3B-Jr Ollama: https://ollama.com/adeelahmad/ReasonableLLAMA-Jr-3b
欢迎使用ReasonableLlama-3B,这是一款基于LLaMA-3B构建的尖端推理模型。该模型经过精心微调,增强了
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型
支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型
英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型
英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型
英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型
支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型
英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型
英语
O
facebook
6.3M
198
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers

支持多种语言
L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型
支持多种语言
T
google-t5
5.4M
702
Xlm Roberta Large
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型
支持多种语言
X
FacebookAI
5.3M
431
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文