基础模型: sethuiyer/Dr_Samantha-7b
数据集:
-
GBaker/MedQA-USMLE-4-options
-
cognitivecomputations/samantha-data
-
shibing624/medical
推理: false
语言:
-
英文
-
中文
库名称: transformers
许可证: llama2
模型创建者: Sethu Iyer
模型名称: Dr Samantha 7B
模型类型: llama
管道标签: 文本生成
提示模板: |
以下是描述任务的指令。请撰写恰当完成该请求的回复。
指令:
{prompt}
回复:
量化者: TheBloke
标签:
Dr Samantha 7B - GGUF
描述
此仓库包含Sethu Iyer的Dr Samantha 7B的GGUF格式模型文件。
这些文件由Massed Compute提供的硬件进行量化。
关于GGUF
GGUF是llama.cpp团队于2023年8月21日引入的新格式,用于替代不再受支持的GGML格式。
以下是已知支持GGUF的客户端和库的不完整列表:
- llama.cpp。GGUF的源项目,提供CLI和服务器选项。
- text-generation-webui,最广泛使用的Web UI,具有许多功能和强大扩展,支持GPU加速。
- KoboldCpp,功能全面的Web UI,支持跨平台和GPU架构的加速,特别适合故事创作。
- GPT4All,免费开源的本地运行GUI,支持Windows、Linux和macOS,具备完整的GPU加速。
- LM Studio,易于使用且功能强大的本地GUI,支持Windows和macOS(Silicon)的GPU加速。Linux版本截至2023年11月27日处于测试阶段。
- LoLLMS Web UI,出色的Web UI,具有许多有趣且独特的功能,包括便于模型选择的完整模型库。
- Faraday.dev,美观易用的基于角色的聊天GUI,支持Windows和macOS(Silicon和Intel),具备GPU加速。
- llama-cpp-python,支持GPU加速的Python库,具备LangChain支持和OpenAI兼容的API服务器。
- candle,专注于性能的Rust ML框架,支持GPU并易于使用。
- ctransformers,支持GPU加速的Python库,具备LangChain支持和OpenAI兼容的AI服务器。注意:截至2023年11月27日,ctransformers已长时间未更新,不支持许多新模型。
可用仓库
提示模板: Alpaca
以下是描述任务的指令。请撰写恰当完成该请求的回复。
### 指令:
{prompt}
### 回复:
兼容性
这些量化的GGUFv2文件与2023年8月27日之后的llama.cpp兼容,提交版本为d0cee0d。
它们也与许多第三方UI和库兼容——请参阅本README顶部的列表。
量化方法说明
点击查看详情
可用的新方法包括:
- GGML_TYPE_Q2_K - "type-1" 2位量化,包含16个块的超级块,每个块有16个权重。块比例和最小值用4位量化,最终有效使用每权重2.5625位(bpw)。
- GGML_TYPE_Q3_K - "type-0" 3位量化,包含16个块的超级块,每个块有16个权重。比例用6位量化,最终使用每权重3.4375位(bpw)。
- GGML_TYPE_Q4_K - "type-1" 4位量化,包含8个块的超级块,每个块有32个权重。比例和最小值用6位量化,最终使用每权重4.5位(bpw)。
- GGML_TYPE_Q5_K - "type-1" 5位量化,与GGML_TYPE_Q4_K相同的超级块结构,最终使用每权重5.5位(bpw)。
- GGML_TYPE_Q6_K - "type-0" 6位量化,包含16个块的超级块,每个块有16个权重。比例用8位量化,最终使用每权重6.5625位(bpw)。
请参阅下方提供的文件表,了解各文件使用的方法及详情。
提供的文件
注意:上述RAM数据假设未启用GPU卸载。如果将层卸载到GPU,将减少RAM使用并改用VRAM。
如何下载GGUF文件
**手动下载者