🚀 Fibonacci-2-9b模型
Fibonacci-2-9b是基于Gemma2架构的大语言模型,拥有92.4亿参数。它专为自然语言处理任务和文本对话优化,能实现文本生成、问答、机器翻译等功能。
模型信息
属性 |
详情 |
模型类型 |
基于Gemma2架构的大语言模型(LLM) |
训练数据 |
未提及 |
支持语言 |
波斯语(fa)、英语(en)、阿拉伯语(ar) |
基础模型 |
fibonacciai/fibonacci-1-EN-8b-chat.P1_5 |
新版本 |
fibonacciai/fibonacci-2-9b |
标签 |
文本生成推理、文本生成、文本到文本生成 |
数据集 |
fibonacciai/fibonacci-2025 |
许可证 |
MIT |
模型展示

✨ 主要特性
- 架构:Gemma2
- 参数数量:92.4亿
- 格式支持:GGUF,支持4-bit (Q4_K_M)、5-bit (Q5_K_M)、8-bit (Q8_0) 和16-bit (F16)
- 使用许可:MIT
📦 安装指南
文档未提及安装步骤,可参考Hugging Face的transformers
库的安装方法。
💻 使用示例
基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b")
input_text = "Hello! How can I assist you today?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
不同语言使用示例
波斯语
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b")
input_text = "سلام! چطور میتوانم به شما کمک کنم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
阿拉伯语
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b")
input_text = "مرحبًا! كيف يمكنني مساعدتك اليوم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
📚 详细文档
应用场景
- 文本生成:创建富有创意和多样化的文本。
- 问答系统:为用户的询问提供准确的回答。
- 机器翻译:实现不同语言之间的文本翻译。
- 情感分析:识别文本中蕴含的情感。
资源链接
贡献说明
欢迎大家贡献代码!如果您有改进模型的建议或发现了任何漏洞,请通过Issues与我们分享。
📄 许可证
本模型根据MIT许可证发布。更多信息请查看LICENSE
文件。