P

Phi 4 Multimodal Instruct

由 mjtechguy 开发
Phi-4-multimodal-instruct是一个轻量级开源多模态基础模型,支持文本、图像和音频输入,生成文本输出,具备128K标记的上下文长度。
下载量 18
发布时间 : 2/28/2025
模型介绍
内容详情
替代品

模型简介

该模型融合了Phi-3.5和4.0模型的语言、视觉及语音研究数据,通过监督微调、直接偏好优化及人类反馈强化学习(RLHF)的增强流程,在指令遵循精确性和安全措施方面表现优异。

模型特点

多模态支持
支持文本、图像和音频输入,生成文本输出,具备128K标记的上下文长度。
多语言支持
支持多种语言的文本、视觉和音频处理,覆盖全球主要语言。
高性能
在自动语音识别和语音翻译任务中超越WhisperV3和SeamlessM4T-v2-Large,Huggingface OpenASR排行榜第一。
轻量级
适用于内存/计算资源受限环境和延迟敏感场景。

模型能力

文本生成
图像理解
语音识别
语音翻译
语音摘要
视觉问答
光学字符识别
图表与表格理解
多图像对比
多图像或视频片段摘要
音频理解

使用案例

商业应用
智能客服
通过多模态输入提供精准的客户服务响应。
语音翻译
实时将语音翻译成多种语言,支持跨语言沟通。
教育
视觉数学解题
通过图像输入解决复杂数学问题。
多语言学习
支持多语言文本和语音的学习辅助。
研究
多模态研究
用于多模态模型的研究和开发。