大型模型 关键字列表
阿里提出LLaVA-MoD架构!利用MOE技术让小模型也能大显身手!

阿里提出LLaVA-MoD架构!利用MOE技术让小模型也能大显身手!

多模态大型语言模型(MLLM)通过在大型语言模型(LLM)中集成视觉编码器,在多模态任务中取得了有希望的结果。然而,大型模型的大小和广泛的训练数据带来了显著的计算挑战。例如,LLaVA-NeXT的最大版本使用了Qwen-1.5-110B,并且使用128个H800 GPU训练了18小时。