大模型的研发和运行确实需要大规模的资源和资金支持,非小规模团队能够轻易承担。这一点在当前的人工智能领域尤为明显。以GPT4-o为例,其训练涉及了文本、视觉和音频等多种数据模态,这意味着它需要处理和分析的数据量是巨大的。据OpenAI透露,GPT-4o在训练过程中使用了多达13兆的数据,这比之前的一些大型模型如LLAMA和PaLM使用的数据量还要多。此外,GPT-4o的模型参数数量也非常庞大,达到了1.8万亿。