GPT-4内幕大泄露!1.8万亿巨量参数,13万亿token训练,斥资6300万美元

2025-02-20 0 605

这篇文章揭示了OpenAI的GPT-4的内部细节,包括其架构、训练和推理的基础设施、参数量、训练数据集、token数、成本等。GPT-4的规模是GPT-3的10倍以上,拥有1.8万亿参数。OpenAI使用了混合专家模型(Mixture of Experts,MoE)来构建GPT-4,以保持合理的成本。文章还提到,OpenAI训练GPT-4的FLOPS约为2.15e25,在大约25000个A100上训练了90到100天,利用率在32%到36%之间。训练成本大约是6300万美元。

此外,文章指出,OpenAI之所以不开源,不是为了确保人类不被AI毁灭,而是因为他们构建的东西是可复制的。预计未来所有中国和美国的互联网大厂或者AI头部初创企业,都会有能力构建出和GPT-4一样,甚至是超过GPT-4的模型。但是,GPT-4是OpenAI的伟大杰作,它凝结了工程师的匠心设计,复杂的构架和各种巧妙的工程上的取舍。

以上内容由ChatGPT总结。

文章来自新智元,阅读原文:https://mp.weixin.qq.com/s/iqvdcnwl4pR4jDXn57Yg8Q

若非本站原创的文章,特别作如下声明:
本文刊载所有内容仅供提供信息交流和业务探讨而非提供法律建议目的使用,不代表任何监管机构的立场和观点。
不承担任何由于内容的合法性及真实性所引起的争议和法律责任。
凡注明为其他媒体来源的信息,均为转载,版权归版权所有人所有。
如有未注明作者及出处的文章和资料等素材,请版权所有者联系我们,我们将及时补上或者删除,共同建设自媒体信息平台,感谢你的支持!

AI老司机 AI行业动态 GPT-4内幕大泄露!1.8万亿巨量参数,13万亿token训练,斥资6300万美元 https://www.ailsj.cn/232.html

相关文章

发表评论
暂无评论