AIGC 101 | Scaling Law

17小时前发布
0 0 0

AIGC 101 | Scaling Law
AIGC 101 | Scaling Law
AIGC 101 | Scaling Law
AIGC 101 | Scaling Law
AIGC 101 | Scaling Law
AIGC 101 | Scaling LawScaling Law 最早由 OpenAI 在 2020 年提出,描述了模型的性能与「计算量」「模型参数量」「数据集规模」三者之间的关系,被认为是大模型时代的摩尔定律。

影响模型性能的三个要素之间,每个参数会受到另外两个参数的影响。当没有其他两个瓶颈时,性能会急剧上升,影响程度为「计算量 > 模型参数量 &

模型参数越大,计算量不是肯定越大吗?不太懂为什么分成三个,求解答

© 版权声明

相关文章

没有相关内容!

暂无评论

none
暂无评论...