查看原文
其他

你的AI不容易,也让它小睡一下吧

Courage 神经现实 2023-05-27

我们都希望自己的记忆力像硬盘一样强大:创建记忆文件,保存,随时调取使用。但是现在的人工智能还没有达到这种记忆表现。 


人工神经网络容易发生一种烦人的故障,被形象地称为“灾难性遗忘”(catastrophic forgetting)。这些看似不知疲倦的网络可以夜以继日地学习任务,但有时,一旦学会了新任务,就会忘记一切有关旧任务的记忆。这就好像你把网球学得相当不错,但在学会了打水球后,突然忘记了如何挥动球拍。 


这种明显的网络超载,激发了*加州大学圣迭戈医学院的计算神经科学和睡眠教授马克西姆·巴热诺夫(Maxim Bazhenov)的灵感:也许他正在使用的脉冲神经网络(spiking neural network)只是需要休息一下。 


*注

“激发了……的灵感”是ChatGPT另一次翻译中的用法。虽然由于整段质量不高,我没有采用那次的翻译,但这句话翻译得是很好的。堪称“灵光一闪”。

他发现,自然睡眠中人类和蜜蜂的基本大脑活动相同,都在处理着清醒时积累的信息。“这个机制可能正在做一些有用的事情”,才在演化过程中得到保存。所以,他想,为什么不在机器身上尝试类似的状态呢? 


这个想法很简单,只是为人工神经网络提供一些外部刺激的间歇,指示它们进入一种休息状态。像人类大脑打盹时一样,网络仍然活跃,但不再接受新的信息,而是消化、巩固旧信息,寻找其规律。


- Jun Cen -


这些网络似乎与人类大脑中实际发生的事情没有任何相似之处。

这个想法行之有效。在2022年末的两篇论文中[1][2],巴热诺夫和同事们发现,给神经网络提供类似于睡眠状态的间歇,可以减轻灾难性遗忘的危害[3][4]。事实证明,机器大脑也需要休息。


上世纪90年代,认知心理学家和计算机科学家杰弗里·辛顿(Geoffrey Hinton)[5]曾经提出过让早期神经网络进行一段小睡眠的想法[6][7]。但是最新的研究将这一概念应用到了更为复杂的脉冲神经网络上。脉冲神经网络可以模拟我们大脑中神经元的兴奋模式。这项新研究还展示了休息的恢复作用:不仅可以预防灾难性遗忘,还可以提高泛化能力(generalization)。这对于这些网络的实际用途具有重要意义,从网络安全到自动驾驶汽车(需要记住并明智地应用交通规则和阿西莫夫准则*)**。


*注

*阿西莫夫准则(rules of Asimov),或译“阿西莫夫法则”,又称“机器人三定律(rules/laws of robotics)”,由科幻作家艾萨克·阿西莫夫(Isaac Asimov)提出,后来有过拓展和修改。目前维基百科上的三定律为:

第一法则:机器人不得伤害人类,或坐视人类受到伤害;

第二法则:机器人必须服从人类命令,除非命令与第一法则发生冲突;

第三法则:在不违背第一或第二法则之下,机器人可以保护自己。


**“……from cyber security to self-driving cars”这句话中,我很不喜欢从句的译法。如果意译一些,我会使用类似于“对网络安全和自动驾驶汽车等实际用途具有重要意义”。但终于还是遵从译者AI和原文,没有进行大幅删改。

当然,睡眠对于人类自己的记忆和学习也是必不可少的[8][9]。休息期间,我们的大脑似乎会加强在清醒时形成的新任务相关连接,并将它们转移到大脑的其他区域以供长期储存。研究人员几十年来一直知道,虽然我们可能不会遭受完全的灾难性遗忘,但睡眠不足会干扰我们高效学习新技能和保持记忆的能力[10][11]。最新的研究甚至表明,我们不需要完全“关机”就可以改善程序性记忆(procedural memory)。只是静静地休息[12]而不追求新的输入,或者用研究人员的话说,“离线记忆巩固(offline memory consolidation)”也适用于人类的大脑[13]


然而,罗伯特·斯蒂克戈尔德(Robert Stickgold)[14]在这里提出了一些警告。斯蒂克戈尔德是哈佛医学院大脑科学计划(Brain Science Initiative)*的精神病学教授,研究睡眠和认知。他认为,虽然让一个网络“睡觉”听起来很方便,但是不管是为了我们自己还是为了推进网络研究,都不能滥用这个术语。


*注

这里,AI在另一段回答中使用了比较好的initiative翻译,用括号加上了原文,并调换了语序。我在此采用了“大脑科学计划”的翻译。

斯蒂克戈尔德回忆起几十年前他与麻省理工学院一位研究员的对话,后者当时正在构建早期的人工智能算法来解决复杂的商业问题。斯蒂克戈尔德评论说,这些网络似乎与人脑中实际发生的情况毫不相似。他的工程师对话者则答道:“你为什么想让它们相似呢?


- Julia Yellow -


后记

本篇是神经现实举办的“机器翻译”大赛的第04篇,后续会有更多本比赛的作品出炉。如果你对训练ChatGPT做翻译有信心,也欢迎将你的作品投稿给我们,邮箱neureality@outlook.com。点击此处,查看机器翻译原稿对比。


狗尾巴花:ChatGPT的使用并没有那么想象中的那么容易,我不知道应该失落,还是应该松一口气。利用它翻译的困难之处首先来自字数的限制,这篇很短的小文,也分了三次才译出来。而神经现实平时翻译的文章,远远超过这个长度。AI翻译的第二个困难在于指令的调整和选择。虽然是玩笑,但某张表情包很生动地表达了我的心情:

人工智能以及相关研究毕竟不是我的专业,我并不知道这种“不是AI不行,是我不会提问”的看法是否正确。我也不知道,“学会提问”是否真的会随着AI的发展成为未来教育的重要目标。当然,“学会提问”本就应当是教育的重要内容,只不过在截止到我这一代人的教育中,我们的体系并没有给予它所应得的重视。

“学会提问”和“学会向AI提问”是两件不同的事。

“学会向AI提问”意味着,人类需要去迁就AI的理解能力,使用AI可以理解的语言发出明确的指令,并不断试错、调整,以求最佳的输出结果。在翻译任务中,调整指令和筛选答案本身就会花费大量的时间,考虑到目前模型输出的字数限制和后期审校修改的时间,机器翻译暂时还无法取代优秀的人类译者,甚至很难说提高了我们的工作效率。

如果只是懒得看外语原文,想要囫囵吞枣地了解一篇文章的大概,那么机器翻译是一个不错的选择。但这既无法保证观点的准确和逻辑的流畅,也无法悉心细究遣词造句的妙处。就我个人的经验看来,ChatGPT这样的语言模型并不能“理解”逻辑(这使得向其发出指令变得困难),也不是总能避开“翻译腔”(虽然在拆解长句、减少被动语态滥用方面,它确有几处精彩的表现,强过不少蹩脚的译者)。

我仍然将语言和文字当作一门严肃的艺术。哪怕离开了摊在眼前、握在手中的纸笔,我对屏幕上的字字句句依然有我坚持的标准。只要文字尚出自于我,我便拒绝向惰性妥协。信息爆炸的时代,加上本就源于西方世界的学科体系和专业概念,想在科普文章里保留汉语习惯并非易事。很多时候——包括审校这篇机器翻译稿件的过程中,我都需要时刻提醒自己:

“看得懂这句话究竟是因为你懂中文,还是因为你懂英语?”

此一问如雷贯耳,常令我惭愧不已。

说到底,评判AI翻译对错的人是我,评价AI翻译优劣的人依然是我。我的语言功底决定了成稿的质量,不论译者究竟是谁。况且如果底子够足(尤其是中文!),也决意不向自己的懒惰妥协,人类亲自上手翻译或许会比仅仅审校AI的翻译少些束缚、多些创新。不过是看我们愿意为之付出多少时间和心力,又如何在文辞与效率之间取舍平衡罢了。


参考文献


[1] https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1010628

[2] https://www.nature.com/articles/s41467-022-34938-7

[3] Golden, R., Delanois, J.E., Sanda, P., & Bazhenov, M. Sleep prevents catastrophic forgetting in spiking neural networks by forming a joint synaptic weight representation. PLOS Computational Biology 18, e1010628 (2022).

[4]Tadros, T., Krishnan, G.P., Ramyaa, R., & Bazhenov, M. Sleep-like unsupervised replay reduces catastrophic forgetting in artificial neural networks. Nature Communications 13, 7742 (2022).

[5]

https://nautil.us/deep-learning-is-hitting-a-wall-238440/?_sp=066b8a6d-93bf-4020-a579-cac6e3c7f450.1684571860554

[6] https://www.cs.toronto.edu/~hinton/csc2535/readings/ws.pdf

[7] Hinton, G.E., Dayan, P., Frey, B.J., & Neal, R.M. The wake-sleep algorithm for unsupervised neural networks. Science 268, 1158-1161 (1995).

[8] https://www.sciencedirect.com/science/article/pii/S0896627304005409

[9] Walker, M.P. & Stickgold, R. Sleep-dependant learning and memory consolidation. Neuron 44, 121-133 (2004).

[10] https://www.science.org/doi/full/10.1126/science.1062856

[11] Maquet, P. The role of sleep in learning and memory. Science 294, 1048-1052 (2001).

[12] https://learnmem.cshlp.org/content/28/6/195.short

[13] Wang, S.Y., et al. “Sleep-dependant” memory consolidation? Brief periods of post-training rest and sleep provide an equivalent benefit for both declarative and procedural memory. Learning & Memory 28, 195-203 (2021).

[14] https://nautil.us/dreaming-is-like-taking-lsd-238098/?_sp=066b8a6d-93bf-4020-a579-cac6e3c7f450.1684573120395


作者:Katherine Harmon Courage | 译者:ChatGPT 

审校:狗尾巴花 | 编辑:光影

排版:盐 | 封面:Nautilus

原文:

https://nautil.us/even-machine-brains-need-sleep-288191/?_sp=5207446d-5644-456f-924a-f8ea5f8de848.1679510215415



微信又改版了,不是常读或星标的公众号,图文推送不再显示封面啦。为获得更好的体验,以及不错过任何一条精美推送,跪求喜欢我们的小伙伴标一个“星标”,这样才能及时收到我们的优质内容。如有转载需要,可直接快捷转载;或在后台回复“转载”,添加bot微信即可,但暂不支持转载到微信外其他平台哦。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存