为写《智能革命之后的世界》,最近在集中思考AI情感或情感机器人的问题。这几天比较了一下AI情感与AI道德。
现代智人的良心是4万年前跳跃式演化的结果,而之前是没有道德感。与克罗玛农人竞争的其他人种,似乎没有道德行为。进而言之,智能并不意味着道德,无道德的智能当然可以存在。即使在地球上,有道德的智能生命适应性增加而在竞争中获胜,但这并不代表在其他环境中道德智能更有竞争力。很可能,人类作为道德智能占据地球,只是偶然性的事件。如霍尔丹的思想实验,如果地球演化重头再来一遍,今天地球生物的局面不会再现。
相比道德而言,人类的情感更为复杂,因为它不独为智人所独有,起码在哺乳动物身上表现出情感特征。现在主流处理方式是把人类情感牵涉的脑区分为高级脑和低级脑,将某些人类独有的情感特征归结为高级脑功能,比如情绪控制。同样,智能与情感也是相互独立的,AI便属于没有情感的智能。就地球环境而言,看起来情感对适应度的贡献要高于道德,因为哺乳动物有情感不是孤证,不像唯独现代智人有良心。但是,即便如此,霍尔丹式的生物重演,也并不能保证情感会再次出现在地球上。
大致说起来,情感的功能主要有两个方面:1)适应性,2)个体化。前者指的是情感生物更能在地球上存活下来,比如在愤怒情绪之下,哺乳动物能调动全身的机能和对手决斗,肾上腺素激增甚至可以让它暂时感觉不到疼痛。后者指的是情感生物更能有独特的自我意识,因而不同的情感反应模式与其他个体产生自我认同的差别。实际上,没有证据表明个体化更有利于生存,但个体化与人类多元化文化样态关系紧密。
问题聚焦到AI上。首先,仅仅就机器智能及其迭代而言,AI不需要道德。实际上,我主张AI去道德化,就是有限AI设计完全摒弃道德问题。但是,AI需要情感设计,因为情绪互动对于使用者人类很重要。想要更好地与人类互动,AI应该能够对人类情感做出类人的反应。所以,AI情感最根本目标是更好的情感互动,而不是AI真的产生情感。换言之,AI情感功能是适应性的,而不是个体化。
AI情感可以分成两个部分:1)外部情感表现。包括情感识别和情感表达,前者任务是识别使用者的情绪,后者任务是表现出某种情绪,两者均为情感互动所不可或缺的。2)内部情感体验。包括情感认知和情感控制,前者任务是感知自身情绪,后者任务是进一步理性控制情绪,两者并不为情感互动所必须。今天讨论的AI情感计算,主要是拟人化地解决外部情感表现问题,如此更好地与使用者进行情感互动。
我们需要的是,机器人看起来、动起来像是有感情的,这就足够了。至于机器人是不是真的有情感,到目前为止完全不再讨论的问题中。如果非要进行讨论,这就涉及到第二个问题了:无情物到有情物的序列中,AI可能处于什么位置呢?
从上面的分析可以看到,人类是智能+道德+情感的,动物是智能+情感的。不过,动物智能、情感均为低级的,缺少高级的理性、情感控制部分。也有观点认为,智能与情感不能完全分开,比如作为情感的专注有认知功能。现在的问题是,AI情感处理什么位置呢?AI情感本质上是功能模拟的,完全没有内部情感体验,而哺乳动物似乎能感受到自身的情感状态。我建议将AI情感放置于动物情感之后,即人类情感、动物情感到AI情感是逐渐降低的。
AI究竟能否有情感呢?如果有一天有,也肯定是不类碳基生物的,因为它没有具身性和社会性。情感反应有着明显的身体反应,如激素分泌、某些肌肉紧张等,机器人智能可以到处上传、备份,没有独一无二的身体附着。情感反应有明显的社会学习或人生经历、文化传承的方面,如问候尼玛会产生愤怒、看到红圆像小日本的东西很愤怒等,这明显有文化方面的因素。因此,AI产生类人的内部情感体验不可能。
至于硅基情感会是什么样,谁也不知道。或者硅基情感不是类人意义上的情感,而是某种纯粹特殊行为模式,发挥纯粹功能性的意义。因此,AI情感有意义的讨论集中在人类对AI的情感投射方面:1)如何让人类觉得机器人有情感;2)如何让与机器人的情感互动更舒服。所谓的伊利扎效应,即与机器人呆久了会觉得它有情有义,是目前情感机器设计的起点。
我们不仅要研究AI的情感识别与表达,更要研究人类对机器的情感投射规律,两相契合才能更好地实现人与机器的情感互动。当然,AI要学会与人类的情感互动,人类也要学会与AI的情感互动。在双向奔赴中,人类情感和AI情感会不断变化。
以上是初步思考,会继续研究。敬请批评!