中文 | English
最新动态
新闻中心 最新动态
首页 > 新闻中心 > 最新动态
杏彩体育app“AI对齐”的危险与可能:应以人类的能力与规则为边
发布时间:2024-11-26 10:22:16 来源:杏彩体育官方 作者:杏彩体育app下载

  2023年,以ChatGPT为代表的大语言模型集中爆发,让各界看到人工智能全新的可能性,期冀与担忧并存。为了防止AI发展脱轨,“对齐”概念又重新获得众多拥趸。然而,何为“对齐”?“对齐”能实现吗?它又是否必需呢?若人机(技)融合是人类未来的一个必选项,那么,价值对齐则可能是导引人机(技)融合走向的指南针。数智技术将价值技术化与技术价值化的双向融合理想样态是技术逻辑与价值逻辑的完美契合,但这种契合应是基于价值轴而校准技术,而非基于技术规制价值。本文收录了中国人民大学国家发展与战略研究院研究员刘永谋,上海交通大学数字化未来与价值研究中心教授闫宏秀,以及复旦大学科技伦理与人类未来研究院教授杨庆峰的文章。三位学者聚焦“AI对齐”这一话题,分析对齐的 可能与潜在危险,并提出“AI对齐”应以人类的能力和规则为边界。

  OpenAI“宫斗”大戏,让AI“对齐”(alignment)一词不胫而走。好多人认为,奥尔特曼这样的资本代言人压制坚持对齐的正义科学代言人苏茨克维,我们要站在正义的一方。事实果真如此吗?通过对齐操作,AI发展就能符合人们的需要、不背离人类的意图了?真有这么神奇吗?

  何为对齐?它是在机器学习,尤其是大模型技术发展过程中出现的。《人机对齐》一书认为,“如何防止这种灾难性的背离——如何确保这些模型捕捉到我们的规范和价值观,理解我们的意思或意图,最重要的是,以我们想要的方式行事——已成为计算机科学领域最核心、最紧迫的问题之一。这个问题被称为对齐问题(thealignmentproblem)”。也就是说,对齐意味着让机器学习模型“捕捉”人类的规范或价值观。

  “捕捉”与“灌输”相对,此时AI遵循的规范来自机器学习,而非工程师的编程输入。通过大量学习人类行为,AI“搞清楚”人类行为规则,然后按照规则来行事。因此,对齐问题起码可以一分为二,即对齐什么和如何对齐。

  在很多人看来,包括“AI发展的有限主义者”(强调AI发展的有限性和受控性),“对齐什么”这一问题无法完全澄清。

  首先,人类并没有统一的价值观。生活在不同的国家、地区,不同传统、文化下的不同性别、阶层的人,对同一现象存在不同的价值判断。比如,面对新冠病毒肆虐,有的人认为保全生命最重要,有的人认为自由活动更重要。大模型究竟要学习谁的行动规则呢?

  其次,人类的主流价值观不断在变化。比如,一百多年前一夫多妻制在中国流行,现在则属于重婚的犯罪行为。那么,我们要给大模型输入什么时间段的资料以供学习呢?

  再次,规则存在应然与实然的偏差。比如,男女平等是社会提倡的价值观,但在现实中性别歧视的现象并不少。如果AI学习真实案例,很可能成为性别歧视主义者。此类问题被称为大模型的代表性问题,在实践中屡见不鲜。

  最后,有些AI如机器宠物狗,它应该与宠物狗对齐,而不是与人对齐。否则,它成了狗形人,拥有它并没有养宠物的乐趣。换句话说,不是所有AI均需和人类对齐的。

  因此,“对齐什么”问题是“人类、社会和问题,机器学习本身无法解决”。对齐什么的问题,本质上是以数据方法或统计方法厘清复杂的人类规则和价值观的问题。

  从根本上说,上述质疑攻讦的是:道德哲学或伦理学未能完全解决的问题,大数据或统计学技术可能彻底解决吗?的确,答案是否定的。但是,如同伦理学多少解决了一些价值观问题,大数据技术对人类规则的学习也不是一点用处都没有。在日常场景中,并非完全厘清人类价值观,行动者(agent)才“知道”如何行动。

  在多数时间中,AI只需要以常见方式应对特定场合中的常见状况。在自动驾驶研究中,经常有人以“电车难题”为例来分析。可是,人类驾驶者也极少面对此类高难度决策需要。无论是走“灌输”还是“学习”路线,自动驾驶汽车均可以随机方案或直接刹车加以解决。重要的是承担事故责任,而不是纠结于自动驾驶如何解决“电车难题”。

  目前,机器学习模型主要采用模仿和推断两种方式来进行AI对齐。前者即看人类怎么做,AI跟着怎么做。模仿存在许多问题,比如过度模仿,很多人炒菜之前都会把袖子卷起来,AI可能会模仿这个不必要的动作。更重要的是,模仿的情境大致差不多,但不可能绝对一样,起码时间、地点和对象不同。此时,AI需要对人类行为进行某种推断,然后得出如何行动的结论。显然,此类推断很容易出错,因为AI的推断以数据和逻辑为基础,而人类行为则掺杂非理性尤其是情感因素。

  更重要的是,在人类社会中,大量情境应对是不确定的,无法提炼出某种一致性的社会规则。此时,根本就谈不上对齐,也不应该让AI来处理,而应该交给人类来决策。如果让AI不明所以地处理,可能导致严重而不可逆的后果。并且,AI无法对自己的行为担责,最后导致“无人担责”的荒谬情形。

  总之,必须牢记:AI对齐非常有限,不可对它期望过高。不少研究者认为,对齐基本上没有什么用,不过是AI产业界抛出的又一冠冕堂皇的幌子。

  在特定场合、特定任务中,无论是灌输还是学习,让AI行动符合人类需求都不难。困难的是所谓“通用AI”,因为无法预知它所“通用”的场景,因而既无法预先“灌输”所有应对规则,又无法让其及时“学习”到可靠的应对规则。正是试图让机器学习模型“通用”,才会出现所谓的AI对齐问题。很多人认为,AI不可能通用,它不过是专用的替代劳动工具。

  因此,有限主义者认为,通用AI难以对齐,让AI通用非常危险。显然,它的危险不仅仅在于像ChatGPT一样可能生成错误思想,将人类引入“后”的思想混乱中,更在于它与机器人结合起来,很可能导致大量错误、危险甚至无可挽救的行动后果。有人担心超级AI可能统治人类,可能我们更应该担心的是,依赖没有对齐的AI,世界会被搞得一团糟。

  进一步思考,机器学习模型总结出人类规则,让机器人按此规则行动,反过来会要求所谓的“AI辅助生存社会”中的人类适应机器的行动。由此,机器规则反倒成了人类规则,人得照着机器的要求活着。因此,“我们必须小心谨慎,不要让这样一个世界成为现实:我们的系统不允许超出它们认知的事情发生,它们实际上是在强制执行自己有局限的理解。”

  如果将规则制定的权力完全交给机器,AI向人类对齐,演变类向AI看齐,其最终的结果,必然加速“人的机器化”,即人类失去灵性和自主性,日益成为智能机器的某种配件。

  技术控制的选择论者认为,无论何时,人类都要努力控制包括AI在内的所有新科技发展,使之有益于人类福祉。如果不确定AI的某一发展能否真正有益,就应该停止和转变此种AI发展进路,此即我所谓的“AI发展的有限主义进路”。按照这一观点,规则制定是人类的专属权利,承担所制定的规则导致的责任和后果,而AI只负责听命于人类,执行人类的指令,而不能让它“擅自”行事。

  总之,AI对齐并不是资本与科学、正义与险恶的对峙,而是一种非常危险的尝试。从这个意义上说,OpenAI“宫斗”大戏是AI圈子又一次高质量的“AI宣传术”操作。当大家担忧AI的野蛮生长可能会偏离满足人类需求的目标时,“AI对齐”给公众一个印象:该问题完全可以通过对齐来解决的。

  数据智能作为大数据和人工智能的融合,其对人类的深度数据化与深度智能化使得数智时代成为了人类社会形态的一个重要特征。基于技术发展为人类带来福祉的宗旨,技术所体现的价值观与人类价值观相一致,即价值对齐(valuealignment),是人与机(技)融合所必须面对的一个重要问题。若人机(技)融合是人类未来的一个必选项,那么,价值对齐则可能是导引人机(技)融合走向的指南针。然而,关于技术与非技术的价值对齐、价值对齐的规范性、对齐哪种价值等问题仍存疑虑。价值对齐基准的模糊性是造成上述疑虑的重要原因,且若价值对齐的基准有误,那么,人类未来必将面临巨大的风险。因此,探寻数智时代的价值对齐基准是数智技术发展的锚定桩与哲学对时代问题的应有之思,更是对人类本质及其未来探究的必要条件。

  无论是控制论创始人诺伯特·维纳(NorbertWiener)在20世纪在关于自动化的道德问题和技术后果的探讨中所提出的警示,还是人工智能领域的专家斯图尔特·罗素(StuartJ.Russell)等在21世纪关于智能系统决策质量的质疑中,针对“效用函数可能与人类的价值观不完全一致,且这些价值观(充其量)很难确定”,“任何能力足够强的智能系统都倾向于确保自己的持续存在,并获取物理和计算资源——不是为了它们自己,而是为了成功地完成它被分配的任务”的存疑,都是旨在期冀确保人工智能系统的选择和行动所体现的价值观与其所服务的人的价值观一致。易言之,人工智能系统必须与人类价值对齐才能确保人工智能有效发挥作用。

  在当下,数智技术的生成性、涌现性、交互性、适应性、拟主体性等特性所带来的价值对齐过程中的越狱、幻觉、“欺骗性对齐”“伪对齐”等价值对齐失常现象备受关注。特别在基于目标导向的价值对齐过程中,多智能体协同所产生的问题引发了技术逻辑与人类诉求之间的断裂,关于三体或多体协同的沟通和协调机制所带来的多主体超逻辑关系随之而至,是否会出现一种新的协同论或者超级对齐已经成为技术专家关注的话题。在我们的日常生活场景中,人机(技)之间的做事逻辑差异、数据逻辑与非数据逻辑之间的契合、价值对齐中的人与机(技)之间的机器思维与人类思维的沟通与理解盲区、机器与机器之间的不兼容等已经成为人机(技)融合正在攻克的难题。

  事实上,对价值对齐问题的热议来自机器学习与人类价值观之间的未对齐、对齐担忧、对齐恐惧等,恰如《对齐问题》的作者布莱恩·克里斯汀(BrianChristian)在关于对齐问题的研究中所示,“机器学习表面是技术问题,但越来越多地涉及人类问题”,因此,数智时代的价值对齐不仅是技术价值观与人类价值观念之间的互为生成型问题,更是数据智能价值对齐的顶层逻辑与底层逻辑之间的融贯性问题。基于此,探寻数智时代的价值对齐基准必须以人机(技)融合为切入点。然而,更需要高度警惕的是这种融合所带来的技术逻辑泛滥,特别是在数智化的进程中,伴随技术自主性的日趋增长所形成的技术闭环是否会导致人在技术回路中的脱轨或曰被抽离问题。

  虽然技术作为一种基础设施是构成数智时代的必不可少的基本要素,价值对齐是通过技术所展开的人类诉求的实现过程,但人类社会的特质恰恰在于人具有价值属性,而并非仅仅是技术。当维纳在《人有人的用处》一书中提出“我是相信人类社会远比蚂蚁社会有用得多;要是把人判定并限制在永远重复执行同一职能的话,我担心,他甚至不是一只好蚂蚁,更不用说是个好人了”之时,他将“人之为人”这一哲学话题赋予了某种技术化的解读。事实上,人类一直在跟上时代的步伐,或者创造一个时代,在时代的进程中留下自己的痕迹。那么,当时代由技术界定的时候,人类该跟上何种步伐呢?此时的“人之为人”这个问题是一道送分题还是一道送命题呢?当下人类对于技术的忧惧使得该题显然不是一道送分题;但与此同时,毫无疑问的是,基于人类对自身的本能性捍卫使得该题更不能是一道送命题。

  面对数智时代的到来,人类的生存、生产、生活、生成已经出现了被技术接管的迹象,关于人类命运的悲情预判与超级智能相应的超级对齐研发相映成趣。如,仅仅在2016年,关于替代性制裁的惩罚性罪犯管理量表(CorrectionalOffenderManagementProfilingforAlternativeSanction。


杏彩体育app

上一篇:交通运输发展面临四大挑战
下一篇:每月保费1017元起最高保额高达600万元 乐城全