6月24日上午九点,中国人民大学吴玉章讲席教授、博士生导师刘永谋老师在南京大学哲学系212教研室做了题为《良人选育——AI时代科学人的崛起》的学术讲座,科学技术哲学专业的研究生与其他学校和专业的老师、同学们一起参加了本次讲座。讲座由南京大学哲学系史晨老师主持。
刘老师在讲座开始介绍了自己最近的研究内容,并说明此次讲座围绕AI时代的身心设计问题展开,细分为三个主要问题,分别是(1)智能革命之后,现代社会从AI辅助型社会走向AI替代型社会,人之于社会的用处问题;(2)AI的进化与智人的退化问题;(3)碳基与硅基的竞争问题。
在第(1)点的论述中,刘老师以失业为例说明了AI对社会变革的影响:随着ChatGPT等生成式人工智能在工作、旅游中的使用,我们正在进入AI辅助生存型社会,随着技术的发展,在可预见的未来终将进入AI替代劳动型社会。既有价值观认为,人对社会、对他人的贡献主要在于工作,这是功能性的界定;然而有用、无用的比较是价值观的选择,AI的发展会导致意义世界、价值观的重构。在第(2)点的论述中,刘老师表示进化论受社会达尔文主义影响,在人的进化过程中存在退化,人的适应性是技术适应性,不是生物意义上的适应性,即人和技术创造物是一个整体。正如斯蒂格勒认为技术存在人类学转向,人的退化既有精神上的,也有生物上的。在第(3)点的论述中,刘老师提到库兹韦尔等激进派的乐观主义观点,即坚信机器智能将超越人类智能;也提到拉夫洛克的担忧,如果不尽快进行身心设计,使人类从精神和生物上得到提升,人会被超级人工智能取代。从人类世到新星世,或许人工智能对地球环境的改造会直接灭绝人类。当然刘老师并不赞同他们的观点,指出这些都是哲学意义上不同观点的讨论,没有绝对的对错,应坚持技术控制的选择论,即AI的有限主义:不管未来如何,现在必须控制AI;为了控制必须做出牺牲。就像机器人可以自我设计一样,我们人类也可以有意进化,即主动进行身心设计,如此一来还是有可能战胜机器的。
基于以上的分析,刘老师认为科学人会强势崛起,应当从科学的角度整体地理解人的精神、心灵,而非简单二分。随着技治社会的推进,身体和心灵的对立,人和机器的对立,有用和无用的对立都会消解。机器把智能理解为计算,而人的理解求助于自然科学,这就导致了人的自我量化。受人工智能影响,人觉得自己可测量、可控制、可改造,甚至有人觉得硅基生物优于碳基生物。面对这种情况,一部分人认为应当对人进行“选育”,用科学的方法对人进行制度性的选育,对此存在两方面的设计:一是道德方面,很多人相信智人是残暴的,但是这种残暴是可以被驯服的。科学的方法可以改造并提高人性,从行为主义的视角看,通过奖惩制度可以改造人。二是身体方面,即通过人类增强技术,使智人身体赛博格化,这涉及平等问题和增强的极限问题,而这都是可以解决的。
最后,刘老师指出应警惕身心设计的风险。目前AI的发展缺少明确的发展目标。大规模的身心设计结果不确定,主要面临两个问题:一是身心设计的目标存在争论,即什么是更好的身体?什么是更好的道德?这两者很难简单地进行判断,道德高尚不意味着适应性更好,完美的个体也不意味着完美的社会。二是身心设计的实施可能走样,由于身心设计依赖新科技,我们无法准确预测新科技如何影响社会,这可能会加深不平等的状况。因此,我们应当以审慎的态度加以对待,目前大规模身心设计的各种条件都没有成熟,研究者应结合具体国情,逐渐推进,如果发现问题要及时纠正,避免不可挽回的后果。
史晨老师表示刘永谋老师的讲座十分精彩,兼具广度与深度,围绕AI时代科学人的崛起,以非常广域的视角看待智能时代人的机器化,同时启迪着年轻研究者深度反思AI存在的一系列问题。讲座现场同学们踊跃提问,有马院同学指出网上有一些科技博主的科普视频,称从sora开始把握第一性原理,人工智能是否会推演出精确化未来,置人类自由意志于不顾?随着人类的不确定性更加明显,人工智能是否会导向宿命论?刘老师的回答是现在的许多分析讨论带有科幻色彩,属于AI宣传;第一性原理的定义模糊,从纯科学、纯哲学的角度看,自由意志、宿命论等都不是新理论,没有办法从价值层面判断对错;讨论要有科学性,要区分科学、科普、科学评价、科学价值观,要对科技有所了解,弄清研究目的,将远景与现实结合。科哲专业俞泉林同学以AI辅助驾驶为例,说明AI可以帮助某一项技术发展,但运用到人身上没有一个明确的目的,对AI的讨论是不是要限于工具性功能?关于有用与无用的人,潜在的失业风险是否被AI预判,因而不能简单地用失去人的社会功能概括?老师回答AI导致的失业与之前的失业是不同的,AI的替代是全面的替代,包括脑力和体力劳动,不分行业,替代的是全体人类,并指出机器劳动是设计的出发点。另有一位马理论专业的同学提问技术本应带来人的解放,但经常加深对人的奴役,并且容易造成技术的失控,应由谁来控制?刘老师认为这也是他的困惑,悲观主义在思想界非常盛行,“技术相关,人类有责”,这涉及每一个人,因此每个人都需要努力,比如出版科普类型的书籍进行介绍传播,让相关从业人员了解相关伦理知识等等。这在全球范围内有很多讨论,实际上是当代技术民主化的新一轮浪潮,少部分人掌握技术,大部分人被技术奴役。在此背景下,如何治理人工智能风险确实是个问题,这种治理是否会干涉新技术发展、可操作性如何加强等等均是值得深入思考的话题。
讲座结束后,大家均感意犹未尽,师生交流、讨论不断,最后刘永谋老师和参加讲座的师生们合影留念。
(供稿:杨煜)