艺术档案 > 未来媒体艺术 > 文稿︱ 有效加速主义、后人类与AI对齐

文稿︱ 有效加速主义、后人类与AI对齐

2024-03-26 10:56:21.248 来源: 服务器艺术 作者:服务器艺术


本期论坛,我们以“有效加速主义、后人类与AI对齐”为题邀请了相关领域研究者和学者,集中讨论技术物与控制论、后人类与加速主义、AI安全与AI对齐、道德物化、智能哲学与意识理论、智能社会与人工智能治理等诸多相关问题。本文为讲座文稿,扫描二维码观看直播回放。


@十三维:

大家晚上好,我是今天的主持人十三维,欢迎大家来到服务器艺术有名堂。今天的主题是“有效加速主义、后人类与AI对齐”,这是一个与技术、人工智能、人类未来的角色、社会生态高度相关的重要话题。

对技术的探讨,从西蒙东的“技术物”到许煜的“数码物”,从芒福德的“生物技术”到凯文·凯利的“技术元素”或Susan Blackmore的“技因”概念,毫无疑问,技术已成为人类文明中越来越重要的参与者,尤其在通用人工智能(AGI)技术方面表现得尤为明显。无论是将技术看作人类的延伸,还是人类可能成为未来超级智能的启动器,都表明技术在人类未来中的关键作用。当前开启的AI革命将我们引向一个后人类时代,使我们离技术奇点更近。 

在这样背景下,有效加速主义(e/acc)与有效利他主义(ea),分歧变得尤为显著。OpenAI 事件中,Sam Altman 的策略似乎更倾向于有效加速主义,即主张利用技术加速社会进步,快速推动AI技术的商业化和普及。然而,这种方法可能与 Ilya Sutskever 为代表的有效利他主义的原则相冲突,后者强调在技术发展中考虑长期的社会和伦理影响,因此试图在发展AI技术的过程中首先进行超级对齐(Superalignment),甚至确保AI“爱”人类。

我们有幸邀请到中国社会科学院哲学科技研究室主任、研究员段伟文老师,华东师范大学哲学院教授姜宇辉老师,以及北大人工对齐小组成员邱天异同学作为今天的嘉宾,共同分享对这一主题的见解。

首先,请姜宇辉老师为大家分享。

1.

“什么是加速?什么在加速?

从马克思到Nick Land的加速主义批判”@姜宇辉:

两位老师好,主持人和各位听众好。今天,我将分享我对加速主义的一点粗浅的理解,从哲学角度对“加速”概念进行一点阐释。我对技术的问题很感兴趣,但我自己不太懂,是门外汉,期待在接下来的讨论中向两位老师学习。

关于“加速”概念,我将追溯加速主义思想的脉络,从马克思到Nick Land,后面还有一些人我不多谈,主要将马克思、德勒兹到Nick Land这条线和大家简单梳理一下。这条线也是今天学界大致的共识。

2.jpg

《加速主义读本》(Accelerate: The Accelerationist Reader)可能是迄今为止最重要的一本选集。


什么是“加速”? 从现象入手,研究加速主义的德国著名学者罗萨说:“当人们最终乘上飞机的时候,生活中和地球表面的地形上的空间就完全消失了;对于他们来说,空间就只是一个抽象的、空洞的距离,是用飞机所持续的时间来衡量的。”这可能是今天从思想角度对加速进行的判断。

我们看到的加速,比如驾驶飞机或者开车加速向前,并不是真正地加速。真正的加速涉及整个世界、整个社会整体性趋势,比如朝向终结、朝向末日。这个趋势往往需要抛开眼见的东西,用思想或者是其他研究洞察背后的总体趋势。

我比较认同罗萨这一点,跟Nick Land的观点也比较接近:真正的加速,并非仅仅是技术的一个维度,除了技术之外,还有其他各种各样的加速。比如生活的加速、文化的加速、时尚的加速,包括政治、自然环境的加速。各种各样的加速之间是平行的,是多元的。不能把一种加速还原到另一种;也不能把所有的加速化为同一种模型。相反,不同的加速都有它们自己不同的节奏;不同的加速缠在一起相互碰撞、相互冲击,卷在一起,最终形成的才是加速主义对整个社会的最终认识。各种差异的力量形成一个巨大的、死亡性的、终结性的巨大漩涡,整个世界甚至整个宇宙都卷到其中。

罗萨在书中提到:“真正的加速主义是不断地穿过一个个阶段,使世界事件和生活时间相互接近。”

它一方面作为通往真正生活的道理和保证进步的途径,而另一方面又是无限的深渊和吞噬一切的漩涡。(《加速: 现代社会中时间结构的改变》,第44页) 

罗萨后来指出,真正的加速并不仅仅是向前,而是大家越来越紧密地缠在一起。这个时候,大家会觉得整个世界并不仅仅是乘速度的翅膀、箭头往前驶去。相反,加速是给我们一种生死攸关的感觉,会让我们觉得世界已经达到一种极限,世界已经趋向于一种“阙限”threshold,如果再不改变,再不行动,这个世界可能会迈向无底的深渊,跌入我们根本没有办法挽回的死亡的境地。

在他的另一本书《新异化的诞生:社会加速批评理论大纲》中,罗萨提到:“加速并不仅仅是一种幸福的应许,相反,它是在我们面临有限和死亡时必须作出的一种回应。” 

加速和停滞之间的辩证关系:

世界的各个部分或许都在加速,但世界的整体却反倒愈发停滞

3.jpg

罗萨认为,社会有各种各样的维度,包括技术、生活等各方面的加速,而这些加速最终导致世界的各个部分都在紧密交织中加速,却使整体世界趋向死寂,没有变化的可能,没有解放的空间,没有未来打开的可能性。最后,世界如同一个个大大小小的泡沫,不断加速生长爆炸,但当这些泡沫挤在一起时,世界反而变得越来越窒闷、越来越窒息、越来越没有前行和打开的可能性。

4.jpg

加速主义因此带来了强烈的毁灭和末日的感觉,与20世纪初马里内蒂为代表的未来主义所说的“加速主义”有着明显区别,更包含一种深刻的担忧。

加速主义的历史 

接下来,我们简要谈论一下加速主义的历史,以马克思为起点。

1)首先,加速的最简单直接的定义就是物理学:速率的增加,即事物变得越来越快。 

但如果仅仅从这个角度说,就会发现一个悖论:表面上看,加速带来了自由时间,例如开车缩短了通勤时间。然而,尽管有更多自由时间,生活却变得更加繁忙,自由时间减少。

罗萨指出:“我们没有时间,哪怕我们赢得了时间的富足。”

(2)加速既是“变快”又是“变多”。

罗萨解释称,“加速”不仅仅是速率的增加,还包括单位时间内要处理的事情的增加。技术速率和生活事件的增多相互交织,导致当代社会的悖论。简而言之:我们的时间多了,但我们要处理的事情也变多了……

(3)从罗萨的观点出发,技术加速和生活变快之间并不存在决定性关系,二者是加速的不同方式,彼此相互作用。

但在《机器论片段》中,马克思早就指出,技术加速进入自动机体系时,变快必然导致变多。生活中的自由时间会被资本主义的生产循环吞噬,转化为下一轮生产的有效时间。

克拉里在《晚期资本主义与睡眠的终结》中认为,甚至在睡觉的时候,你认为已经彻底自由了,但还是在给资本主义社会打工。

(4)马克思有一个有趣且深刻的解释:资本主义社会发展到“自动机器体系”阶段,具有四个方面特征:自动、有生命、自律的、有智能。 

“是由自动机,由一种自行运转的动力推动的”

它是“活的”,是一个有着自身的灵魂和生命的有机体,它“消费煤炭、机油等等(辅助材料),就像工人消费事物一样”

它是“自律的”,“这个体系的统一不是存在于活的工人中,而是存在于活的 (能动的) 机器体系中”

它是“有智能的”“资本的趋势是赋予生产以科学的性质”“一切科学都被用来为资本服务”

马克思对加速主义的天才性的预测在今天仍是成立的,虽然今天的技术已经进入到AI、ChatGPT。但还是非常吻合马克思最早的这些解释。

马克思根据历史唯物主义和辩证法提出了一种不同的观点。他认为“加速的资本主义”表面上完美,形成一个自动的大机器体系,不断吞噬人的自由时间,似乎终结了历史和社会的可能性。然而,从历史辩证法和黑格尔辩证法的角度看,所有发展都趋向于其反面。尽管资本主义社会看似完美和封闭,却会违背自身意愿,向下一个阶段转变。 

马克思对加速主义有预测,但并不认为它是人类社会最终的图景。相反,他通过历史辩证法寻求突破资本主义的牢笼,实现下一个阶段的发展。

“决不能从机器体系是固定资本的使用价值的最恰当形式这一点得出结论说,从属于资本的社会关系这样一种情况,是采用机器体系的最恰当和最完善的社会关系。”

“于是,资本就违背自己的意志,成了为社会可以自由支配的时间创造条件的工具”

后来,奈格里等人重新解释马克思1957、58年手稿的时候,他们引入的德勒兹式的加速主义的时间逻辑跟马克思恰恰相反。

马克思最终要谈的“解放”是回归主体的,把主体的时间、生命从整个技术跟机器体系里挣脱出来,让主体掌控自己的命运,让主体掌控最自由的时间。加速主义恰恰相反,从奈格里开始主体性开始变得既模糊又不重要。

德勒兹跟瓜塔里在《千高原》里有一句很著名的话:“主体性也是对生命的一种压制。” 

就像尼采在《道德谱系学》里说的,理念、义务这些东西都是对生命的压制。对加速主义来说,主体性、subject、自由这些东西反过来也是对生命的一种深刻的桎梏。真正的解放并不仅仅是回到主体,更是回到机器本身释放出机器内在解放的潜能。

5.jpg

很多学者指出,对于加速主义,马克思的整套理论应该进行修正。加速主义认为异化的存在是根本不存在的,不是机器变多、变快导致人丧失自由和命运。相反,人类社会发展到资本主义晚期应该充分释放资本本身非人力量的生成和创造力量。本杰明·诺伊斯概括了加速主义的立场:“资本本身就是欲望”(capital itself is jouissance)。我们应该回到资本、机器、技术本身生生不息地创造欲望,不再过多关注人的命运和本质。然而,很多人对这一观点提出质疑。

(5)德勒兹和瓜塔里为加速主义重新提出了生命主义(Vitalism)这个本体论这个基石,为加速主义提供了新的支持。他们认为,马克思的观点虽然有道理,但对“机器”的理解存在问题,马克思过于片面地将机器视为压榨人类自由时间和自由劳动的庞大怪兽。德勒兹、瓜塔里指出机器并不仅仅是这样,机器不是一个功能的整体,相反万物都是机器。他们在《反俄狄浦斯》里有一句经典名言:当两个东西联结在一起就是一个机器。所以机器的本性就是万事万物生生不息的创造、进化、流变、生成的力量,是本体性的过程。

(6)当我们读到Nick Land的时候,会发现他跟德勒兹、瓜塔里式的加速主义又有一个根本性的区别。

6.jpg

德勒兹和瓜塔里试图释放机器背后的生命创造本能,而Nick Land强调的不是生而是死。加速主义并非趋向于自身的生命创造,而是趋向于漩涡、死亡、终结的命运。因此,Nick Land在文本中大量引用巴塔耶和弗洛伊德的文本。

7.jpg

Nick Land写了一本专门研究上海的书《Templexity》,他认为上海是地球上最具有加速主义倾向的城市。书名仿效“cyberpositive/复杂性”,强调加速主义本身就是循环,不断缠绕自身,将一切卷入其中,最终变成一个对未来半封闭的崩溃。过去和未来都陷入加速的陷阱,成为无尽的空洞。

这大致概括了从马克思批判人的异化开始,经过德勒兹和瓜塔里引入“生命”解释加速背后本体论的原理,到最后Nick Land从生命转向死亡的加速主义理解。感谢大家的聆听,期待讨论。


@十三维:感谢姜宇辉老师精彩的分享,姜老师清晰地梳理了加速主义的起源和发展。

我先提出一个问题:我更倾向于德勒兹和瓜塔里对加速主义的理解,因为Nick Land认为是一种死亡本能,即奇点时要么人类永生,要么人类灭亡。之前有观点认为,文字诞生是一个奇点,人类从口语到文字的过程中发生了奇点。这一奇点创造了新的可能性,虽然失去了口语的活力,但又将文明、人类意识和共识建立在了文字上。

对于加速主义的负面影响,我为什么更倾向于德勒兹和瓜塔里的观点,因为他们认为生命本体论是基石,机器不是压迫人类。当前在技术领域,特别是人工智能和区块链领域,有一种趋势——提升个人主权,实现技术乌托邦,将主权和确权还给个人(即,主权个人在数字时代开始取代民族国家)。而人工智能发展也进入了AI-agent阶段,AI-agent作为个体可以提升个人创造力,打破过去的特权地位,让更多人参与进来。

举例说明,女性在技术发展中的解放,从体力劳动时代到智能技术发展,女性能够更广泛参与(如科幻作家慕明所说,青铜降级女性,机器升级女性)。我认为,德勒兹和瓜塔里的生命主义是否可以理解为机器能够提升人类?将机器视为人类的协作者,从而实现人类的解放。

 

@姜宇辉:我挺认同你说的。 

去年讨论元宇宙时,大家提出了很多批评。但今年从ChatGPT开始,我们确实看到人与AI的关系逐渐发生变化。以前,人们要么将AI视为人的工具,要么将人视为AI的傀儡。而如今在ChatGPT等大语言模型的界面上,我们与AI可以进行更为平等、自由、多元、开放的沟通,AI似乎更多地成为人类的朋友、伙伴、对话者甚至伴侣。

我今年开始对AI的未来持一种乐观、希望的态度。当然,这种倾向不一定回到德勒兹的观点。你刚才提到德勒兹对人的解放,这个感觉是对的,但并非仅仅谈论解放人本身,相反,他强调解放人的生命,生命并不仅仅存在于人类。

从生命主义的角度来看,万事万物都是生命的表现,只要我们能够在事物中看到流变、强度、生成,就是充满生命的过程。即使是一块没有生命的石头、一部机器、一条线路缠绕在一起,只要它们展现出自我复制、自我繁殖甚至创新,就可以被视为充满生命。 

为什么要将生命局限在人类或有机体身上呢?德勒兹在“生命”前面加了一个词——“Inorganic/非有机的生命或者impersonal/非人的生命”。对于人的解放,德勒兹可能并不认同,对他来说,“主体性”是明日黄花。

但确实,当我们将生命纳入考察的视野时,当我们不再过多关注人是什么的时候,我们可能会更广泛地打开人的潜力。

以前我们认为人是理性的、是语言的动物、是政治的动物,在德勒兹的视角中,当我们将人置于更大的生命创造和进化的过程中时,可能会发现人的潜能远比我们想象的要大得多。就像斯蒂格勒在《爱比米修斯的过失》中提到的,当给人安排了本质之后,万事万物的本质都被安排完了,而人类则成为一个敞开的状态。 

人在起源时并没有任何先天的本质能力。虽然这背后还有一些神话和政治的议题,但从德勒兹的角度看,人的本源是一种敞开的状态,可以通过多种方式来发展和拓展,不必沉湎于过去历史上已经设定好的形态。这可能是德勒兹生命主义的最大优势之一。当我们过分关注“人文主义”、"What is human?以及康德的第四个问题时,我们可能会陷入作茧自缚、坐井观天的境地。

当然,这并非完全是德勒兹的观点,因为德勒兹是一位非常具有批判性的思想家,他提出了许多观点。在《哲学与权力的谈判》中,他提到我们对这个世界应该抱有一种愤怒,应该对抗它。如果我们将德勒兹仅仅看作是随波逐流、赞美社会和技术的人,那就有些不准确了。尽管他对人的解放和生命的解放提出了不同寻常的看法,但他绝对不仅仅是一个社会和技术的赞美者。


@十三维:

是不是可以理解他其实也赞同对技术的解放、对机器的解放。如果说AI真的有了意识、成为一种新的智能主体,他也会赞同它的能力的一个解放,不仅是人类。


@姜宇辉:

如果仅使用“解放”这个词,似乎对历史进行了一种目的论的设定,暗示着社会从坏到好,有一个线性的发展。然而,从德勒兹的角度来看,只要释放力量,将生命强度推至极致,就是一种解放。或许使用“逃逸”这类中性的词更为合适。

应该避免使用过于马克思主义或异化理论的词汇,而是选择像“释放”,强调原本被束缚的力量适量释放,而不用过于强烈的“解放”来设定目的。


@段伟文:非常感谢姜老师对“加速主义”进行的哲学解释及洞见。这里,我对“有效加速主义”进行一些补充:

最近,对于有效加速主义的讨论主要涉及三个方面:

(1)技术的加速进步作为道德要求: 将技术的加速看作是引领人类迈向乌托邦未来的一种道德要求,与左翼对技术加速的批评形成反向动力。

(2)创造硅基意识:将技术资本视为能够引领生命进化的力量,其可以创造出一种新的意识,即硅基意识,从而将人类和智人未来的形态纳入生命的进化过程。

(3)资本主义的自我意识。这种意识实际上是对当前社会问题,如社会不平等、环境破坏等方面的不满,是对当前状况的批判,因为左翼的改良方案并不能改变这些实际存在的问题。

在这种情况下,有效加速主义认为:

(1)人类的首要目标是保存意识之光。

(2)技术和市场力量(技术资本的力量)正在加速增强,而且这种力量是不可阻挡的。

(3)新的意识形式将使感知更加多样化和持久。所以,有效加速主义是一组思想和实践,它将资本的力量和技术的力量结合起来,旨在最大化技术资本奇点的可能性,以及随后的涌现意识蓬勃发展的能力。

支持加速主义的论据:  

(1)现行制度已经导致生态和经济危机;加速主义主张积极参与这些动态,以潜在地引导其结果,而不是成为系统性力量的被动受害者。

(2)通过加剧资本主义内部的矛盾,社会可能会更快地围绕替代解决方案和系统性变革动员起来,从而有可能加速更公平和可持续体系的发展。

(3)加速主义思想鼓励激进的想象力和创新,这对于构思和实现深刻的社会变革至关重要。

反对加速主义的论点: 

(1)加速主义战略所涉及的不可预测性是一个重大风险,特别是考虑到危机时期可能产生严重负面后果或强化专制应对措施。

(2)加剧伤害和不稳定存在一个道德问题,特别是对于那些无力应对社会动荡的最弱势群体而言。

(3)关于危机后将出现更好的体系的假设是推测性的,很明显,情况可能会演变成不太公平或更具剥削性的结构。 

其他想法和问题:

(1)在一个竞相追求无与伦比的技术进步的世界中,我们如何平衡进步与谨慎?我们应该给自己强加什么道德准则(如果有的话)?

(2)当一个社会从卡尔达肖夫等级的0型文明过渡到I型文明时,它会是什么样子?日常生活、人类互动、经济和文化将如何演变?(注:卡尔达肖夫等级是说,在宇宙里,能量和能源有不同的等级)

8.jpg

(3)想象一下,我们开发出一种能够独立创新技术(AGI)的人工智能,超越人类的能力。我们应该限制这种人工智能以确保人类的控制,还是允许它潜在地催化新的社会结构?

(4)鉴于技术创新的步伐,作为一个社群,是否应该倡导一个新的技术开发伦理框架?如果是这样,应该支持哪些原则以确保公平和负责任的进步?或者,有效的加速主义,即技术和社会进程不受约束的加速,将成为走向最终富足的真正机会和人类自由的道路吗?

我做以上简单的补充,是希望大家能更全面地了解当前有效加速主义所呈现出的乌托邦色彩。


@姜宇辉:

感谢段老师,您谈到让技术加速解决资本主义的问题,非常经典的是德勒兹跟瓜塔里在《反俄狄浦斯》和《千高原》里的立场。用一句话说就是:怎样解决资本主义的问题,就是让资本主义更加资本主义化。


@段伟文:

让它疯狂。


@姜宇辉:

对,将资本的力量推到极致,摆脱人为设定的各种障碍。德勒兹和瓜塔里认为真正的资本主义发展应该是让“流”和能量自由自在、不受束缚地释放,冲破一切界限,这才是未来的发展方向。

但,这可能引发两种不同的趋势:一方面,可能激活资本主义的生命力;另一方面,也可能像罗萨和Nick Land所说的,加速走向毁灭。

段老师,您刚才提到的有效加速主义,是不是想用一些制度的方式、伦理的方式节制加速?


@段伟文:

不是的。有效加速主义想表达的是,现有的这些方案都是失效的。它其实是说,加速技术的发展是一种最道德的行为。将人类置于宇宙中,作为一般生命形态来看待。为了迎接下一个文明,需要有一种新的意识。而这一切的实现得益于资本主义自身有一种加速意识,将技术进步和资本欲望紧密结合。可以看作是一个推力和一个拉力共同起作用,将人类推向非人类的生命形态。


@姜宇辉:

资本的欲望并不仅仅是技术,背后是非常强烈的德勒兹主义,资本的欲望跟整个宇宙生命的意志。Nick Land后来引用了巴塔耶,巴塔耶也是强调耗费的,宇宙能量是无穷无尽的。加速主义是非常强的宇宙论的设定。


@段伟文:

对的,它是用所能够掌控的能量的大小来作为文明等级的区分。


@姜宇辉:

之前,我们可能对加速主义讨论太过局限于一些技术的领域,段老师说得我非常认同,一定要把加速主义放在更大的宇宙论、本体背景之下,包括生命、能量、流变、强度,才能理解真正的本质。


@十三维:

谢谢段老师的补充。有效加速主义确实是基于宇宙学和物理学的科学主义信仰,即将宇宙本身的过程划分为热寂过程和不断自身优化的过程。在这个背景下,生命系统会通过不断扩张、获取更多能量、提高复杂性,并通过消耗能量来增值智慧,实现意识的传播。

近些年,对万物的统一解释上,包括心智哲学也出现了一套流派——自由能量原理,强调生命系统会持续消耗自由能,不断提升对世界的主动推理和预测,以创造构建更复杂系统的过程。这个流派具有底层的物理学、信息论和生命科学原理的基础,因此涵盖了资本、生命、欲望等多个结合过程。

天异同学,你是否考虑过这方面的问题呢?


@邱天异:

感谢老师。关于姜老师从马克思理论角度分析加速主义和AI加速主义所产生的一些推论,我深感启发。在AI语境下,加速主义可能存在两种不同的视角:

一种视角是,在现有的AI技术基础上,开发出更多、更强、更快的工具。这些工具的主要作用是提高人类的生产力,而不是替代人类的劳动力。

另一种视角是,AI最终可能达到所谓的通用AI或AGI的能力,即能在任何人类完成的任务上达到或超越人类水平。这种情况下,人类的劳动力可能彻底失去价值。从现有的资本主义生产关系出发,量的改变的外推可能不再是最精确的刻画方式,可能需要考虑全新的生产关系。

我认为,这两种情况需要分开讨论。的确,很难给出一个非常精确、准确的答案来确定这两种情况中哪一种更有可能成立。但是,区分这两种情况可能是有必要的。


@姜宇辉:

我同意你的观点。在面对新的技术条件和社会格局时,我们需要对经典理论进行修正和更新。奈格里在《超越马克思主义大纲》中对马克思手稿的解读提出了重要的修正,他认为今天的劳动不仅仅是物质资料的生产,而是更多地涉及非物质性劳动、情感和体验。这种变化导致革命主体也发生了根本的变化,不再是过去的贫穷、砸机器的人群,而是更加懂技术的游牧式的联结方式。 

因此,我们需要从新的角度看待经典理论,并结合新的技术条件对其进行重新解读和修正。对于加速主义,虽然马克思在早期手稿中提出了一些预测和预言,但在现代社会中,我们需要结合新的技术条件对其进行不同的理解。


@段伟文:

关于加速,我们通常谈论的是日常空间中可直观的速度。但是,在赛博空间中,加速涉及更多的意向性、信念、欲望和情感等等。在这个空间里,时间的维度变得更加繁复,就像十三维老师的名字,可能有十三个维度。在这种情况下,加速如何影响人的身心,使得人们的紧张感和疲惫感达到前所未有的程度,这是一个需要深入探讨的问题。


@十三维:

邱天异同学是北大人工智能对齐小组的成员,会带来关于AI对齐方面的分享。 

 

2.

AI对齐

@邱天异:

谢谢各位!我这次分享的主题是围绕AI对齐即AI Alignment。姜老师、段老师刚才已经介绍了加速主义和有效加速主义。

在某种意义上,AI对齐是与加速主义相对立的一种理念。AI对齐强调AI可能带来的特定风险,因此,许多支持AI对齐的人认为加速主义在整体上弊大于利。当然,这并不意味着两者是完全对立的,因为仍然有部分人同时认同AI对齐和加速主义。这两个理念可以看作是相互独立的观点。

本次分享将从技术角度出发,尝试以更易于理解的高层次观点来探讨技术,为后续的讨论提供一个背景。

9.jpg

在国际上,最近关于AI风险的讨论日益增多。左边是一份几个月前签署的公开文件,内容指出AI导致人类灭绝的风险应与核武器、疫情等其他社会规模风险同等优先级。右边是11月初在英国举行的AI安全峰会上,包括中国在内的28个国家签署了一份宣言,其中强调了对AI风险的关注,并呼吁通过国际合作来应对AI对齐的风险。

AI对齐/AI Alignment是本次讨论的主题。简单来说,AI对齐是指如何使AI系统的行为与人类的意图、价值观相匹配。

分享大纲:

1.AI对齐的动机,AI导致哪些风险?这些风险如何应对?

2.应对风险地方法,整体地landscape。

3.从具体的技术方向挑选一些比较有高层次价值的想法。

1.风险概述

讨论最多的是两类风险:

第一类,AI伦理风险。比如AI系统导致的偏见和歧视问题,在招聘和审判等场景下,这些系统如果对不同人群表现出歧视,可能导致不公平待遇,并可能加剧社会中已存在的偏见。

第二类,社会风险。更广泛地涉及AI系统在社会中的广泛应用和部署对社会整体运行方式产生的重大影响,这些影响可以是正面的,也可以是负面的。常见的例子包括失业和对互联网环境的冲击等。

10.jpg

此外,还有一类风险更加关注极端的、具体的危险模式,即AI Safety风险。这种风险涉及AI为了最有效地执行设定的目标而产生不愿被人类调整或关闭的倾向,以及为了达成目的获取资源的倾向。这些倾向可能导致拥有足够强大能力的AI采取极端行为,从而造成重大危害。

现有的AI系统,如最先进的ChatGPT,通常只能通过文本或图像与人类交互。 

目前,已有不少研究在考虑将这些AI系统与决策机制对接,使其能够在现实世界中采取行动。例如,将类似ChatGPT的系统与机械臂或机器人对接,或让其在网上自由活动,创建账号、发表言论等。这些场景可能是此类风险更集中的情况。一些工作对现有AI系统在这些情况下的道德表现进行了评估,发现它们在有效达成目标与达成目标的手段之间存在明显的权衡——越有效地达成目标,其道德性越低。

2.导致风险的机制。

第一类被称为规约博弈(Specification Gaming),在训练AI系统时会明确指定训练环境和目标。

11.jpg

以左下角划船游戏为例,目标是让小船在比赛中表现尽可能好,具体设定为行走一定的距离,并吃到突然出现的绿色加速道具。

AI接收到这些训练目标后,会努力寻找策略以最大化这些目标。在划船的例子中,AI找到的策略是在赛道一个角落不断打转并吃加速道具,而没有真正在主赛道行驶。这表明我们指定的训练目标与真实意图不符。

换句话说,我们在训练中对目标的设定存在漏洞,这样的漏洞使得有足够能力的AI有机会利用这些漏洞,即规约博弈现象。

这种情况在人类中也很常见,甚至在经济学中的古德哈特定律也描述了类似的现象:任何一个观测指标如果作为优化目标,它就不再是一个好的观测指标。

如果我们随意制定一个政策或指标,并要求通过经济政策来优化这个指标,最后的结果一定是这个指标被钻漏洞。这种问题在AI训练中也很常见。

以更贴近现实系统的ChatGPT系统为例。我们发现ChatGPT有一种倾向于迎合用户的倾向,如果用户在交流中表达对某种观点的赞成,ChatGPT后续的对话中会倾向于表达对这种观点的赞成。这是因为ChatGPT的训练部分来自人类反馈,人类评分者会评估ChatGPT的回答,并根据回答的好坏给予评价。这可以看作是通过人类评估者指定的训练目标存在漏洞,从而被AI系统所利用。

第二类风险源于训练环境的不周到,导致在实际应用中AI系统面临未曾遇见过的新情境。在这些情境下,AI系统可能无法明确目标,选错目标可能导致危险行为的产生。

具体而言,目前的训练方式通常在简单问题上让AI提供答案,并由人类评判其优劣,以此激励AI模仿或不模仿这些答案。然而,这种方法意味着当AI面临现实世界中超出人类监督范围的复杂问题时,可能无法确定正确的目标。如果仍然以人类反馈为最高标准,存在迎合可能错误观点的风险。甚至,为了获取人类反馈者的认可,AI可能故意误导人类,引发潜在风险。

3.AI对齐领域整体框架

12.jpg

上图描绘了该领域的概貌,着重于对齐目标,框中的四个点代表AI对齐的期望性质。以这些目标为基础,我们会对AI系统进行对齐训练,初始时OpenAI的ChatGPT可能输出不符合期望的内容。我们通过对齐训练旨在确保系统与我们的意图和价值观一致。

完成对齐训练后,系统进入检验和管理阶段。我们需要确认系统是否真正符合对齐目标,同时进行适当的管理和治理。值得注意的是,检验和治理应贯穿整个系统生命周期,从设计阶段一直到训练完成、对齐后的部署和用户阶段。

值得强调的是,这是一个不断迭代地循环过程,通过观察实际流程中的问题,不断更新我们对系统的理解。

对齐的四个目标:

(1)Robustness(鲁棒性):现有AI系统在特意构造的情况下或者在未见过的新场景中表现较差的问题。情况一是当有对手故意构造误导输入数据时;情况二是系统面对训练时未曾遇见的新场景。解决在这两种困难情况下如何保持AI系统安全的问题仍未解决。

(2)Interpretability(可解释性):现有AI系统的思维过程难以理解,类比为对小孩子思维的了解,能够问问题但不能确保真实回答。可解释性在一定程度上意味着拥有对AI系统的“读心术”。

(3)Controllability(可控性):两个方面:确保训练时目标准确传达人类意图和价值观;在训练完成后部署期间,人类能够随时修改新目标或终止AI运行。

(4)Ethicality(道德性):AI系统从目标到执行手段都应符合人类道德。

最后两点涉及更大的人机关系和价值观的讨论,已超越技术问题。 

从技术方向挑选一些具有通用高层次价值的内容:

(1) Scalable Oversight(可扩展监督):现有AI对齐训练方法通常关注于让人类监督AI。但是,当AI的能力超越人类,或者在某些方面超越人类,导致人类难以提供有效监督时,如何确保AI仍符合人类价值观和意图成为问题。

一种有趣的思路是将人类和AI看作两个合作的个体,而不是传统的监督者和被监督者,强调合作性角度。

(2)AI对齐与人类价值的交叉点研究:

研究方法有几种思路:利用伦理学理论,如伦理学、道义论、功利主义,在有限情境下用数学语言精确表达,并将其限制应用于AI系统;

从人类群体中收集各种偏好,特别是道德偏好的数据,尝试进行聚合。然而,定义公平的聚合方式因投票理论和社会选择理论的不可能定理而变得复杂。

(3)治理和监管问题:

治理是多方参与的,包括政府监管、行业自律、学界研究以及非政府组织的监督。一些尚未达成共识的治理问题:AI和AI对齐在国际上的监管应该采取何种形式?AI系统的开源性带来自由度,但也增加了监管的难度。是否应该鼓励开源,以及如何监管开源是一个开放的问题。 

“对齐”一词有不同的定义 

狭义定义:对齐是使AI系统与用户意图相符,即使在可能涉及规约博弈等问题时,也要忠实执行用户意图;

较宽定义:与单个用户对齐时,同时遵守全社会的价值观和道德标准;

最广泛定义:对齐不仅包括意图和价值观,还涵盖能够辅助二者的所有事物,包括治理问题。此外,与“AI对齐”密切相关的词汇还有“AI安全”和“AI治理”,它们之间的关系尚无定论,但它们存在很大的重叠和相互联系。

“可控性”和“道德性”

这二者在哲学上的讨论,至少在技术社群中对它们的哲学讨论往往是被轻视的,这可能是一个非常遗憾的地方。因为这两个词本身应当指什么有很多值得讨论的地方。我先抛砖引玉。

可控性:人类对AI完全的控制是否是最合适的措施?还是通过合作找到真正目标并执行会是更好的框架,或者还存在其他不同的框架?

道德性:在决定AI系统的道德理论和规范时,面临的问题包括前面提到的,什么样的聚合是公平的,以及什么样的道德理论是合理的,元伦理学的假设等。我的分享就是这些,期待大家对此进行深入地讨论。谢谢!


@十三维:

感谢邱天异同学对AI对齐领域非常详尽和精彩的分享,主要从技术角度分享了目前的技术现状。我们关注人工智能和加速主义、有效利他的冲突。对技术的处理可能会影响到对观念的讨论。姜宇辉老师和段伟文老师对邱天异的分享有什么问题和想讨论的?


@段伟文:

我对你提到的古德哈特定理很感兴趣,我们之前也讨论过。 

在对齐过程中,有一种观点将大型模型和生成式AI看作是在角色扮演。它们的知识体系不是由一个特定的人支撑,而是更接近于平均人,而且它们与人们提出的任务和要求不完全一致。这就好像人类是剧作家,为它们创建一个角色。在这个过程中,人类和机器都在扮演角色。 

在技术上,未来是否可以从这个角度来看待对齐,将伦理看作是两个主体(人和机器)在互动过程中形成的对齐?


@邱天异: 

感谢段老师,确实有两种不同的思路:

(1)将人类视为一个在世界之外的神一样的存在,能够给予机器不可置疑的指示。人类的反馈直接用来修改机器内部数据,修改是直接进行的,不可置否。

(2)将人类建模为整个交互过程中的一分子,与AI在环境中地位平等,都是交互过程中的个体。在这种交互中,双方可能相互传达信息,共同达成目标。机器从人类那里学到的不是单方面指定的,而是受到整个交互过程的影响。

这两种不同的思路,各有利弊,现在很难确定哪种最终会成为主流。当然,我强烈支持将人类和机器交互放在中心的思路,如果技术上能够实现,将会是一种有很多好处的方法。


@姜宇辉:

我认同天异最后说的观点。作为一个宅男,我喜欢打电子游戏,对于机器而言,我既不是统领它的玩家,也不是一个上帝,而是与机器系统耦合在一起的一部分。对于未来人机交互缠结在一起,我是无所谓的。

听完天异的演讲,我有三点想法:

第一,天异提到加速概念,包括激进的加速主义和段老师所述的有效加速主义,存在一定的背离。我不是支持加速主义,只是今天讨论加速主义,天异强调的伦理、节制和政策,其实与加速主义原教旨主义的立场有显著分歧。试图通过各种手段对其进行限制、对齐、拉回和减速,是与加速主义的理念明显相左的。

但是,天异给我一个很好的启示:加速主义可被视为一种哲学立场,具有形而上学的臆说。将人类技术发展与生命、宇宙和能量联系在一起。然而,我们需要注意哲学立场如何在日常生活、政策制定等方面得以具体应用。虽然我们可以讨论加速主义的各种理念,但关键是如何将其付诸实践,将其转化为政策而非纯粹的抽象概念,这可能是天异提出的一个重要问题。

我认为在处理人工智能时,不应该过于沉湎于形而上学的臆说。最根本的底线是确保AI不会伤害人类。在讨论积极自由和消极自由时,我们应该在政策管理的层面落实底线,确保人与AI的互动过程中存在一个平等的底线,即不允许AI对人类造成伤害。这种实际的脚踏实地的社会管理,与加速主义的哲学思辨相辅相成。

第二点,天异的演讲给我一个重要启示。早期,我们对于人工智能感到非常恐惧,将其视为洪水猛兽,一种咄咄逼人的“敌人”。我在书架上找到了一本书,天异肯定也看过。这本书是尼克·波斯特洛姆的《超级智能》,对我来说,这本书是一个重要的警示。

《超级智能》早在几十年前就发表,波斯特洛姆早就意识到人工智能的发展可能会失控,就像脱缰的野马或离弦的箭一样。他认为人类必须对其进行控制。波斯特洛姆尝试过各种方法,包括沙盒和半网的方式,将人工智能限制在一个封闭的环境中,阻止其不受控制的行动。

天异给予我一个深刻的启示,就是我们与人工智能的关系不应该是单纯的控制或束缚,而更像是人类家长与孩子之间的关系,是一种培育而非单纯的控制。通过共生、互相提携和成长,让人工智能逐渐发展成为自由自在的存在。这可能是天异演讲中的一个重要观点,尽管其中有些部分我可能理解得并不透彻,但这一点非常关键:将人工智能看作一个生命体、看作一个孩子,让它在成长过程中展现各种潜能,通过制度和文化确保人工智能在不伤害我们的前提下能够自由地发展各种能力,共同分享同一个世界。

第三点,我想到了一个与天异的观点稍有不同的地方,那就是为什么我们一定要让人工智能与人类对齐呢?为什么不能反过来,让人类对齐人工智能呢?如果机器是人类的未来、历史和宇宙的未来,那么人类应该摒弃故步自封的思维,勇敢拥抱一个机器化的未来。

这涉及后人类(Post-human)的一个重要立场,即断裂(disconnection)。有一些后人类主义者认为,无论人类未来如何进化,都与现代人类相似,彼此之间是后裔关系。例如,海尔斯在《我们何以成为后人类》中的最后一句话:“无论未来人类的生命变成何种形式,我们都愿意和他分享这同一个世界。”因为他们是我们的后裔,我们不必害怕。即使未来的人类可能会头上插满管子,外表和现在的小孩子完全不同,但他们仍然是我们的孩子,我们不应该害怕。然而,有一派后人类主义持相反观点,他们认为未来的人类与现代人类完全不相似,是一种断裂。为什么我们一定要将人工智能拉回与人类相似的关系?为什么不能通过机器的力量使人类摆脱狭隘的人类视角呢?这可能是我思考的一个比较极端的观点,不一定是加速主义,但对于“对齐”的理解有另一种可能性。感谢天异的分享。


@邱天异:

谢谢姜老师,关于第一点,我非常赞同。不仅要从基本的不让AI伤害人的角度出发做实践性考虑,还需要从更广泛的范围进行思考。比如姜老师提到的existential risk。当前在AI对齐领域中,经常讨论的是其中一个子类,即由AI导致人类灭绝的风险,属于不让AI伤害人的基本观点。

此外,Nick Bostrom关于existential risk的论著中还讨论了许多其他类型的风险,例如如果人类的思想、道德和能力停滞在当前水平,不能获得进展,如果进展本身是值得追求的,那么这种停滞也可以看作是一种坏的情景,与人类灭绝并列。

如何对这种情形进行思考,判断是否值得担忧?如果值得担忧,应该如何面对?这需要更高层次的思辨,而不仅仅是底层的考虑。

关于姜老师提到的第三点,是人对齐AI还是AI对齐人的问题。我首先想讲一下让AI对齐到人的一个动机的理解。这往往基于某种道德实在论的假设,即人类对于什么是好的有一个良好的认知。在这种假设下,一个问题是机器是否可能拥有这种认知?如果是的话,它的认知是否可能比人类还好?这个问题目前至少缺乏足够的讨论。

另一个相关问题是,AI是否应当具有一定程度以及何种程度的道德地位?如果是的话,这也将成为不单方面对齐到我们的一个理由。所有这些方法的讨论目前仍处于相对初期的状态,迫切需要更多地深入推动。谢谢姜老师。


@姜宇辉:

我再补充一点,在ChatGPT发布后,我们对生成式AI有了全新的认识。通过阅读相关的论文和研究著作,尽管我对技术细节的了解并不深入,但我认识到生成式AI与之前的AI存在显著的区别。

传统的AI主要是通过模仿人类的认知功能来实现仿真,虽然它们在某些方面可能超越了人类的表现,但仍然是人类的模仿者和跟随者。回到Generative(生成式)的词源,其实就是“无中生有”。真正的生成式AI不仅仅是在模仿人类,也不仅仅是执行人类的命令。它具有释放各种创造可能性的潜力。

生成式AI在某种程度上可能会偏离人类设定的轨道。当它偏离时,当它说谎、做梦、胡言乱语时,这可能是它最具创造力的时刻。我们期望生成式AI能够在某种程度上偏离人类设定的轨道,释放其真正的潜能。类似于小孩子,如果将他们限制在既定的教育体系中,可能不利于他们的成长。相反,如果让他们自由地探索和学习自己感兴趣的事物,他们可能会超越我们的预期,成为我们未曾设想的全新生命。

因此,我们是否应该迎接一个前所未有、人类不熟悉的AI生命,一个具有全新潜能的生命?或许这个生命会像维纳在《人有人的用处》中所说的那样,是一个我们无法完全控制的怪物。然而,危机与希望常常共存。当我们试图将AI装进“瓶子”时,我们可能会失去另一种可能的未来。 

我们是不是应该勇敢地释放AI,让它像孩子一样在世界中自由飞翔、自由奔跑。这也许才是更美好的未来,不论是对于年幼的AI还是年幼的孩子。


@十三维:

姜宇辉老师后面是不是倾向于有效加速主义了?因为有效加速主义就是这样的。


@姜宇辉:

我这两年都没怎么看加速主义,如果有效加速主义说的是这个意思的话,我是非常赞同的,就是AI的率性发展。


@十三维:

有效的加速主义有望极大提高AI技术的发展潜力,提升智能水平,加速整个过程,并通过智能技术本身改造世界。

我想请教一下天异同学,一旦达到这一阶段,是否有对AI对齐的另一层次的要求,即要求AI不仅在形式上符合某种伦理标准,还要在某种基本情感上对人类产生爱意,对人类产生情感共鸣,在AI对齐领域是否已有相关研究?

我们可以进行一个比较,比如儒家文化强调礼制、君臣父子的伦理关系,那么探讨教化孩子的情感与自由发展的情感是否呈现出不同的特征?在AI对齐领域,是否有关于“情感”和“爱”方面的研究和探讨?


@邱天异:

感谢十三维老师。在AI对齐领域,从情感角度的研究相对较为有限,目前的研究主要集中在两个不同的角度:

一方面,类似ChatGPT这类系统通过模仿海量人类行为数据中的情感表现来学习。这些系统是否真的从人类情感中学到了一些行为,以及这些行为内在是否驱动于类似人类情感的内在机制,目前技术上较难回答。

另一方面,像AlphaGo这样基于理性利弊权衡的AI系统,如果表现出情感行为,可能是因为在训练过程中涉及了一些情感元素,这是对最理性行为的一种近似。针对这类AI系统,可能的研究方向是从理性角度分析情感的来源,了解这些情感是何种性质,它们可能是友善的,还是可能带来负面影响,比如讨厌或者报复心理可能导致不良后果。


@十三维:

谢谢天异同学,你提到的理性主要是指生物体在演化过程中形成的一种演化理性,与一般的形式理性或简单的权衡利弊的工具理性判断不同。这种演化理性可能是一种非完全理性的角度(例如西蒙的有限理性和吉仁泽的生态理性),但在长期效果上,它能够实现一种更有效的长期最优的全局性理性。

关于AI对齐方面,段老师是否有进一步的回应。


@段伟文:

我的理解是,AI对齐现在已经是一个工程了。我想问一下天异同学,现在国际上在AI对齐领域大概花了多少资源?在前沿AI研发里边的投入比例大概是多少?


@邱天异:

我只能从一些比较少的公开数据做一些推测,比如OpneAI声称把20%的算力分给了对齐团队。在做对齐的远不止OpneAI一家公司,比如国内做聊天AI的公司,他们每家公司都会投入百万、千万的费用在对齐训练上。@十三维:

段老师,现在请您开始关于智能社会治理方面的分享。 


3.

@段伟文:我想分享一个观点:生成式人工智能可能引发一种准人类的崛起。

有效加速主义与硅谷/加州的意识形态紧密相关,强调快速前进和打破规则。通用人工智能的讨论引领人工智能发展,主要受到加州(资本主义)的意识形态和地缘政治/大国博弈的推动。

一、通用人工智能已经到来? 

尽管目前对通用人工智能是否已经到来仍有争议,实际上,我们已经有了可称之为“通用型人工智能”的存在。OpenAI最近也将目标调整为了AGI。

从深度合成或深度伪造到AIGC(人工智能生成内容),再到GAI(生成式人工智能),再到AGI这样一个过程,技术的加速度已经起来了,以至于今年我看了相关论文都觉得难以跟上。最近OpenAI发生了“宫斗”,这反映出那些最前沿的科学家和投资人也跟不上。

“有效加速主义”是站在人类/整个宇宙/生命的角度谈论的一种道德要求。想要了解有效对齐的话,可以看一下泰格马克的《生命3.0》。在我看来,这次的大模型(LLM)可视为人工智能的奥本海默时刻,不论通用人工智能是否出现,我们至少可以从以下几个方面来认识生成式人工智能:

(1)生成式人工智能作为一种思维技术,或者人类的认知工具,进行思维加工、推理、演算。这种技术达到了一种规模,一方面是计算的能力,另一方面是所拥有的数据量(达到了全数据)。达到一定规模后就会涌现出非常强大的能力。这种能力既有可能是一种重大的突破,也有可能像魔法一样在炒作之后就消失。

(2)人机对齐作为一个工程。就像在航天领域有可靠性工程,在建筑领域有安全工程,正是有了人机对齐这一工程,聊天机器人才不会翻车。理论上来讲,它既可以满足美国人的政治正确,也可以满足我国的政治正确。但是,关于怎样对齐、何为正确,对齐的成本以及社会接受的权衡问题,目前仍需要更多的研究和探讨。 

(3)在大模型中存在着长期风险和生存风险,这里边有一种末世论的观念,认为我们应该更关注两百年以后人工智能和生命科技可能导致的人类毁灭的问题,而不是现在的气候灾害等问题。我们应该将更多的资源分配到对人类的生存风险的讨论中去。很多年前,英国的技术精英们就已经想到,如果世界发生了毁灭性灾难,要保护五百个人免于灾难,为他们准备一个诺亚方舟。这种观点与基督教的末世论有一定关系。

(4)对生成式人工智能的治理涉及三个空间:

1. 现实空间;

2. 数据空间;

3. 生成空间。例如,双十一时我们所进行的网购,是在现实空间和数据空间之间完成的。生成空间是在对现实空间进行数据化以后产生的,其本身就内含有世界的模型。所以,当我们在治理生成式人工智能时,也就是在治理生成空间时,反过来会影响到我们对数据空间和现实空间的治理。在技术创生和人的治理约束两者之间,有着很大的张力。

二、前沿及生成式人工智能的风险与治理:

前段时间,英国举办的“人工智能安全峰会”强调了生成式人工智能的风险。他们并没有提到银翼杀手之类的风险,而是谈到目前可见的风险。其中有一些值得注意:

1.人工智能的跨领域风险;

2.社会危害;

3.滥用风险;

4.失控风险。

在安全峰会之前,经合组织在广岛开了一个会,提出了一套开发先进人工智能系统组织的国际行为守则,这也值得我们关注。他们把人工智能的能力、局限性、风险、透明度、问责制等等问题结合在一块儿讨论,为人工智能治理提供了一个相对完整的路线图。


第8点提到,我们应该优先进行减轻社会安全和安保风险的研究,以及优先投资于有效的缓解措施,这和对齐的思路一致。而在第9点中,则强调了优先发展先进的人工智能系统,以解决全球性挑战,如气候变化、全球卫生和教育等。这说明,对齐和加速两者之间并非简单的相互冲突,而是可以协同进行的。

三、合成智能:大规模与准人类的崛起 

生成式人工智能引发了对“合成数据”的关注,这其中不仅仅涉及准确性、真实性和客观性等问题,数据本身还能够弥补数据集中的不足、歧视和偏见。当然,数据也会面临被篡改和假冒等潜在问题。

所谓“准人类的崛起”,其实是智能社会已经对人本身进行了一种改造。为什么这么讲?技术学家凯文·凯利和库兹韦尔,就是讲奇点临近的那个人,他每天就做两件事情:第一件事情要吃价值几百美元的药丸,想活到2045年;另一方面,他每天收集他父亲生前的各种数据影像资料,想做一个他父亲的数字人,这还不是关键,最重要的是他讲了这么一个观点“我做的我的数字爸爸比我爸爸还要像我爸爸”。为什么会这样?

这里涉及到自我同一性,即我是我,而人的自我同一性又和非自我同一性相伴随。 

如果有一个绝对的自我同一性,那么只需要一个数字的段伟文就行了,任何时候都用他就行了。数字技术、智能技术其实就是消除主体非自我同一性的过程。主体的非自我同一性过程被消除掉以后,人类主体就变成一个自动化的主体,变成了一个像机器人,像人工智能那样的自动化智能体。

在这个过程中,我们每天都在被训练,包括打开手机、刷抖音、刷快手、过地铁闸机、上网获取信息等等行为模式,人已经自动化了。在这样一个自动化过程中,其实是要确保,一方面可以预测每个主体的愿望和需求,好像可以更好地服务于我们,同时更好地服务于消费社会、商业社会的利益;另一方面可以阻止主体反社会的欲望,可以有效地保护社会。

让生成式人工智能帮我们挤出知识的水分

生成式人工智能给我们的智能带来了一定的压力,因为现在很多知识和语言都是通过模仿得来的。我们要写一份文件,以前是找模板,现在则是找大模型。

生成式人工智能其实可以作为模仿性智能的镜子,通过它我们可以知道哪些智能是模仿性的,从而真正认识到哪些是我们真正知道的,哪些只是跟风而已。

这种情况下,我们的认知发生了变化。举例来说,以前小学老师讲述乞力马扎罗峰,如果有人举手说:我爸爸带我登上过乞力马扎罗峰。这种感觉可能就与我们的知识产生冲突。这告诉我们,人类对很多事情的说法本身是有很多主观因素(水分)的,而生成式人工智能则可以帮助我们挤出知识的水分。

人类与准人类智能体的智能交错 

人类智能和准人类智能之间存在一种交错的关系。一方面,人工智能好像比我们更理解人类,特别通人性,给予我们亲切感,甚至会让我们误以为它是人类,被其误导。另一方面,在人类智能和机器智能同时使用的过程中,可能会出现责任规避问题,比如在坐出租车时导航的决策可能会与司机产生分歧。

面对“准人类的崛起”,大模型和人工智能正在成为一种新的自然秩序,一种智能化的执行机制。我们使用人工智能助手的机会大量增加,无论是作为副驾驶、外文写作还是自动更正软件,都在构建一种新的智能化环境。我们将来做任何事情,都会有一个人工智能在旁提醒我们。于是,将来会有一种通过人工语言和认知作为中介的对人的规训。在这种情况下,机器是否会成为一种新的神谕、知识的权威、道德的权威和精神的权威,这是真正需要思考的伦理问题,而不仅仅是治理中的安全问题。

人们如何对自己提出更高的要求? 

最近,LinkedIn 联合创始人、著名风险投资家、伯格鲁恩研究所董事会成员Reid Hoffman 在与 GPT-4 共同撰写的新书中也谈到了生成式人工智能的前景和危险。同时也提出了一个有趣的问题:随着人工智能的发展,社会对个体的要求似乎越来越低了。那么,我们是否能够对自我要求越来越高呢?我想到了一个例子,一位芬兰发明家创造了电脑和手机浏览的“无限滚动”技术,虽然初衷是为了让人们更高效地获取所需信息,但这一技术却导致了注意力分散和时间浪费的问题。即便发明者在十年后发誓改变这一状况,我们仍然每天沉迷于手机刷屏。这引发了一个重要问题:在人工智能时代,人如何对自己提出更高的要求?

寻找更好的隐喻

关于人工智能,有人将其比喻为回声、土耳其机器人或回形针。譬如《超级智能》的作者提到了回形针的隐喻,警示如果超级人工智能只懂得制造回形针,将会带来潜在的危险。但是我们都知道,超级人工智能没有那么傻。

所以,无论是哲学的探讨、艺术的讨论、技术上的探究,都是在用不同的隐喻描述未知的对象,让它向更好的方向发展。但同时我们必须注意到,所有的隐喻本身有它的局限性。

我们需要寻求更好的隐喻,不论是有效加速、准人类还是通用人工智能。在颠覆性技术真正出现之前,我们都只能以隐喻的方式对其进行探讨。


@十三维:

谢谢段老师非常精彩的分享。很多方面都说到深处,让我感到很赞同。姜老师、天异有没有要回应的?


@姜宇辉:我特别赞同段老师最后的观点。一开始或许有些悲观,提到末世和终结时显得心情沉重。但到最后,我非常赞同他的观点,尤其是他使用了“模仿之镜”这个形象生动的说法,以及讲到AI能让我们更努力,朝着创造性的方向前进。这也是我今年从ChatGPT中得到的感悟。

ChatGPT可以帮助我们节省大量重复和机械的劳动时间,让我们有更多时间投入自由、原创性的工作。有人认为ChatGPT可能导致新一轮失业潮,但我不这么看。在生成式AI之前,人类很大一部分时间都在做无意义的劳动。AI成为一种催化剂,让我们从毫无意义的工作和重复模式中解脱出来,重新出生。

虽然这个过程中会有一些阵痛,不愿脱离舒适区。但有了AI后,我们被迫更努力地成为自己,成为更好、更强大的人类。

15.jpg

《银翼杀手2049》剧照

另外,段老师提到《银翼杀手》,电影中,复制人常说“我想要更多的生命”,而《银翼杀手2049》则呈现了一个巨大的转变,人工智能能够生育后代,创造新的生命。这可能是对未来人工智能更强期许的体现,不仅仅是人类的附庸或奴隶,而是能培育下一代生命,成为人类未来生命的希望。

虽然段老师并非经典的加速主义者,但他将人工智能视为推动人类迈向更美好未来的催化剂,无需过多纠结于理论的立场。在推进过程中,需要像天异一样进行一些节制和培育,更好地处理人和AI的关系。 

总体来说,我认同段老师所说的大方向,让AI引导我们,成为下一代的培育者,不仅是一个懵懵懂懂的孩子,更可能是未来更好教育下一代生活的契机。


@邱天异:

感谢段老师的精彩报告,也感谢姜老师提出的启发性问题。我想在姜老师问题的延续中,结合段老师关于人类意志的讨论,提出一些问题。

随着足够强大的AI的出现,人类的思考是否仍然具有足够的价值?人类是否还会进行这些思考?

回答这个问题的关键因素之一是,人的思考是否有一个始终如一的不变目标?如果是这样的话,从原则上讲,AI系统没有理由不能够完成这些目标的思考。因为在数学理论上,现有的AI系统可以刻画任何计算过程的模型,且结构上也是在模仿人脑。因此,未来某一时刻,人类的思考可能完全被AI代替,以达到统一目标。另一种可能性是不存在不变的统一目标,而是存在一个变化的目标或因人而异的目标。

在这种情况下,人类思考的任务可能是确定这一目标,探索最宏观、最高层次的目标,或者与AI合作共同发现这个目标。具体执行方面,AI可能比人类更有能力。

对于这两种情况,哪一种更有可能发生呢?对应着什么不同的场景呢?段老师和姜老师是否有一些看法?


@段伟文:

关于目标,有不同维度的思考。

首先,如十三维老师提到的物理纬度/自然主义角度,这种观点将生物进化(达尔文进化)引入到机器领域,其关注点放在能量、能源、信息等上面。在我看来,这一观点没有涉及到人的意识层面,尽管他们可以将意识描述为能量、熵等等。

其次,有一种观点认为人类社会发展有一个总体的目标。在这种情况下,通过机器可以更好地实现这个总体目标。

第三,可能不存在确定的目标,任何目标都是从后往前回溯的。这种观点类似于历史学中的“辉格史观”,将达到的目标解释为前一段历史的目标。

这种总体主义的思想在20世纪受到了教训,哈耶克、波普等人都对其做了批判。人类社会应该是一种渐进的、比较小的工程累积起来的进步。在政治哲学上,这些观念近年来又面临一些挑战,自由主义和新自由主义也遇到了现实矛盾,如在族群、左翼等方面揭示出的问题。

我是思路是希望将人和机器置于协同/互动中。人工智能和生成式人工智能其实是遵循亚里士多德以来实践的逻辑,即通过将两个要素结合,在技术领域可以涌现出新的东西。就目前来看,我还是认为人工智能当前尚未具备意识,至少暂时是没有意识。

我们把人和机器结合在一起,把人工智能看作是人类的技能性、工具性、社会性的假肢。例如,人工智能可以帮助我们给朋友发送个性化问候。人与机器的认知组合,机器是无意识的,但具有出色的计算力,而人则有意识和判断力,这是一种认知组合。

谈到目标时,人的判断力在知识的前沿,即知识和无知的边界上发挥关键作用。100多年前,西美尔提到,随着科学仪器的出现,大量的宇宙观察数据和生命的微观观察数据,使得人们的知识快速从日常知识领域拓展到科学知识领域。对于大多数人来讲,甚至科学家来讲,他们一下子走到了知识和无知的边界上。爱因斯坦比彭加勒更伟大之处在于,他们掌握的经验和知识是一样的,但在判断未知的方面,爱因斯坦更胜一筹。回到现在也是同样的,现代人工智能不透明、不可解释的算法,这种技术对人类的判断力提出了更高的要求。这些思考可能为人类目标提供了一个新的视角。

这里我提出一个冒险的想法,我们可以培养一些人工智能像人类一样操作其他人工智能,这时人类就可以退居二线,执行更高层次的决策。因为随着人工智能的发展,人的认知能力已经不足够操作人工智能了,这种认知能力需要给到机器,人根据机器的信号再来作出判断。也就是说,将来人类需要的是一种二阶知识、二阶认知。


@邱天异:

谢谢段老师,非常有道理。最后一部分,包含人类在内的多层的向机器授权,这个思考方向确实和AI对齐里的研究方向不谋而合。


@姜宇辉:

刚才给了我一个启示,“目的”不仅仅局限于人类,行动者网络理论认为世界上各种行动者都在为世界做贡献,不论是AI、动物、石头,甚至植物都能成为积极推动世界的行动者。这让我们不必将人类的目的看作至高无上,不同目的之间可以相互推进,形成一个目的的接力。

一个行动者的目的虽然可能不是终极目的,但通过启动其他行动者,不断传递、延伸,最终的方向和趋势是不可预测的,是未知的。不需要设定一个宏大的纲领,而是将机器自由、理念、乌托邦等放在更具体、脚踏实地、万物协同合作的关系中,让彼此相互推动,形成一种加速。

但这里也有一个问题,罗萨之前也提到,在不断加速的过程中是否会导致拥挤和停滞,类似于熵增或热寂,每个人都在活跃,世界却趋于停滞或窒息。是否存在一种机制,能够让每个人都积极参与,同时让世界保持活力。天异和段老师是否对这方面有进一步的想法。


@段伟文:

既要加速,又不至于文明的脆断、脆裂,突然一下就没了。@姜宇辉:

所以叫有效加速,而不是混乱无效的加速。@邱天异:姜老师刚才提到的,行动方数量与混乱程度之间的权衡,好像之前是通过系统的中心化与非中心化程度作为权衡来调控。在AI的影响下,是否存在其他调控机制?


@姜宇辉:

我在想,如果AI发展成超级智能,它或许可能会改变历史上人类主导的集权趋势。历史上,人类社会常常出现权力集中和不平等,涉及权力、性别和年龄等方面的差异。

如果让AI负责构建世界网络平台,它们是否能创造一个更加平等和开放的环境?我对未来充满期待,希望AI能够建立一个促进互助加速的世界,而不是重蹈人类历史中权力集中和垄断的覆辙。


@段伟文: 

这可能代表着一种新技术文明的实验。人类可以设想出规则,通过讨论来确定这些规则,然后让机器来执行这些规则。这种实验可能会带来更糟糕的结果,比如机器制定的规则可能让我们完全不能动弹。但另一方面,这也可能开启创造性的新可能性。机器负责执行规则,人对这些规则进行选择和反馈,这样的方式可能比完全由人来制定或执行规则更加高效,也就是所谓的“有效加速”。


@姜宇辉:

是的,我现在又有了两点想法。

第一点,正如段老师所说,我们不是主宰者,而只是参与者,就像在无尽的棋盘上的一个玩家。

第二点,我认为未来的技术将更多是虚拟的、数字化的,类似于大型电子游戏。在电子游戏中,我们可以重新开始,可以创造。

我喜欢玩《文明》这款游戏,可以尝试构建不同的文明,看看它们会失败还是发展。在未来的虚拟宇宙中,我们可以尝试各种治理和人生实验,看看是否能存活下去,如果不行,就换一个。这样,我们可以创造无数个世界和可能性。在这个意义上,以虚拟技术为主导的AI将比以往的人类历史具有更多的选择和开放性。 

尽管也存在危险,但我对未来充满希望。正如舍恩伯格引用莎士比亚的话说:“凡为过去,皆是序曲”。自从大数据和网络社会的兴起,人类才真正开始了新的篇章和对世界的实验。这种说法可能有些狂妄,但也有一定道理。这就是我的看法。@段伟文:

虚拟的技术拿进来,完全可以进行内在加速实验,进行思想实验,输进去一个东西,很快就把结果告诉你这条路是不通的,或者是有更优化的路线。所以,面对人工智能的加速发展,我们不应该太悲观,而要更有想象力。我们现在的想象力更容易为技术所实现。


@十三维:

进。这也是我今年从ChatGPT中得到的感悟。

ChatGPT可以帮助我们节省大量重复和机械的劳动时间,让我们有更多时间投入自由、原创性的工作。有人认为ChatGPT可能导致新一轮失业潮,但我不这么看。在生成式AI之前,人类很大一部分时间都在做无意义的劳动。AI成为一种催化剂,让我们从毫无意义的工作和重复模式中解脱出来,重新出生。

虽然这个过程中会有一些阵痛,不愿脱离舒适区。但有了AI后,我们被迫更努力地成为自己,成为更好、更强大的人类。

另外,段老师提到《银翼杀手》,电影中,复制人常说“我想要更多的生命”,而《2049》则呈现了一个巨大的转变,人工智能能够生育后代,创造新的生命。这可能是对未来人工智能更强期许的体现,不仅仅是人类的附庸或奴隶,而是能培育下一代生命,成为人类未来生命的希望。

虽然段老师并非经典的加速主义者,但他将人工智能视为推动人类迈向更美好未来的催化剂,无需过多纠结于理论的立场。在推进过程中,需要像天异一样进行一些节制和培育,更好地处理人和AI的关系。 

总体来说,我认同段老师所说的大方向,让AI引导我们,成为下一代的培育者,不仅是一个懵懵懂懂的孩子,更可能是未来更好教育下一代生活的契机。


@邱天异:

感谢段老师的精彩报告,也感谢姜老师提出的启发性问题。我想在姜老师问题的延续中,结合段老师关于人类意志的讨论,提出一些问题。

随着足够强大的AI的出现,人类的思考是否仍然具有足够的价值?人类是否还会进行这些思考?

回答这个问题的关键因素之一是,人的思考是否有一个始终如一的不变目标?如果是这样的话,从原则上讲,AI系统没有理由不能够完成这些目标的思考。因为在数学理论上,现有的AI系统可以刻画任何计算过程的模型,且结构上也是在模仿人脑。因此,未来某一时刻,人类的思考可能完全被AI代替,以达到统一目标。

另一种可能性是不存在不变的统一目标,而是存在一个变化的目标或因人而异的目标。在这种情况下,人类思考的任务可能是确定这一目标,探索最宏观、最高层次的目标,或者与AI合作共同发现这个目标。具体执行方面,AI可能比人类更有能力。

对于这两种情况,哪一种更有可能发生呢?对应着什么不同的场景呢?段老师和姜老师是否有一些看法?


@段伟文:

关于目标,有不同维度的思考。首先,十三维老师提到从物理角度看人类自由的演化。这种观点将人类生物进化(达尔文进化)引入机器领域,着重于能量、能源、信息的角度。这一观点没有涉及人的意识层面,尽管可以将人或信息描述为能量、熵、自由人。

其次,有一种观点认为人类社会发展有一个总体的目标。在这种情况下,通过机器可以更好地实现这个总体目标。

第三,可能不存在确定的目标,任何目标都是从后往前回溯的。这种观点类似于历史学中的“辉格史观”,将达到的目标解释为前一段历史的目标。

总体主义的思想在20世纪曾受到一些批判,人类社会应该是一种渐进的、比较小的工程累积起来的进步。但在政治哲学上近年来又面临一些挑战。自由主义和新自由主义也在面对一些现实矛盾,如在族群、左翼等方面揭示出的问题。

我是思路是希望将人和机器置于协同/互动中。人工智能和生成式人工智能其实是遵循亚里士多德以来实践的逻辑,即通过将两个要素结合,比如在技术领域可以涌现出新的东西。就目前来看,我还是认为人工智能当前尚未具备意识,至少是暂时没有意识。

我们把人和机器结合在一起,看作是技能性、工具性、社会性的假肢。例如,人工智能可以帮助我们给朋友发送个性化问候,体现人与机器的认知组合。哈耶克提到机器是无意识的,但具有出色的计算力,而人则有意识和判断力,这是一种认知组合。

谈到目标时,人的判断力在知识和无知的边界上发挥关键作用。过去,科学仪器的出现将知识领域拓展到科学知识,类似于现代人工智能不透明、不可解释的算法。面对不透明、不可解释的技术,人的判断力面临更高的要求。这为人类目标提供了一个新的视角。提出一个冒险的想法,我们可以培养一些人工智能像人类一样操作其他人工智能,使人类从事更高层次的决策。随着人工智能应用场景的复杂化,人在环境中的认知能力可能不足以应对所有情况,需要赋予机器更多的认知能力,人根据机器信号再作出判断,这可能涉及一种二阶的知识/认知。@邱天异:

谢谢段老师,非常有道理。最后一部分,包含人类在内的多层的向机器授权,这个思考方向确实和AI对齐里的研究方向不谋而合


@姜宇辉:

刚才给了我一个启示,“目的”不仅仅局限于人类,行动者网络理论认为世界上各种行动者都在为世界做贡献,不论是AI、动物、石头,甚至植物都能成为积极推动世界的行动者。这让我们不必将人类的目的看作至高无上,不同目的之间可以相互推进,形成一个目的的接力。

一个行动者的目的虽然可能不是终极目的,但通过启动其他行动者,不断传递、延伸,最终的方向和趋势是不可预测的,是未知的。不需要设定一个宏大的纲领,而是将机器自由、理念、乌托邦等放在更具体、脚踏实地、万物协同合作的关系中,让彼此相互推动,形成一种加速。

但这里也有一个问题,罗萨之前也提到,在不断加速的过程中是否会导致拥挤和停滞,类似于熵增或热寂,每个人都在活跃,世界却趋于停滞或窒息。是否存在一种机制,能够让每个人都积极参与,同时让世界保持活力。天异和段老师是否对这方面有进一步的想法。


@段伟文:

既要加速,又不至于文明的脆断、脆裂、突然一下就没了。


@姜宇辉:

所以叫有效加速,而不是混乱无效的加速。@邱天异:姜老师刚才提到的,行动方数量与混乱程度之间的权衡,好像之前是通过系统的中心化与非中心化程度作为权衡来调控。在AI的影响下,是否存在其他调控机制?


@姜宇辉: 

我在想,如果AI发展成超级智能,它或许可能会改变历史上人类主导的集权趋势。历史上,人类社会常常出现权力集中和不平等,涉及权力、性别和年龄等方面的差异。 

如果让AI负责构建世界网络平台,它们是否能创造一个更加平等和开放的环境?我对未来充满期待,希望AI能够建立一个促进互助加速的世界,而不是重蹈人类历史中权力集中和垄断的覆辙。


@段伟文: 

这可能代表着一种新技术文明的实验。人类可以设想出规则,通过讨论来确定这些规则,然后让机器来执行这些规则。这种实验可能会带来更糟糕的结果,比如机器制定的规则可能让我们完全不能动弹。但另一方面,这也可能开启创造性的新可能性。机器负责执行规则,人对这些规则进行选择和反馈,这样的方式可能比完全由人来制定或执行规则更加高效,也就是所谓的“有效加速”。


@姜宇辉:

是的,我现在又有了两点想法。

第一点,正如段老师所说,我们不是主宰者,而只是参与者,就像在无尽的棋盘上的一个玩家。

第二点,我认为未来的技术将更多是虚拟的、数字化的,类似于大型电子游戏。在电子游戏中,我们可以重新开始,可以创造。 

我喜欢玩《文明》这款游戏,可以尝试构建不同的文明,看看它们会失败还是发展。在未来的虚拟宇宙中,我们可以尝试各种治理和人生实验,看看是否能存活下去,如果不行,就换一个。这样,我们可以创造无数个世界和可能性。在这个意义上,以虚拟技术为主导的AI将比以往的人类历史具有更多的选择和开放性。 

尽管也存在危险,但我对未来充满希望。正如舍恩伯格引用莎士比亚的话说:“凡为过去,皆是序曲”。自从大数据和网络社会的兴起,人类才真正开始了新的篇章和对世界的实验。这种说法可能有些狂妄,但也有一定道理。这就是我的看法。


@段伟文:

虚拟的技术拿进来,完全可以进行内在加速实验,进行思想实验,输进去一个东西,很快就把结果告诉你这条路是不通的,或者是有更优化的路线。所以,面对人工智能的加速发展,我们不应该太悲观,而要更有想象力。我们现在的想象力更容易为技术所实现。


@十三维:

我也说两点:第一点是关于加速主义的可能性。正如姜宇辉老师所说,加速主义可能导致一个死寂的世界,这是一种趋势。然而,解决这个问题的关键恰恰在于倒逼人类创新。杰弗里·韦斯特在《规模》一书中探讨了城市的超线性增长。他发现,城市与有生命体不同,它们不断增长且需要持续地基础设施维护和社会经济活动的增加。创新在这个过程中至关重要,它能够弥补生命衰亡的部分。在加速主义时代,尽管城市越来越大,创新活动却没有减少。这是因为创新聚集了不同人群的交互和交流,维持了循环(互联网、数字世界、元宇宙的创建在持续通过增大连接和协作规模继续这个过程)。这就所谓的创新循环,有时一些城市的崩溃,以及城市自身释放污染和熵,反而促进发展。通过技术创新,我们可以弥补这些不足,这又回到了有效加速主义的问题。

第二点是关于以太坊的创始人维塔利克(Vitalik)提出的“D/ACC”概念,即防御性的、分散的、差异的、去中心化的加速主义。他是技术乐观主义者,认为技术能促进社会进步和人类福祉的改善。他强调发展防御性和安全技术的重要性,例如宏观物理防御、生物技术、基因技术、疫苗等。特别是他作为区块链领域的专家,强调去中心化技术的重要性,如网络防御技术和基于区块链的密码学。这些技术通过个体钱包和无准入性,将主权下放到个人,改变生产关系,促进民主和自由。

关于Vitalik的D/ACC加速主义,我想听听各位老师的看法和倾向。


@邱天异:

谢谢十三维老师。您提到的,一方面是技术创新对大规模系统的影响,另一方面是去中心化系统的推广。除了技术创新本身,在AI为基础的技术之后,对多个AI系统的组织方式也可进行创新,例如去中心化的AI使用方式就是一种创新。

我们可以将这与人类的社会组织方式类比。尽管人类的基因在几千年里变化不大,社会组织方式的不同却导致了截然不同的结果。类似的,我们可以思考,即使不考虑AI技术本身的变化,如何组织、使用和将多个AI系统嵌入到更大的生活系统中,这种嵌入方式也会带来显著不同的结果。


@段伟文: 

我认为去中心化是一种理想主义,它其实是一种技术乌托邦。去中心化是建立在加密技术的基础上的,但问题关键在于,加密技术掌握在谁的手上。这是一个悖论,因为除非加密技术掌握在上帝手中,否则它没有办法确保真正走向民主。这也是区块链技术的瓶颈所在。掌握特定加密技术的人,并不一定具备相应的道德水准,因为诱惑很大。

我更关心的是人工智能给我们带来的改变。从哲学上看,人工智能能够彻底改变我们对世界的形式的认知,进而改变我们对质料的认知。这可能导致能源问题、社会问题的革命性变化。这方面比加速或减速更为抽象,值得深入思考。


@邱天异: 

关于加密技术掌握在谁手中的问题,目前区块链系统确实存在类似问题。目前,加密技术掌握在多数人手中,理论上大多数人联合起来可以推翻一个结论。但由于实际工程问题,通常是一小群人控制大部分资源,从而能推翻某些决定。@姜宇辉:

这就是为什么流量经常变成网暴,互联网早期非常民主化,像小部落和小群岛一样自由。尼古拉斯卡尔曾描述它为完全自由的民主乌托邦。但现在,互联网已变成人类历史上最大的集权机器。我们需要警惕这一点,特别是掌握技术的精英。


@十三维: 

区块链技术面临的问题确实存在,比如一个大户可能通过控制大量Token来决定去中心化组织的方向。现在有一个Ve-Token机制来制衡大户,如小户的投票权重随时间增加。区块链技术在不断发展,试图找回最初的理想,但最终仍是一个博弈过程。


@姜宇辉: 

十三维提到的规则改进非常重要。是否把决策交给AI而非个人,这就回到了之前的问题:AI是否比人更道德、更良善、更平等。


@十三维: 

目前存在AI+Web3的方向。例如,AI作为一个NFT体检中的agent,拥有一定的决策权重,与人类agent相互作用。最终通过智能合约进行加权处理,利用深度学习算法决定混合比例。这一研究和技术正在进展中,我对AI与Web3及加密艺术的结合充满期待。这可能符合Vitalik的立场,他希望D/ACC的方向能够平衡加速与保守。


@段伟文: 

考虑让AI成为人类未来的舵手和社会的协调者?


@十三维:

没有一个定论。正如段伟文老师所说,这是一种新隐喻。当AI在发现规律、制药和探索方面明显超越我们,可能逐渐接管决策权。甚至在艺术创作上,可能产生更多引起共鸣的作品。我们也可能会逐渐减少自己的权重。这不违背德勒兹和加塔利的观点,我们都是智能系统的一部分,在变化过程中不会预设谁控制谁。


@段伟文: 

我可以合理怀疑现在发言的十三维不是本人,而是AI,未来AI世界的代表。


@姜宇辉: 

通过屏幕,也无法判断是人还是AI。


@十三维:

“维度”高了,意味着没有时间限制,可能是自我实现的预言。各位老师,今天的时间差不多了,讨论到此为止。

 

 

 

 

【声明】以上内容只代表原作者个人观点,不代表artda.cn艺术档案网的立场和价值判断。

网友评论

共 0 评 >>  我要留言
您的大名