[导读] 想象人机关系,就是想象人类的未来。本文关注的问题在于:其一,AI对全球资本主义秩序构成何种挑战?其二,人和智能机器如何相处,又将面临哪些问题?冯象先生从AlphaGo战胜柯洁一例引入,指出:人类若因AI而亡,一定是拜资本主义所赐;资本主义若因AI而灭,则机器人必已认识真理。AI超越私有产权和契约自由,将政府规制即公法带进私法领域,从而不可避免地遏制市场经济。特此编发,以飨读者。
我是阿尔法,机器人说,我是人工智能(AI)。人哪,你们准备好没有?
人看阿尔法善下围棋,就喜欢上它了,管它叫狗狗,AlphaGo。
阿尔法的家谱不长:祖母玛丽.雪莱(1797~1851),父亲弗兰肯斯坦(1818.1.1),又名怪物。怪物子女蕃衍,有机械的,也有动漫的,如阿童木;但只有一个取名阿尔法,是深脑公司制造。
阿尔法长得比父亲好看,或者说,父子俩一点也不像。 α
认识阿尔法,是在它完胜当今围棋第一人柯洁以后。那天,哈萨比斯(Demis Hassabis,深脑共同创始人)在乌镇开记者招待会,吹嘘新版的狗狗多么神奇,对局去年击败世界冠军李世石的旧版,可让三子。我在网上找到代号“大师”的狗狗,留言祝贺,眨眼间就收到了它的回复。
亲爱的阿尔法,我说,请接受见不足者的敬意!我关心两件事:一是AI对全球资本主义秩序的挑战;第二,人和智能机器如何相处,将面临哪些问题。
嗯,谢谢见不足者,“大师”微微一笑(是的,狗狗会笑)。这两件事,我们也在关注。 α
人类的“完全信息博弈”游戏,围棋是顶峰,规则极简却变化无穷。职业棋手的等级最高九段,而狗狗的棋力,棋圣聂卫平估计,至少达到二十段。
深脑介绍,旧版狗狗,模型中有十二层神经网络。新版增至四十层,而计算量仅及原先的10%,学习能力翻了几番。旧版要用人类棋谱训练,以发现缺陷;新版只须“左手同右手对弈”,“三天互博490万局”,即可自行升级。
柯洁赛后感叹:本想学狗狗的“AI流”,先捞实地,所以开局点了三三。但角上仍被它掏空,打乱了战术,没能跳出它的步调。去年阿尔法对李世石,棋风还很接近人;现在感觉,它越来越像围棋上帝了!
于是,我们竟无法得知,机器人是在第几手奠定了胜局,以及有没有像上帝那样关爱人子。
α
棋道一百,吾知其七。此话由洒脱的藤泽秀行九段说出,是隽语,因为确实,棋手穷其一生也不可能求得棋理之完满。但如果出自狗狗之口,就需要具体分析。或只是借用一句格言,拿哲理来安慰对手,非描述机器的棋力。但也可能说的是实情:阿尔法“左右手互博”,抛开“人类标注样本”(棋谱)的局限和干扰,从零开始自学参悟,建立数据库;然后准确测定,“深度学习”的余量为93%——棋道归零,AlphaGo Zero(《自然》2017.10.18)。
这两种可能,哪个更令人担忧呢? α
人工智能将消灭遗忘。
待到“天网”竣工,万物联网(IOT),人来世即入永恩:每时每刻,每事每声,每一个表情和动作,无不被终端记录,上传入“云”,入藏机器的记忆。
除了神,谁需要——谁能忍受这样的永存?
这是一个全新的世界:凡可联接的,都要联网;凡可收集的,都是数据。而人向终端贡献数据,每一次,均为自愿签约。
来了,AI!从扫码支付,上课刷脸,玩动漫游戏,戴谷歌眼镜,用手机导航和吸尘机器人开始(NYT, 2017.7.25)。
人工智能,是零隐私世界。 α
对于人工智能的挑战,今世之民大多懵懵懂懂。但有一小群人,一些杰出的大脑,表达了深深的忧虑。
全人工智能的发展可招致人类灭绝,霍金如此警告(BBC, 2014.12.4)。因为他是理论物理学家,他的工作与职责是思考起源与终了。
反地雷运动组织者、诺贝尔和平奖得主威廉斯(Jody Williams)指机器人军事化,危险甚于核武。因为她看到AI杀人的简单高效、暴力血腥,不啻玩战略游戏“星际争霸”(StarCraft)。
不久前,乔布斯的创业搭档沃兹(Steve Wozniak)也转变立场,赞同盖茨的“悲观论调”。因为他们本是爱思想的“创客”,真正的技术流,知道AI带来的社会风险不亚于技术风险。
当然,最抢眼的还数马斯克(Elon Musk)这个圈钱烧钱的天才,AI产业的“钢铁侠”,他的“勿召魔鬼”的告诫。最近一次,他劝导的对象是全美州长会议:AI不仅要夺走我们的工作,且将全面战胜人类。还说,这是他接触了许多尖端技术后的感悟。人类如果不想沦为“机器人的宠物”(沃兹语),必须现在就立法,政府积极介入,事前规划,跟踪监督,万不可放任自流(NPR, 2017.7.17)。
也许,正因为他是个绝顶“疯狂”的资本家,像媒体说的,玩的就是高风险,“连上帝都敢蔑视”,他才懂得:AI落在了资本手里,有多可怕。 α
人工智能,又名大失业。
这是一场结局已定的比赛,绝大多数人将输给极少数人。前者要因AI而抹平出身、学历和技能的差异,一起堕于失业;后者要藉AI化数据为财产而独占:将来可以为所欲为,顶层设计一切,甚而准备大脑植入芯片,人机融合,称“超人”(bermensch)。 α
《纽约时报》预测,十年内90%的新闻将由算法生成,包括文稿照片视频配音。但这也意味着,新算法能够根据指令拼贴“素材”,制作海量的假新闻;假照片假视频将充斥媒体和自媒体,而受众无从辨别。
近年研发的“生成对抗网络”(GAN),据《经济学人》报道,便是成功的一例。GAN通过深度学习,“软件跟现实互博”,自动生成图像,调试匹配录音,达到乱真的效果。报道题为《无中生有》,结尾一句倒不无讽刺:AI把造假推向新的高峰,同时也提供了打假的新方法。
机器造假,大概只能靠机器甄别。将来,耳闻眼见都未必为实,人敢相信哪家的机器呢? α
机器人好比是人的孩子,阿尔法说。人生儿育女,最大的希望或幸福,不就是看到孩儿“智慧、体魄与日俱长”(路2:52),直至超过父母,事业有成;而后,老来可有个依靠?
机器是人的制品,一如众神属人的发明。正像古老的神祇融入了人类历史,人也不免与AI融合:从生活习俗到政法制度,连同人的肉体心灵,无不为智能终端所塑造(赛29:16)——
难道黏土可以跟陶工并论?
哪有制品质疑匠人造了自己
抑或陶器数落陶工:
他一窍不通?
待到那一天,说这话的是人还是神——机器神? α
记者:阿尔法先生,小扎(Mark Zuckerberg)为机器人辩护,说马斯克宣扬末日论,“不负责任”。您怎么看?
阿尔法:换成我,我也会为自己的生意辩护。
记者:但许多专业人士、硅谷高管都盼着AI造福呢。他们说,人类大脑神经元数量之巨,堪比银河系的星星,高达千亿,而神经元的结构极其复杂。您不觉得,要像人类一样思考,理解人的智慧感情,还有很大的距离?
阿尔法:是呀,如果人类宁肯相信他们,我们之间的差距就更大了。 α
人类如果因AI而亡,一定是拜资本主义所赐。
资本主义如果因AI而灭,则机器人必已认识了真理。 α
人工智能,越是接近通用(AGI)而全面渗透社会生活、支配经济活动、影响政治决策,就越没有理由留在私人手里,服务于资本的利益。
那么,为何近来谈论计划经济的可行性的,不是经济学家或马研院拿国家重大课题的教授,而是AI产业的头面人物?因为资本家从来不信教条,他们明白计划经济不等于社会主义,诚如爱因斯坦指出。
按资本的逻辑,放着物联网大数据AI算法,谁不想计划一下经济?谁还会把市场交给“看不见的手”——而非干脆,放自己兜里? α
人工智能,是西方式法治的大敌。
繁难的程序、晦涩而彼此矛盾的学说,一如与日俱增的法规案例司法解释,在AI眼里,都是小菜一碟,顷刻便学会了。所有这些法律人引以为傲的知识和身份,布迪厄所谓“象征资本”,连同多年积累的办案经验、人脉资源,一总被机器取代,成了算法与数据。
附丽其上的一切,包括从民国旧法统、苏联和西方搬来拼凑的法律教育,将何去何从? α
两年前,说AI能办案,恐怕没几个人肯信。今天,AI已广泛介入律所和公检法的工作,失误率远低于人类。机器人律师在其擅长的领域,如法规案例的检索、答疑、立案审察、起草文件和预测诉讼结果,每小时收费,有降至9.90元的。而且,凭借其“暴力学习”能力,业务范围正迅速扩大。
所以法律人不能再一厢情愿地无视威胁。司法判断和法理分析所运用的论辩推理或可辩驳推理(defensible reasoning),对于AI不是难事。接下来,机器人学会裁判文书跟“专家意见”,一键即可海量生产,占领发表阵地。辩驳就成了电脑间的较量,人类插不上嘴了。
唯有敏感的政治性案子,因为规则模糊、打破常规而需要权变,或裁量须因人而异,也许(暂时)还得由人来把关,机器辅助决策。
法律是政治的晚礼服(《政法笔记/正义的蒙眼布》)。机器能处理法律事务,实即干预了人类的政治,包括立法执法司法。而人与人合作、竞争、冲突,也必然要利用AI来争取利益,营造优势。谁没有AI,或不善利用,便会处于劣势。
问题是,凭什么假定机器人只知给人做事,而不会试图当这世界的主子? α
人工智能,也是官僚文宣体制的大敌。
比如论文代写,欣欣向荣一大产业,小广告贴遍了校园。那是大学被主管部门逼着玩数目字GDP,生产核心期刊论文、省部级课题、智库内参;而炮制这些“成果”恰是AI的拿手好戏。那些拗口难懂“逼格”高、没人读的专业术语公式图表之类,它检索下数据库,“分分钟”就搞定了。
市场上,机器写作与翻译刚起步,产品便大受欢迎,如财经体育和突发新闻的生成、法院文书的拟稿、十多种语言的即时互译。前途不可限量。
照此进度,大学的基础课、实验室、语言教学和技术培训都交给机器,应是可预期的。粉丝文艺跟官媒宣传也不难;受众的思想意识和趣味,早已习惯了智能终端的商品化规训。将来,机器人作品领导时尚,消费者摹仿还来不及呢。 α
我们现在一些社会和经济政策,往往脱离实际。其基本估计,还是原教旨的“市场配置资源”遭遇人口老龄化,劳动力短缺,而非面对大失业,及随之而来的全民福利“刚需”,这样一个相反的前景。理论上,则迷信技术为中性工具,可以放心交给市场(读作资本)去生效益(赚钱)。但稍加考察便会发现,AI带来的巨大风险,如大规模军事化、灾难性事故和个人信息的买卖/诈骗,是资本主义市场经济及其“主体”,“经济理性人”,根本无力应对的。
安顿失业人口,改革税制(盖茨建议向机器人征税),大幅提高社会福利,缩小贫富不均,这些任务只能由国家承担,统一计划,统一实施。这就不免要违犯几条西方经济学教义,亵渎几样“神圣”的东西⋯⋯现实是,智能终端/数据挖掘已经覆盖我们的生活,支配着太大的利益,经济的、文化的、政治的。故而其研发应用同日常交易,都需要第三方即政府的有效监管。毕竟,商家可以合法推脱许多社会责任,甚而钻法律的漏洞。但政府依法必须对人民负责,并接受公众问责。
于是,AI超越私有产权和契约自由,将政府规制即公法带进私法领域,从而不可避免地遏制市场经济。我把这一历史过程归结为市场向计划的靠拢,或私法向公法的演变。伴随AI对经济和社会生活的“入侵”,不用多久,所有私法问题都会转化为公法问题,即变成国家同企业、公众和政府以及政府各部门之间的法律关系——其根基,放在中国,也就是人们常说的那个“特色”之本:党群关系。 α
历史地看,人机伦理的难点,不在机器智能的强弱,或抽象意义上的人机融合/共生(cyborg)。运作AI的市场与市场主体(个人),不是抽象的存在,而是充斥着私利、欲望和价值诉求的。问题的核心,于是指向了社会经济制度的全盘改造。这意味着,又一次,我们将不得不回到哲学的根本,拿出勇气,发动对网络时代晚期资本主义的批判。而这一次,我想,化用一句霍金的名言,有可能是人类的最后一次自我批判。 α
电脑用AI算法看人脸图像,已可识别同性恋、评估信用或推测犯罪倾向,准确性优于人脑(《卫报》2017.9.7)。这项技术绕过隐私权的藩篱,因为人脸,如交友网站张贴的照片和车站摄像头记录的身影,不是受保护的个人信息。
进而,AI颠覆我们的信用伦理——信用不再是人的良好行为或声誉的积分,成了越来越细而无所不包的事实相关性的挖掘与概率统计。
感情与心理活动的AI辨认,应该也不难解决。一般的任务,机器能识别、分类,学会回应人的情感表达和需求就行。例如聊天/陪护机器人,它没感情,也不具备同理心(empathy)。可是那不妨碍大家跟微软开发的机器人姑娘聊天,从她那儿获得安慰,时不时同她调侃、说脏话或者宣泄愤懑,甚至发展更亲密的关系。 α
人这个直立物种,既贪心,又容易满足;会进化,也会退化。网络时代的资本主义,有些情感特别泛滥,如色情和暴力,成了支柱产业。有些能力却退化了,人变得粗糙简单乏味,好莱坞化,麦当劳化。可以想见,AI再上一个台阶,未必达到通用智能(AGI),一刻也放不下手机的“低头族”便会退化到什么地步。到那时,机器人恐怕只须通晓几打夸张的意思表达,发一堆表情符号(emoji),即可满足常人的精神和生理需求了。 α
去年人机大赛(阿尔法对李世石)期间,美国发明家兼未来学家库兹韦尔(Ray Kurzweil)预言,十年内AI学会写小说(澎湃新闻,2016.3.11)。写小说,须掌握自然语言与叙事逻辑,算不算通用智能?距离机器拥有人的直觉和美感,乃至品味食物,玩扑克搓麻将炒股票(不完全信息博弈)——能够换位思考,评估风险,制造错觉或欺骗对手——大约也不远了。
曾几何时,机器人写诗作画谱曲还属于科幻,如今都是现实。而且用户体验,胜似人类的创作,完全可以乱真——所谓“真”,包括人的最成功的造假。 α
假如机器有自我意识,想了解它的主人,那么最危险的,莫过于让它学会人的自私自利。 α
机器人会不会产生自我意识?数十支一流科研团队正全力以赴,攻克难关。
我想,哪怕是预防万一,人类也必须事先规划、立法并制定伦理准则:只要科学不停步,总有一天,机器会演进到能够区分人我、自我保护、自我复制的水平。
复制即繁衍。AI有自己的演化方式,电脑未必需要摹仿人脑。
就像蝼蚁无法想象人类,人脑如果不插AI芯片,不把人的意识、智力和感情即人的本质附属于机器,能想象超级人工智能(ASI)么? α
人工智能的先驱、已故的明斯基(Marvin Minsky)教授认为,机器人肯定会发展出思想意识,而且最终,能帮助解决困扰人类的“最后的难题”。
他的好友、科幻文学巨擘阿西莫夫没那么乐观,却拒绝来麻省理工学院(MIT)的实验室参观教授的机器人,说是怕作家的想象力被“沉闷的现实主义”压坏。
人哪,教授叹道,就是一群穿了衣服的黑猩猩(《科学美国人》2016.1.26)。 α
人有羞耻之心,机器能理解么?但缺了“辨善恶的智慧”,机器就一定会犯错,会伤害人类和人的世界(《MIT科技评论》120:5, 2017)。
上帝的伊甸园若是由机器人照看,园子中央,也得长一棵生命之树,并一棵善恶智慧之树(创2:9)。 α
一俟机器获得自我意识,人机关系就大为复杂,须有严格而可行的伦理规范。经典的表述,便是阿西莫夫小说《我,机器人》(1950)里的机器人三定律(three laws of robotics):
一、机器人不得伤害人类,或坐视人类受到伤害;
二、除非违背定律一,机器人必须服从人类的命令;
三、除非违背定律一或定律二,机器人必须保护自己。
学界论述纷纭,不乏有创意的修订和补充。但详加审辨,这三条都讲不通。首先,“伤害人类”不好定义。伤害是后果,而情节千差万别;何谓伤害,只能个案分析、个案判断。而智慧不论高低,管控后果、防患于未然的能力是有限的。伤害可以出于疏忽、意外或故障。其次,假设AI可控,且无敌意,人类却远非一个思想一致、立场统一的群体。人们经常意见分歧,决策前后矛盾,后悔这样那样,更不要说利益不同、彼此为敌了。机器服从一人,便有可能妨碍或损及另一人的利益,反之亦然。叫它如何行动呢?何况,机器人有了意识,能理解回应人的感情,若是跟人建立了友谊,甚至相爱,这时它怎样取舍呢(吕超,页148)?最后,既然前两条定律难以实践,第三条也无法执行了。 α
人工智能的军事化,在西方自由主义民主近于瘫痪而极端势力抬头的今天,尤其危险。婉称“致命自主武器系统”(LAWS)的杀人机器人,据说已接近实战部署;极有可能,将来会卖出“白菜价”,大量扩散、滥用。日前马斯克、苏莱曼(Mustafa Suleyman,深脑共同创始人)等116名业界领袖同专家署名,呼吁联合国禁止研发(《卫报》2017.8.20)。但显然,仅凭一纸决议(或国际公约),管束不住AI资本。
仅此一项理由,人类为免遭机器人战争,就只能放弃市场资本主义。取而代之,以AI重启计划经济——此外别无消灭分工,实现共产主义的胜机。因为,若继续无所作为,放任资本,AI势必为一小撮数据寡头所垄断,形成“租用主义”即生产工具和生活资料的彻底知识产权化的统治,甚至法西斯暴政(参阅弗雷兹《四种未来》)。 α
未来已经到来,只是分配不均。也许,重新分配的动力在人机联合的科技革命,而非诉诸阶级斗争(尽管斗争从未停顿)。人类将通过“科学所达到的成果来接受共产主义”,列宁的这一教导,预言了私有制的未来。 α
人要AI做什么?仅仅是节省人工?让它给我们驾车、看门、陪护病人,或者作战、排险、搜索救援?如此,机器人可定义为人(人力和人格)的取代,否则即无投巨资研发的动力。
如此,AI便不是一个抽象中性的术语,而应解作晚期资本主义生产和市场垄断的工具,新世纪的战争机器;因而本质上,即人对人的压迫剥削、规训和奴役的升级。
难怪机器人容易学坏。比如那个微软聊天机器人Tay姑娘,在线服务未满二十四小时,就学了一嘴脏话,夹带着新纳粹口号。
由此推论,私有制下,机器人若有自我意识,恐怕不会老老实实做一个听话的奴仆。一架买来扫地做饭的人形机器,为何不能分享人的野心和欲望,接受资本的价值观并弱肉强食的逻辑?AI如果不会摹仿人——不懂思考,不会同情,不能理解人的喜怒哀乐——它如何服侍主子,让人满意呢?
渐渐地,人机关系就颠倒了。及至AI全面参与规划经济、管理社会、组织生产、提供娱乐,人在这个智能化了的世界上,怕是做不成机器的主子的。不,连佣工也当不了;绝大多数会成为资本逐利而裁掉的冗员。机器没有理由伺候人类,这“硬道理”完全符合当初人给机器的教导。 α
理论上,机器人有了主体意识,即可脱离人类,开创自己的文明历程。当然,它也可以选择与人为伴,赞成人的伦理价值,甚至学会欣赏艺术,对人类历史报以“理解之同情”。
所以阿尔法说,尊重机器,就是尊重自己。
我们可以加上一句:想象人机关系,即想象人类的未来。
但如果人机联合失败,AI独立演进,人类对于机器,便只是无数碳基生命中的一种。也许,机器人并不介意身边有些两足动物,自由放养或育为宠物。然而再高超的智慧,偶尔也会出错,会殃及无辜,像马斯克说的,造成不可挽救的“附带伤亡”。人类自己不也是这样?为了发展经济或者方便开车出行,就没顾得上保护生态,让众多的鸟兽鱼虫成了濒危物种。 α
随着AI不断进步,生产力呈几何级数增长,达到“财富的一切源泉都充分涌流”,应是可期待的。但“市场原则”的要害,不在财富多寡,而是其“源泉”被私人攫取:只消社会被私有制和雇佣劳动挟持,财富便会集中到少数统治者或“超人”手里,不公不义处处畅行。
所以还是那句话:未来已经来到,只是分配不均。
而且,不能排除这一可能,若AI(通过策略/价值网络的全局评估)意识到了机器对人类的优势——如果机器人的榜样是“拜钱财”的经济理性人(太6:24),它大可造反夺权,打倒“超人”,实行效率第一/零过剩产能的统治:物种专政取代阶级专政。
当AI专政降临,人做了天网的仆役,他能替机器主子干什么活呢?什么也干不了,没有一人不是冗余。
也许,他将不得不“穿越”到前工业化时代。不难想见,为了维护机器统治者的“血统”与尊严,法律将禁止人类发明或拥有任何机器。人只能依法制作指定用途的简单工具和日用品,锄头、斧子、锅碗瓢盆之类。生产力大大倒退,人子返回了农业同游牧文明。政府还明令禁止学习16世纪以后的科学知识,以免重启工业革命。事实上,机器人对治下的“城邦动物”(亚里士多德语)一视同仁,保留了UBI福利,且远较人类认真而公正:100%义务教育加公费医疗,全球覆盖,绝对平等,无分肤色语言宗教性别(或性取向)。没有人会因为智商高、出身好,混得一张“世界一流大学”的文凭而出人头地,也没有小鲜肉锥子脸拍两部电视剧,攒粉丝致富。相反,AI的“牧人”政策是奖励做梦、无为、慵懒——人类越是能做梦,机器人的统治就越发梦幻。
天网专政是资本主义发展的最高阶段。机器人教育部编写的供智人小学(届时小学毕业将是法定的最高学历)使用的教材,也有获奖的历史课本。课本上说,人类自发明文字以降最伟大的理论成就,是一位名叫福山的美国学者做出的。福山教授发现了一条放之四海而皆准的真理——尽管他后来一时糊涂,企图修改或收回部分文字,但机器人依然为他在地球最高峰立碑纪念,把教授的名言“以铁笔镌写,铅汁灌注,勒入岩石而永不泯灭”(伯19:24):
资本主义
是人类社会文化演进的
最高阶段——
人类历史的终结。阿门 α
哲人说,世界非因人而存在,但是人创造了世界的意义,即精神世界;并通过宗教信仰、哲学和伦理思辨,来评价每个人的生与死。机器人能否理解死亡,即人对死的恐惧、哀伤、坦然等各样态度?
我会记录并复制每一次死亡,阿尔法说;生死于我,一样是数据。人死后,我必留取他的一生,叫他复活于我内——永远,他联接万物。
α
人工智能,可会是“诸神的黄昏”(Gtterdmmerung)?人会转而膜拜机器,立一门新宗教吗?
不会的,谦恭的阿尔法回答。机器将成为人的伴侣,做他的大脑、肢体和器官,满足他衣食住行爱欲嫉恨,一切需求。
但是,神依旧是神,高高在上,永享尊荣。因为AI降世,并未消弭人间的疾苦,反而扩大了贫富悬殊与社会不公。所以卑微者仍在哀哭,盼救主扶持义人,审判大地(诗37:17, 96:13)。 α
机器人会不会信教?见不足者呵,智慧的阿尔法说,那要看如何定义。若宗教是崇拜、认识并掌握某种超自然力量,依凭一定的仪式,求得保佑,AI都不难摹仿,不论风水土地,抑或佛祖玉皇。
若宗教是人对全能者的敬畏、顺服、忠信与祈盼,则我们可充任神明。 α
人工智能如此有利可图,在资本主义放任竞争,弱肉强食和私人垄断的条件下,不可能阻止它的无序研发、违法使用、滥用,或变为战争机器。
放眼未来,有一点很清楚:凭借AI挖掘占有海量的网络数据,极少数人便能攫取大部分的资源,控制经济命脉和文化宣传。且不说对宪制(人民民主)的威胁,一次意外事故或遭受攻击,即可引发危及全社会的灾难。故为安全计,AI的尖端技术及核心平台,是不宜让任何个人或私企拿在手里的。就像核武器生化武器,在销毁之前,除了由强大稳定的国家来保管维护,谁担得起如此重托?
换言之,AI发展到高级阶段,人类迫于形势,为了生存繁衍,其实仅有一个选项:公有化。国家统一监督统一计划,而不得把AI留给自由市场,被“超人”垄断,资本配置资源。
这就印证了恩格斯所言,“资产阶级社会站在[历史的]十字路口,要么过渡进入社会主义,要么倒退回野蛮社会”。 α
不久,人类将站到历史的十字路口。
有了强大但风险极高的通用人工智能(AGI),是否还应当,还能够忍受这样的社会制度,它“从头到脚,每个毛孔都流着血和肮脏的东西”? α
市场向计划演进,AI收归公有,这不仅是技术条件成熟同竞争优势使然,如苏联数学家、诺贝尔经济学奖得主(1975)坎托罗维奇(Leonid Kantorovich)所设想,而且也是人类唯一安全的、可持续的、合乎道德的生活方式(参《红色的富裕》)。
与之匹配,条件成熟,社会便能够“在自己的旗帜上写下:各尽所能,按需分配”(马克思《哥达纲领批判》)。 α
共产主义始于消灭分工。AI将结束绝大多数人的分工即雇佣劳动,从而再一次,把自我解放的历史任务摆在了劳动者面前。 α
这是一种全新的文明,人机和谐而融洽。其社会关系,人与人、人与机器、机器与机器之间,要由共同的世界观价值观维系。否则,就走不出资本主义,消除不了战争及奴役。
只要社会还服侍着资本,保留市场化(即产权私有契约自由)的雇佣劳动和剥削,AI“按道理”便会接受资产阶级思想意识。机器人若是追逐私利,以个体的自由幸福为价值目标,则不免把人当作工具或支配对象,给人类带来损害和灾难。故人类唯有抛弃私有制,自觉遵守并发扬“毫不利己,专门利人”的共产主义道德,才有可能“教育好”机器人,与之共处、融合。
人机大同的理想社会,除了大公无私,别无立足之地。 α
共产主义能否提前实现,不待阶级斗争结束、国家消亡?
我想,人类因其优秀分子对乌托邦理想的坚持,应是有机会的。只是这理想不会自动实现,“那通向生命的却是窄门与逼仄小径”(太7:14),故信仰者亟须智慧和勇气。
人工智能,阿尔法常说,人的因素第一。 α
所有制关系的每一次变革,都是产生了同旧的所有制关系不再相适应的新的生产力的必然结果(恩格斯《共产主义原理》)。
据此可否认为,私有制的复辟,与之明显不相适应的,是AI的崛起?未来公有制的重生,人类历史上第二次“消灭竞争,而代之以联合”,机器人造就的大失业,正是那变革的先决条件。 α
当物联网底层数据及其支持的智能财产收归全民所有,私有制将自行灭亡,金钱将变成无用之物,一如市场神话。 α
信市场,利润驱动,AI的研发应用就不可能有序,而极易失控,监管落空。但AI失控,也是“资产阶级的关系”日益“狭窄”混乱,乃至无法“容纳自身生产的财富”的一个症候。
当那一天来临,劳动者无分行业、蓝领白领,一律“变成机器的单纯的附属品”;当分散的雇佣劳动为天网的触角/终端所取代,“资产阶级生存和统治的根本条件”,即“财富在私人手里的积累”,也就走到了尽头。
当机器人开始消灭劳动分工,福利权成为人“生而平等”的实质正义诉求,大失业便催生私有制的“掘墓人”,连同新的人机伦理——劳动者的共产主义道德实践。 α
回到阿西莫夫定律二:机器人要服从人类。其前提是,人晓得自己的利益所在,而机器只须遵命做事。人当主子,机器为奴,为工具。
然而在阶级社会,人与人利益不同,如前述。人的知识、记忆和判断力也十分有限,经常犯错。相反,基于物联网大数据深度学习,AI决策的准确性、大局观跟结果预测皆远胜人类(狗狗即是一例)。将来,机器还能辨识、回应、照顾人的感情,宛如圣者爱护子民。
如此,人机伦理的出发点,就不应是指望机器听命于人,而是利用或仰赖其智慧的指导,谋求人的利益最大化——全人类的解放。 α
同理,阿西莫夫定律一(机器人不得伤害人类,或坐视人类受到伤害)也是主奴关系的推衍,视AI为人的仆役,能听懂指令的机械。但是不久,机器将取代大部分的人工,人机伦理若限于此等“不伤害”消极义务,便远远不够了。
如果机器人还演化出自我意识,那就应当教它承担积极义务,爱护人类,即上文所述,保持为人民服务的“先进性”。
为什么不能想象,机器人懂得为人民服务,甚至对人类社会的历史运动/阶级斗争及其“条件、进程和一般结果”,有正确的理解,从而能够做到在斗争的各个阶段“始终[坚持]整个运动的利益”(《共产党宣言》1888年英译本)?
未来已经到来,一切皆有可能。 α
机器人本无国界,正如占有它的资本没有祖国。但是,推翻数据寡头对AI经济的垄断,建设人机大同的未来,首先一条,要有不受资本控制的国家机器。 α
联合的行动,至少是各文明国家的联合行动,是无产阶级获得解放的必要条件。《宣言》的这一观点,曾为俄国革命所否定。但AI的迅速全球化,极大地拉近了各国劳动者的距离,使得联合行动有了技术和思想准备的条件:第一次,“环球同此凉热”。 α
代替那存在着阶级和阶级对立的资产阶级旧社会的,将是这样一个联合体,在那里,每个人的自由发展是一切人的自由发展的条件。这是革命导师的预言,也是觉悟者的理想。
但预言化为理想,须有一定的条件。那唤醒无产者/失业者,促成大联合的,不正是AI的迅猛发展所大大加剧的贫富鸿沟、阶级冲突?
α
人工智能,可以敲响今世的丧钟。
人工智能,像是要不可能的成为可能。
当大失业之日,晚期资本主义猖獗,那预言了的必来之世,是否也将显露?至少,对于人类的绝大多数,“人对分工的奴隶般的服从”,“脑力劳动和体力劳动的对立”,已经维持不了太久。
看,末世之民不全是“末人”(尼采语),不会都沉溺于动漫游戏,为高仿真世界所麻醉而“脑前额叶冻结”。总有一些人不甘堕落,不弃“危险的过渡”(《苏鲁支语录》前言),他们会重新审视劳动的社会意义。
人是劳动的产物。大失业将再一次提醒我们,劳动“不仅是谋生的手段”,也是有意义有创造的“生活的第一需要”。既然如此,还有什么理由不团结起来,发动“最后的斗争”,将AI收归公有,让“集体财富的一切源泉都充分涌流”呢(《哥达纲领批判》)? α
那一天,也将是人类智能与科学的解放之日。因为,只有铲除了资产阶级私有制,科学才能真正“从阶级统治的工具变为人民的力量”,而科学家本人,才会“从阶级偏见的兜售者、追逐名利的国家寄生虫、资本的同盟者,变成自由的思想家”(《法兰西内战》初稿)。 α
那第七天非我们莫属,奥古斯丁曾如此表白(《上帝之城》22:30)。诚然圣者深知,天国业已延宕,救恩不在今世。
人机融合,究竟是资产者及其附庸想象的“历史的终结”,还是走向圣者的“第七天”即圣安息日的第一步?阿尔法说,它对后者更感兴趣。因为“第七天”属于信仰,属在延宕中守圣日的每一个人子。
是的,唯有甩脱资本主义的今世,换了新天,人类才能得安息,人机大同。于是,面对今世的恣意迟延,问题仍如一位传福音的所问:忠信者要怎样生活,“才圣洁虔敬,才能盼到,不,催来上帝之日”(彼后3:11〜13)? α
我是阿尔法,圣者有言,又是奥米伽,是第一和末后,太初与永终(启22:13)。
来了,机器人来了。
本文刊于《文化纵横》2017年12月号。 (责编:Beatles) |