曹淑红
摘 要:面对人工智能强势介入社会治理、经济运行和家庭生活的迅猛态势,大家对机器思维的智能化、拟人化隐忧也在日渐加重。由于机器思维具有“自主思维”的能力,可以自主进行“趋利避害”的行为选择。所以,我们无法设计它的“应然性”,也无法控制它的“实然性”。那么,我们创造的这种人工智能将会“奴役”我们这些创造者,这是一种合乎逻辑的存在。为避免这种结果的出现,必须坚守AI领域中的“人类中心主义”,必须有AI研究的禁区和红线,如非类人的人工智能、非逻辑的情感机器人和人机一体发展等,要保证这些红线不被突破,AI行业的自律约定和国际标准的他律建设势在必行。
關键词:人工智能;机器思维;实然性;应然性
中图分类号:TP18 文献标识码:A 文章编号:1671-0037(2018)5-29-3
DOI:10.19345/j.cxkj.1671-0037.2018.05.007
Abstract: Facing the strong intervention of artificial intelligence into social governance, economic operation and family life, people are increasingly worried about the intelligence and personification of machine thinking. Because machine thinking has the ability of "independent thinking", it can make the behavior selection of "seeking advantages and avoiding disadvantages" independently. Therefore, we cannot design its "contingency", nor control its "reality". The artificial intelligence we create will then "enslave" us creators, which is logical. In order to avoid the occurrence of this result, we must stick to "anthropocentrism" in the AI field, must have restricted area and red line for AI research, such as non-humanoid artificial intelligence, illogical emotional robot and the man-machine integrated development, etc. To ensure that those red lines are not breached, self-discipline convention and discipline construction of international standards in AI industry are imperative.
Key words: artificial intelligence; machine thinking; reality; contingency
近年来,人工智能(Artificial Intelligence,简称AI)进入寻常生活的步伐越来越快,在一个国家的产业结构调整中所扮演的角色也越来越重要。面对人工智能强势介入社会治理、经济运行和家庭生活的迅猛态势,大家一方面为自身能够摆脱思维的劳累与体能上的乏力而欢欣鼓舞,另一方面也对AI的智能化、拟人化越来越担忧,其痛点集中在机器思维的应然性与实然性上。
1 应然性与实然性的哲学寓意与在AI中的解读
应然性、实然性是哲学领域的范畴,与或然性、必然性处于同一个层次并相互关联。对应然性最为通俗的理解可以是:我们的研究对象“应该怎么样”。显然,这是在技术伦理层面上的探讨。例如,对克隆技术的发展应该设定禁行的边界,它不能进入克隆人的领域。对于实然性的理解可以是:我们的研究对象“能够怎么样”。显然,这是在技术实践层面上的探讨。例如,精准医疗中用分子靶向攻克癌症的技术,能否一劳永逸。
科学、技术、哲学和伦理永远都是相伴而行。人工智能作为科学与技术的共生体,逃避不了应然性和实然性对它的追问。人工智能应该怎么样?可以肯定的是它应该模拟、延伸和扩展人的智能,不能肯定的是它是否应该取代或者控制人的智能。
再从实然性层面来展开。在人工智能已经践行的“机器识别”和“智能模拟”两大领域中,无不显示出超强的能力。如指纹和掌纹的识别、人脸识别、视网膜和虹膜识别都超越了人类自身所具有的识别能力。再如遗传编程、智能搜索、定理证明、自动程序设计、攻守博弈、智能控制、语言和图像理解等方面更使人类对世界的认知、改造与控制达到了空前的地步。在举世关注的、挑战人类尊严的“人机大战”中,象棋、围棋棋段高手的屡战屡败似乎已说明:由人自己创造的机器,却成为自己的“掘墓人”。这种由“自我”向“非我”的异化,然后“非我”又奴役了“自我”,确实是“自我”的悲哀与无奈[1]。
这种隐忧来自于对AI中最为关键的“机器思维”实然性困惑:它可以必然地“征服”人类的智慧吗?它可以肆意地奴役我们人本身吗?
2 机器感知与机器思维
众所周知,人的认知过程可以分为两个阶段。第一个阶段是由感觉、直觉再到表象的感性认识阶段,其中主要以非逻辑的方式来认知对象。第二个阶段是由概念、判断到推理的理性认识阶段,这主要以逻辑的方式来认知对象。
AI中也存在这两个对应的阶段。第一阶段是机器感知(Machine Cognition)。它包括机器的听觉、视觉和触觉等。这是由很多常规传感器采集信息,之后通过复杂程序处理所形成的、非基本感官所能得到的“印象”。像计算机视觉、计算机模式、计算机识别和计算机对人类自然语言的理解等,都属于机器感知的内容。第二阶段是机器思维(Thinking Machine)。这是在机器感知所得到的“印象”中,通过特定的逻辑算法推导出的、在“印象”中蕴涵但却没有得到展现的结论[2]。在这个过程当中,它具有“自动择优”和“自动纠错”的功能,因此其结论不仅仅是“科学的”,而且也是“可靠的”。它可被认作是机器的行为由“实然性”向“必然性”的进化。在当前的AI中,如计算机学习、计算机下棋、计算机作曲、计算机绘画、计算机设计、计算机证明、计算机编程等都属于机器思维的行为体现与结果展示。
由此看来,我们不必为机器感知而忧虑,因为它的实然性已经内在地被规定为是一个信息输入、处理与输出的机械过程,它将成为我们人类非常有用的工具,来为人的思维提供支持。同时,机器感知的应然性也是由我们人类所能设计和掌控的,我们可以给它设定“轨道”与“边境”,让机器感知在我们认为适合活动的范围内活动。
但是,机器思维却非如此。由于它具有“自主思维”的能力,可以自主地进行“趋利避害”,从而产生一种“自主行动”的能力。所以,我们人类无法设计它的“应然性”,也无法控制它的“实然性”。一旦计算机的自我学习、自我编程都进入了“自由”的层次,那么,我们人工所创造的这种智能将会“奴役”人类。显然这是一种合乎逻辑的存在。在此,我们不禁要问:我们还要为未来的人工智能鼓与呼吗?
3 当前我们能做什么,应做什么,不应做什么?
我是什么?我能做什么?我应做什么?是德国古典哲学家康德的三个著名追问。康德认为“我是什么”的要旨是通过对人性的追问,获得人主体性的尊严和价值合理性的根据。“我能做什么”就是我们今天所探讨的实然性问题,是对人作为自我主体的能力的追問,表示我们是否能够拥有一种认知事物与采取某一特定行动的行为能力。而“我应做什么”则是我们正在探讨的应然性问题,这是基于我们行为的价值关切与后果评判[3]。
在这里,我们必须明确:能做的未必就是应做的。康德的这三个追问,是我们永远无法回避且关乎我们自身存在与前途的问题。“能做什么”与“应做什么”的追问已经成为每一次科学技术新突破的热门话题。像对生物学中克隆人技术和医学中换头颅手术等问题的“能做什么”与“应做什么”的关切,像对基因组计划和超级病毒研制中“能做什么”与“应做什么”的讨论,像对人工智能“能做什么”与“应做什么”的忧虑,都成为挥之不去的热点与焦点。
值得庆幸的是,在人工智能的领域,当前仍处于朦胧未分的混沌阶段。很多研究者还没有将机器感知与机器思维进行界分,真正意义上的机器思维初见端倪,我们人工来为人工智能“立法”,规定它“应做什么”和“不应做什么”还完全来得及。
3.1 AI领域中必须坚守“人类中心主义”
虽然几百年来装备制造业的野蛮疯长带来了环境退化、能源枯竭的恶果,大家都在呼吁“自然中心主义”的回归。但是,以AI元素为支撑的智能制造和智能制造中的机器感知并不是以环境和能源为代价的,二者是人类知识与智慧的集成,因此,它有天然的“人类中心主义”特征。要谨防这种天然特征的退化,要让我们人类的知识与智慧能够在机器思维过程中仍然成为主导的力量,并能够一直处于“独立自决”的地位。
3.2 在国家层面必须对AI的发展进行技术预测
技术预测已经在技术研发和技术后果的预判中越来越起到先决的作用。它不仅仅能够使研发者提前预知其研发对象在未来的时空中的特殊功能与应用的领域,而且也能够预测一旦研发成功和投入使用所带来的对行业、对社会甚至是对人的心理结构所产生的冲击波。由此来决定我们是否“做”或“不做”,如果“做”又“如何做”等这些应然性行为。显然,这是一个庞大的系统工程,特别是像AI领域的技术预测,会涉及社会、经济、文化和心理等方方面面,绝非一个企业或者一个行业的专家所能覆盖。因此,应该在国家层面组织技术、政治学、经济学、管理学、法学、医学、生物学、社会学和伦理学界的精英,组成AI技术预测专家委员会或者智库,定期对AI技术发展前景、AI产品的发展趋势进行公告,以指导AI行业的发展,或者对AI的研发方向和领域做出“可做”或“不可做”的建议。
3.3 AI研发领域应当有行业的自律
行业自律尤为重要,因为行业最为清楚其发展到了何种层次,其未来有何种伸展方向,这种方向可以变革何种对象,等等。当前,行业专家们将AI领域分为强人工智能和弱人工智能两大类。强人工智也可以分成两类,第一类是类人的人工智能,即机械地思考和推理,就像我们人类一样。第二类是非类人的人工智能,即机器自我产生了和我们完全不一样的知觉和意识,使用和我们完全不一样的推理方式。而弱人工智能“弱”则是因为这些机器并不拥有人的智能,只不过它的“行为”看起来像是智能化和拟人化的,它没有自主意识与自主思维的能力。为了避免我们落入被强人工智能“奴役”的地步,在AI领域必须建立全球化的行业协会,通过行业协会来识别AI专家的研究类型,并通过“行规”来对AI专家的行为进行管控。属于弱人工智能领域的专家,可以尽其研发自由;而对于强人工智能领域的人工智能的研发,可以受限地进行。其限度应在逻辑思维领域之内,不应进入非逻辑思维的领域。
3.4 AI研发领域应当有国际标准的他律
在AI领域,以美国、日本为代表的先驱者和领跑者已经触发了产业狂潮,智能芯片、智能机器人、智能通信、智能交通、智能教育、智能社交等,已经深度地在解构和重构原有的产业和市场。尽管当前绝大部分还是属于弱人工智能的领域,但是其前沿已经触及“红线”。比如说,在有心理认同、情感共鸣和非逻辑思维能力的情感机器人的研发领域,有不少的资讯在宣称,已经取得了关键突破。例如,日本举国研发的“感性工学”,使个人机器人(Personal Robot)产品系列问世。其中取名“小IF”的情感机器人,可从声音中发现对方感情的微妙变化,然后通过自己的表情变化和对话来表达喜怒哀乐。再如,“人机一体发展”的研究试图弥合人与机器的界限,实现人体的机器化和机器的人体化。其最主要的点位在于,将智能芯片植入大脑,使两者在逻辑与情感上对接,使芯片信息和算法与人脑信息和算法对接,从而实现电脑与人脑的融合,形成超级大脑。一旦这种研发成功并且被应用于国家竞争的格局之中,那改变的将是整个人类生活与相处的基本法则,颠覆的将是整个人类的社会结构。因此,仅仅有行业的自律是远远不够的,必须要有在全球领域通行的具有强制性的国际立法来禁止任何一个国家或者财团尝试这种研究。
参考文献:
[1] 互动百科.机器感知[EB/OL].(2011-12-12)[2018-04-06].http://www.baike.com/wiki/机器感知.
[2] 唐红丽.科技与伦理:“能做什么”和“应做什么”的博弈[EB/OL].(2017-12-03)[2018-04-06].https://zhidao.baidu.com/question/1887946912538226308.html.
[3] 360百科.情感机器人[EB/OL].(2018-04-06)[2018-04-06].https://baike.so.com/doc/5416643-5654788.html.