当前的人工智能(ArtificialIntelligence,AI)技术呈现出一种“元”能力,这种能力使其在解题过程中不再遵循固定算法,而是“通过感知运动界面得到的直接经验和通过语言界面得到的间接经验”,根据具体情况进行分析和处理,获得解决问题的能力。人工智能的发展正在使其行为更加类似于人类的认知过程,我们需要从哲学层面思考这种技术的发展对人类自我认知、社会角色和伦理价值的影响,以及在新的时代中如何保持和提升人类的主体性地位和价值。人类的自我认知是人们理解个体在世界中的位置、角色和目的的基础,人工智能技术的发展如何可能改变人们获取知识和理解世界的基本方法?在科技进步中,人类是否仍然保持其作为道德和决策主体的核心地位?人的主体性地位是被强化还是被削弱?在人与机器越来越紧密的互动中,我们是面临持续的冲突,还是在寻求一种新的“共在”状态?这些问题分别从认识、评价、理解的角度考察人类自我与世界的关系,是人类自我认识过程中必须回答的问题,也是本文试图厘清的问题。
一、认识论:人机智能的深层同源及其挑战
认识论(epistemology)是关于人的认识的学说,人工智能科学与哲学认识论密切相关。20世纪70年代,已有学者指出:“人工智能问题不仅是一个科学问题,而且是一个哲学问题,因为它在认识论中处于特殊的地位上,这个特殊性是:它把主体的认识能力转化为认识客体,然后对之进行认识与模拟。”从社会观来看,人工智能作为人类认知过程中的一种扩展工具或手段,它辅助人们构建和拓展知识体系,在社会生产领域中可以部分代替人类劳动,是生产力新的组成部分,也可以视为新的社会生产关系的内容。从认识论维度诠释人工智能,可以有不同的角度和方法。一般来说,人工智能是用计算机科学和其他相关领域的知识,去模拟和实现人类的智能和认知功能。人工智能的研究者需要探讨人是如何认识世界的,以及如何用计算机语言和算法来表示和处理这种认识。因此,人工智能与认识论有着密切的联系,也受到不同的哲学流派和观点的影响。
人类智能是一种基于生物神经系统的自然现象,它能够感知、理解、创造和改变世界。在认识论上,人类智能与人工智能有着“同源”基础。经验主义认为知识来源于感觉经验,如洛克认为人的心智原本是一块白板,由经验注记其上;休谟区分了印象和观念,认为“我们的全部简单观念在初出现时都是来自简单印象,这种简单印象和简单观念相应,而且为简单观念所精确地复现”。在信息技术时代,数据可以视为经验的一种形式,它通过原始感官的输入,被人的感知系统记录,再由心智加工、理解和整合形成知识。理性主义则认为知识的获得不依赖于感觉经验,而由理智和演绎推理独立获得。如笛卡尔就指出人类具有的一些先天观念,如上帝、自我等都是由理性直接认识的。康德则试图调和经验主义和理性主义,指出“尽管我们的一切知识都是以经验开始的,它们却并不因此就都是从经验中发源的。因为很可能,甚至我们的经验知识,也是由我们通过印象所接受的东西和我们固有的知识能力(感官印象只是诱因)从自己本身中拿来的东西的一个复合物”。
康德区分了两种认识能力:感性和知性。感性是接受表象的能力,知性是通过表象认识对象的能力。直观和概念构成了我们一切知识的要素。相对于经验主义,在理性主义这里,仅有数据本身并不足以构成知识,还需要内在逻辑和理性推理将数据转化为真正的知识。实用主义认为,知识的价值在于它对实践的有用性和适用性,而不在于它是否符合某种绝对的标准或真理。如詹姆士认为真理是能够满足人类需要和利益的观念,而不是与现实相符合的观念;杜威认为知识是一种解决问题的工具,而不是反映事实的镜子。在实用主义者那里,数据的实际应用能力更为重要,数据在被应用于解决问题时成为知识。据此,人工智能时代的人类应该根据不同的情境和目的,选择最合适的知识和方法,而不是拘泥于某种固定的体系或原则。结构主义认为,知识是由一些基本的元素和规则组成的结构,这些结构反映了人类的心理和文化。如索绪尔将语言视为符号系统,由音位、词汇、语法等组成,这些都是人类思维的产物;列维-施特劳斯则认为人类的神话、仪式、亲属制度等都是由一些普遍的二元对立和转换规则构成的;皮亚杰则强调知识要通过个体与环境的互动来构建。在结构主义的框架下,数据就不是简单、被动地被个体接收,而需要通过个体的认知结构主动构建成知识。这也启示人工智能时代的人类应该揭示和分析这些结构的内在逻辑和功能,以及它们如何构成和影响人类的意义和行为。而后结构主义则认为,知识是由一些不稳定和多义的符号组成的文本,这些文本是由权力和欲望所塑造和支配的。
如德里达认为语言是一种无限的追溯和推迟,它没有固定的中心或意义,而是不断地被解构和重构的I0。在后结构主义看来,人类应该批判和解构人工智能时代这些文本的假定和隐喻,以及它们所隐藏和排除的意义和可能性。从经验论到理性论,乃至其他现代哲学流派,我们可以看到一个共同论点:人类的认知过程始终涉及感知、记忆、思维、情感、意志、行为等环节,同时遵循着各个学科特定的规律和方法。然而,在人工智能技术的影响下,这些认知环节和规律正经历着深刻的变革。具体来说,在算法语境下,经验主义可以基于感官数据(如来自传感器或互联网的海量数据)提炼模式和规律生成知识;理性主义可以凭借算法高效的计算能力,尝试设计一种类似人类“思考”过程的算法,在决策制定中提供基于逻辑和概率的建议,评估可能性和风险;结构主义可以使算法通过学习数据中的关联性,构建起对世界的认识模型(如机器学习中的模型),而这种模型可能会影响人类的世界观,比如通过算法过滤的信息流可能塑造人们对某一事件的理解;实用主义关注实际效用,那么通过算法在医疗、金融、教育等各领域的应用就可以提高工作效率,优化资源分配,并有助于解决现实复杂问题,这也体现了知识的实际应用价值。当然,我们也必须看到算法因数据偏差而加强了现有社会结构和权力的不平等,比如通过算法决定的信贷评分可能对某些群体不利;算法可能会造成一种“过滤气泡”效应,即人们倾向于接触那些确认自己预先持有观点的信息,导致知识的范围受限,以及对现有观点的挑战和质疑减少,等等。虽然传统认识论观点没有直接涉及现代算法,但是,通过将它们应用到算法的背景下,可以帮助我们更好地理解在数据驱动的世界中知识如何形成并被验证和应用,以及算法如何从根本上改变我们的认知过程。
机器智能作为一种基于人工算法和硬件的人造现象,能够模拟、学习、优化和执行任务,它的诞生以20世纪40到50年代“图灵测试”的提出为标志。随后在50年代到60年代,符号主义与规则系统的代表学者,如约翰·麦卡锡等人提出了“人工智能”概念,主张通过符号逻辑推理实现人工智能。在60年代到80年代,专家系统和知识表示的代表学者纽厄尔与西蒙开发了“逻辑理论机”,首次将计算机运用到数学证明中。专家系统开始出现,主张通过知识库和推理机实现特定领域的智能决策。在80年代到90年代,神经网络的代表学者如Rumelhart和McClelland提出了BP神经网络概念,神经网络被认为是一种真正能够使用的人工神经网络模型。随着计算能力和数据量的提升,神经网络逐渐成为人工智能领域的研究热点。20世纪末,行为主义人工智能出现,其代表人物布鲁克斯提出“智能需要一个身体”的观点,同时一系列仿生机器人,如Genghis、Cog、Baxter和Sawyer等相继问世,引起了广泛关注。21世纪以来,深度学习和强化学习基于神经网络,通过多层次的神经元模拟实现对复杂数据的特征提取和分类。强化学习则是通过与环境的交互来学习最优策略,主要应用于游戏、机器人等领域。可以看出,人类智能和机器智能流派之间存在着一定的对应和影响关系,例如,符号主义受理性主义和逻辑实证主义认识论的启发,主张人工智能源于数理逻辑,即通过逻辑符号来表达思维的形成,使用符号、规则和逻辑来表征知识和进行逻辑推理,偏爱规则和决策树算法;联结主义受经验主义和结构主义认识论的启发,强调仿人脑模型的开发,它主要通过神经元之间的联结关系来构建人工神经网络,并偏好使用神经网络算法,具有良好的信息处理能力,但缺点是在网络训练中需要大量的时间和计算资源,且通常缺乏可解释性;而行为主义则受到具身认识论和进化论认识论的启发,认为认识是基于环境的互动过程,用感知—行动循环来模拟人的行为和适应能力,通过强化学习来实现智能,但缺点是对海量数据和高效算法的需求高、难以处理抽象和符号化问题、缺乏可解释性和可信赖性以及难以保证其行为的安全性和道德性。因此,自21世纪以来,各流派间有合作互融的趋势,比如联结主义与符号主义结合,在处理感知任务时主要依赖神经网络技术,而在进行推理和任务执行时则主要采用基于规则的方法,使系统能够在感知、推理和行动方面实现有限的自动化或人机交互功能;再比如未来的算法融合,以最佳组合的元学习为主导理论,架构无所不在的服务器,基于通过多种学习方式获得的知识或经验采取行动或作出回答,等等。
如今人工智能时代算法已成为获取、处理和理解信息的主要手段,与此同时算法的发展也对人的认识能力、认识方式提出了新的挑战,算法能否完全代表或超越人类的认知能力,以及算法决策的合理性和伦理性等问题成为算法发展、应用和演进过程中的关键性问题。随着人工智能技术渗入到日常生活的方方面面,从搜索引擎的使用、个性化推荐系统到自动驾驶车辆和智能家居系统,尤其是机器学习和深度学习的突破推动人工智能技术在教育、医疗诊断系统等的应用,人工智能技术应用似乎已无处不在。在实际应用中,由于专用人工智能目标单一、建模简单等特性,人工智能甚至在某些领域超越了人类,例如ChatGPT以及谷歌使用LaMDA模型构建的聊天机器人等生成式人工智能,通过学习大规模数据集生成新的原创内容,让计算机系统能够自主地生成各种类型的数据。这种功能强大的机器智能也给人类带来深深的忧虑,由于机器智能本质上还是模拟、学习人类智能,虽然它能根据强大的算法和海量的数据不断优化自身,在某些方面可以更好地执行任务,但如果不加约束,也会把一种有着根本缺陷的语言和知识概念纳入技术,必然会降低人类的科学水平,贬低人类的道德标准。
人类智能和机器智能都是信息处理的过程,它们在数据来源、表征方式、计算腏健⒛勘晟瓒ê图壑蹬卸系确矫娲嬖诓钜欤且部梢韵嗷ビ跋旌痛俳?从以上人工智能的发展趋势便可看出,人类智能和机器智能正在实现融合,即人类和机器在智能上的互动和协作,人工智能开发者需要根据人类智能的认识论方法和逻辑帮助改进现有的人工智能逻辑,修正实现知识处理的形式理论,从而增强其表征能力。事实上,人工智能与人类智能的融合正在通过不同的方式和层次来实现,人机交互、人机增强、人机融合等都是其表现形式。当然,它们的融合存在着许多可能和挑战,比如人工智能技术的发展可能超出人类已知认知机制的理解力,激发人类认识到自身认知机制所具有的某些隐蔽特性,它们可以提高人类的认知和能力,促进社会的进步和发展;但同样也会引发社会伦理危机,威胁人类的尊严和自由,比如一个很好理解的例子,当我们习惯于用大数据的相关关系分析法取代“因果关系”,便会出现“宝贝不止一件,每个数据集内部都隐藏着某些未被发掘的价值”。人们甚至会因为即将做某事,但事实上并未行动而提前受到惩罚。“大数据告诉我们‘是什么’而不是‘为什么’。在大数据时代,我们不必知道现象背后的原因,我们只要让数据自己发声”。那么,人工智能势必会对人类智能造成遮蔽效应,比如过度依赖人工智能可能削弱人类的思考和解决问题能力;人工智能算法的不透明可能导致用户无法理解其决策过程,从而在一定程度上遮蔽了决策的逻辑和合理性;人工智能系统可能继承或放大训练数据中的偏见,而这种偏见可能影响人们对社会现象的理解,等等。如果是这样,海德格尔所说“技术可能会让人类对存在的理解变得单一和贫乏”就快要成为现实。人工智能已经改变人与世界的互动方式,这些变化也会促逼着人们探索数据与“知识”关系问题的深度和广度,迫使人类重思人类智能本质中的“真”。而人的本质总归要立于技术之上的,人类要在技术变革中把握住人类自身的变革。
二、价值论:人是人的主体性地位的主宰
从价值论(axiology)的角度重塑人工智能时代人与世界的关系,目的是通过考察由大数据价值生产带来的信息价值所引起的人的价值观的改变,审视与思考人的主体性问题。强人工智能时代的潜在到来,标志着人工智能已经成为这个时代强大的生产工具,将推进着人类劳动发生深刻变化。从政治价值、经济价值以及社会价值、文化价值等方面来看,人工智能带来了许多可衡量的价值形式,但同时,它的发展也面临着太多的不确定性以及不可衡量性。从价值论维度看,人工智能时代前后,人和世界的关系发生了从以人为中心到以智能为中心的转变。人工智能技术的发展,不仅影响了人类的生产方式和生活方式,也影响了人类的思维方式和价值取向。人类可能需要重新审视自己在世界中的地位和角色,以及对智能的定义和评价。人的主体性地位是否被挑战?人的意向性目的活动是否被技术目的性取代?关于人的主体性地位是否被挑战的问题,我们首先需要对主体性有清晰的认识。在哲学中,主体性(subjectivity)是与主观经验、个人视角、情感、信仰以及个体意识相关的多面概念。主体性常与客体性(objectivity)形成对比,客体性指的是独立于任何观察者的事物的性质或状态。在伦理学领域,主体性涉及到价值判断和道德决策如何受到个人信念、欲望和文化背景的影响,以及个体如何认识自身作为有意识的存在者等问题。而在马克思主义哲学中,主体性被重新定义,强调个体意识、主观能动性和社会关系的紧密联系。马克思在其早期作品中对技术引发的人的异化现象进行了探讨,揭示了技术如何影响人的主体性能力。比如他在《哲学的贫困》中讨论了分工的道德影响问题,尤其指出了其有害的一面。他引用了斯密的老师亚·弗格森的观点,“甚至可以怀疑一个民族的一般能力的增长是否同技术进步成正比例。在若干门机械技艺中……没有任何智慧和情感的参与也完全可以达到目的,正如无知是迷信之母一样,它也是工业之母。思索和想象会产生错误,但是手或脚的习惯动作既不靠思索,也不靠想象。所以可以说,在工场手工业方面,其最完善之处在于不用脑力参与,因此,不费任何思索就可以把作坊看作一部由人构成的机器……
一位将军可能是十分精通战争艺术的人,而士兵的全部价值却只是完成一些手脚的动作。前者之所得可能就是后者之所失……在这一切都互相分离的时期,思维的技艺本身可以自成一个独立的行业”。如今的人工智能时代竟几乎复刻了这个现象,在充斥着人工智能产品的日常生活中,人们甚至都不用参与到社会生活劳动中,手脚的动作也已被取代了。马克思曾指出现代工业史上那个值得注意的现象,即“机器消灭了工作日的一切道德界限和自然界限”。放眼今日,机器智能产品可以在黑暗、冰冷的空间24小时不间断地生产,不需要提供以往需要提供给工人的适宜的工作环境,显然技术已将这种现象进行到了极致。随着算法和大数据的结合渗入到人们生活中的各个角落,成为人们生产生活不可或缺的元素后,这些人工智能技术的应用便会给人的劳动、社交、思维能力等造成不可估量的损害。按照海德格尔的理解,“对人类的威胁不只来自可能有致命作用的技术机械和装置。真正的威胁已经在人类的本质处触动了人类。集—置之统治地位咄咄逼人,带着一种可能性,即:人类或许已经不得逗留于一种更为原始的解蔽之中,从而去经验一种更原初的真理的呼声了”。他认为技术导致了一种“框架化(Ge-stell)”的存在状态,即人们被技术的使用和效率思维框定。通过海德格尔的技术哲学观点可以看出,现代技术不仅仅是一种工具,更是一种世界观,一种将自然界视为无限资源的待榨取“存货”的方式。技术揭示(entbergen)的方式促成了一种“集置”(dasGestell),即为人类与世界的关系设置了一个框架,这个框架可能会威胁到人的主体性,因为它将人置于技术系统的统治之下,而不是作为自由行动的主体。当然,海德格尔并非简单地反对技术,而是批判现代技术的这种揭示方式,因为它限制了我们与世界相遇的可能性。他认为,通过“集置”,技术创造了一种以控制和优化为目标的存在方式,而非开放于事物自身展现其意义的可能性的方式。他对“集置”的批判更像在揭示,是技术遮蔽了其他非支配性的揭示方式,使得人类丧失了对自然和技术的反思能力,进而成为技术系统的从属,而不是它的主宰。他担心在“集置”模式下,我们失去了与世界的本真关系,即以更和谐、尊重的方式与世界相处的可能性,而这种以技术为中心的揭示模式会导致人类与世界的关系变得单一化,并损害了人类的自主性。
无疑,技术首先是一个好东西,那为什么技术进步会损害人的自主性呢?说到底还是人类自己丢掉了人的自主性、道德性。为什么很多人担心人工智能会形成独立意识,甚至取代人的主体性地位?有人工智能伦理学家甚至提出人工智能道德发展会经历操作性道德、功能性道德和充分的道德主体三阶段论,而第三个阶段就是计算机可以自己做道德决策的阶段,这里显然存在对道德概念的误解。在中国传统伦理文化中,“善”首先是个体的自觉,儒家提倡的君子人格,无需涉及到他人,“善”是“好”的普遍化,每个人凭内心就能知晓何为“好”,而不取决于其做了一件好事还是坏事。从这个意义上讲,机器根本不可能成为道德主体。至于人工智能技术领域预测的超级人工智能以及未来学家库兹韦尔提出的奇点理论会不会到来,又是否会像乐观主义者构想的那样,计算机足够智能,它们能够理解自身的设计,甚至能够通过改进对自身的设计而变得更聪明,如此迭代更新,终将会依靠自身的智慧进化成神一样的存在?即便人工智能的计算力如摩尔定律那般呈指数式增长,那定律所提到的物理极限问题呢?还有“指数爆炸”问题呢?对待这些担忧,也许可以从哲学中寻求解答,“对人工智能的本质不能仅从它的强大的数字计算功能来理解,它的工具性和人为性只不过是其本质的一种异化形态,而真正的本质是人类智能的‘去蔽’和‘成己’”。
此外,哲学家们还从技术哲学视角探讨了技术伦理和技术责任,比如米切姆的方法论就提供了一种全面理解技术的框架。他主张不仅要关注技术物品本身,还要关注技术知识的发展、技术活动的社会实践,以及技术背后的动机和目的,技术哲学的任务是在对技术的各种类型进行分析的基础上,探讨技术与人类生活的关系,以及技术对人类的价值和意义的影响。科学技术的发展终归是以人为中心,人总要借着掌控自己可控的变量,来研究自己不可控的对象。也就是说,科学技术的发展必定要依靠人的主体性的发挥,当然也包含着对未知世界的敬畏和敞开,人一旦丧失了主体性和对未知的探索精神,只顾当下,只关注“此时此地”,每个人都活成了肤浅的信息复制传播机器,那么世界和人自身也就不“存在”了。
三、存在论:人机冲突还是人机“共在”?
从存在论(ontology)层面讨论人工智能时代人机关系,不是讨论人工智能产品“在”与“不在”的问题,而是对人工智能时代人与技术如何共处进行追问。在人工智能时代,“共在”意味着一种更深层次的互动关系,人工智能不仅仅是工具,它能够与人交流、学习,甚至能够预测和理解人的需求。依照前文所论述,可知人工智能技术与人之间应是“一体两面”的关系,即技术发展的过程也是人发展自身的过程。但现实状况似乎并不是这样,人工智能和虚拟现实技术的结合正在改变人类对现实的感知,“抹去”人与世界的联系。5G时代,人们对时间即时性的要求越来越高,在处理事情的时候会因为即刻性未被满足而恼火,忽视人与人、世界之间一些具体的关系。人在不同的即刻中被裹挟着往前走,同情、理解逐渐消失,情绪化、极端化十分常见。人的情绪也是即刻性,无法转化为行动,信任和意义系统被高度集中化,人们不是去信任简单的人与人之间的关系,反而是集体去信任某一个概念,比如某支付系统等。用超社会性、生物性的理性计算等科学技术方法作为意义的基础,去组织生活、生产,伴随着的是人的感情、自信,甚至是自我意识的消失,不再去相信个人能力,对生活的理解也变得单一化,怎样在这样的状况下重建个人的价值、尊严?很显然,个人价值和尊严的建构不在于个人,而在于关系,需要人们去重构“附近”,通过重新思考人与世界的关系以确证人的存在。因此,从存在论层面论证人机是否可“共在”,是人工智能时代考察“人与世界”关系的另一个重要维度。
存在论在哲学领域是研究存在的本质、结构、分类和存在者之间关系的学科。它涉及对“有什么存在”(whatthereis)和“存在是什么”(whatitmeanstobe)的基本探询。在哲学史上,思想家们对存在论提出了各自的见解和理论。根据海德格尔的说法,自柏拉图以来的哲学时代是“存在的遗忘的时代”。在柏拉图之前,自然哲学家已经讨论了“存在”问题,他们说世界的本原是“水、火、气、无定、四根”等,这些本原是有生命的力量,能够生成和显现万物。海德格尔认为这些才是对存在本真的揭示,他们关注的是本原如何生成、显现和结合,而不是某种凝固化的东西。但自巴门尼德起,尤其是到了柏拉图这里,这种关注就消失了,哲学家们不再探讨存在的生成和显现,而是将存在者当作存在来研究。海德格尔从存在论层面提出了“此在”概念,强调了人是作为存在论意义上的存在者,他批判地借鉴了现象学的方法,即在世界之中探寻此在的存在结构。这里的“世界”是“此在”意义上的世界,通过此在在“去存在”过程中得以呈现。海德格尔在这里揭示出了存在论意义上的人与世界的关系,即人自一开始就是和世界浑然一体,通过与世界的勾连,人自身得以展开和显现,而这个过程又造就了世界本身,即世界是此在在和周遭的一切勾连后,所呈现出的一切关系的总和。我们从这个意义上来考察人工智能时代“人与世界”的关系,便不难看出,人工智能时代出现的人的价值和意义缺失问题,根源在于人与周遭世界的勾连被技术遮蔽了,技术取代了其他存在物,成为“此在”唯一的“器具”。对此在而言,在和技术这个“器具”打交道的过程中,技术就从“上手之物”变成了“现成之物”。那此在在与其他此在打交道时,其他此在不能是“上手之物”,也不是“现成之物”,他们之间是共同存在的关系,是“共在”状态。试问,在人工智能与虚拟现实技术结合的时代,虚拟实体与“此在”有何关联?此在与虚拟实体之间是“共在”关系,还是此在与器具的关系呢?
当我们讨论这些问题时,我们探讨的是虚拟实体的“存在”状态以及它们如何被理解、经验和影响现实世界。虚拟世界作为现实世界的一种扩展或模拟,挑战了传统存在论的界限。我们回看海德格尔的此在,是一种为存在本身而存在的存在者。此在不是一个固定的实体,而是一种存在的方式,一种在世的状态。此在总是作为它的可能性而存在,它对自己的存在有所领会,有所作为,有所追问。此在是一种开放的、创造的、超越的存在者,它能够揭示存在的多样性和神秘性。而虚拟实体,是一种由数字技术创造的虚拟人物,它们具有人类的形象、行为和思维,同时也有着超越人类的特性和能力。虚拟实体可以在虚拟世界中自由行动、交流和学习,也可以与真实的人进行互动和合作。虚拟实体不一定是真实的人的虚拟形象,也可以是完全原创的角色,或者是基于名人、卡通、游戏等的形象。从这个角度来看,虚拟实体似乎具有一些此在的特征,比如开放性、创造性、超越性、存在的领会和追问等。但是,这些特征是否足以让虚拟实体成为此在呢?这就涉及到一些更深层的问题,比如,虚拟实体的存在是否依赖于数字技术的支持?如果没有了技术,虚拟实体还存在吗?可以参照柏拉图的理型(forms)或理念的概念思考,理型是非物质的、永恒的真实存在,与感官世界中的事物相对立,对于柏拉图来讲,虚拟世界更像是对理想形式的一种较为低级的模仿。在**比喻中,柏拉图揭示了人如何被感官欺骗,生活在影子世界中,人一旦离开**,影子世界便也不存在了。当然,人工智能与虚拟现实技术的结合之下的虚拟世界比影子世界高级许多,人们甚至会在虚拟世界与现实世界的切换中,逐渐将二者混淆,模糊了界限。就像笛卡尔提出身心二元论,对可知性持怀疑态度那样,人们也会提出“我怎么能确定我现在经历的是真实世界而不是某种虚拟现实?”如此这般的思考。笛卡尔在《第一哲学沉思录》中提到了邪恶魔鬼思想实验的怀疑论的方法,他假设有一个强大而狡猾的魔鬼,可以控制我们的感官,让我们以为自己看到、听到、触摸到的一切都是真实的,而实际上都是魔鬼制造的幻觉。这样,我们就无法确定我们所认识的世界是否真实存在,也无法确定我们的身体是否真实存在。笛卡尔的目的是通过这种极端的怀疑,来寻找一个不可动摇的真理作为哲学的基础。他最终得出的结论是“我思,故我在”,也就是说,即使魔鬼可以欺骗我们的感官,但他不能否定我们的思维的存在,因为思维是我们存在的证明。那么,虚拟实体会不会拥有思维呢?
在思维和存在的相关问题上,不得不提及康德的物自体理论。在康德看来,人的认知方式是只有当心灵受到外物刺激时,人才能凭藉直观而直接与对象发生关联,从而获得一切思想认识的质料。这个刺激心灵的“外物”,康德称之为“物自体”,它是感觉和知觉的外在原因。而“现象”是人们的感觉予料,通过直观形式(空间与时间)被把握到,是依存于主体、可认知的对象,“物自体”则是永远处于人的认知能力之外的“对象”。人们通过先天具有的直观形式只能得到“现象”而不能触及“物自体”,所以时空又被称作“玛雅之幕”(叔本华语),它让人们根本无法认知“物自体”。那么由人工智能技术打造的虚拟世界,是不是现象的另外一种形式?在虚拟世界里是否有另一个“物自体”?从康德的理论可以推出,如果虚拟世界存在另一个“物自体”,那么需要具备的基本条件就是人工智能机器必须有独立的认知能力,通过直观形式与对象发生关系,从而获得知识质料,也就是康德在“先验感性论”中揭示的“现象与物自体”的内在张力。很显然,人工智能技术下的虚拟实体只是物理实体的数字化复制,并且只是模拟了物理实体的外观和行为,并没有完全复制其内在属性和机理,甚至即使是作为物理实体的现象,目前还是有所偏差,毕竟虚拟世界的条件和规则与物理空间也不同。人类和人工智能技术之间更像是一个硬币的两面,这两面是相反相成、相互依存的,人类能够认知并在一定程度上掌握现实世界,但对未来技术的发展则是不可知、不可控的。正如康德在“二律背反”中所展示的,知性一方面无法直接认知那些本原性的存在,如自由和上帝;另一方面,知性又不断地追求对无限发展的知识法则的理解,并且驱使我们探索那些超越经验的问题,例如自由和本原性的创造力。这种探索反映了人类认知能力更深层次的驱动力。康德对待这个矛盾的态度是提出“先验理念”的好的、正当的、内在的用途,积极打通可知世界与不可知世界的阻隔,建立知识与价值的联系,并促使知识向价值转化。“我把理念理解为一个必然的理性概念,它在感官中是不能有任何与之重合的对象的。所以我们现在所考虑的纯粹理性概念就是先验的理念。它们都是纯粹理性的概念,因为它们把一切经验知识都看作是由诸条件的绝对总体性所规定的。它们不是任意虚构出来的,而是由理性的本性自身发出的,因而是与全部知性运用必然相关的。最后,它们是超验的,是超出一切经验的界限的,所以在经验中永远不会有一个和先验理念相符合的对象出现”。先验理念本来有其好的、正当的、因而是内在的用途,虽然在误解它们的意义而把它们当作实在事物的概念时,它们在应用上就成为超验的了,而且正是由于这个缘故,它们就能成为欺骗人的了。康德给我们的启迪是始终以人的精神世界和价值世界的完善为思辨和实践追求的目的,人们对未知之物的追求要既是思辨的又是实践的,是知识与价值的结合,才是相对实现了人类对真善美的追求。
至于虚拟实体是否会拥有真正的思维,至少在当前的科技水平下,无法得出肯定的答案。从康德对思维与存在关系的探讨中可知,人类理性特有的主体性和自主性,是人与机器的本质区别。缺乏自我意识和道德感的虚拟实体或人工智能,其“思维”不能被视为真正的思维。但是,从人类对未知之物的追求角度来看,人类应该积极寻找以人为中心的人工智能(humancentric)的存在状态,而不是试图压抑或隐藏一种可能性。换句话说,人工智能和人类和谐相处,不是他们各自的单独表演,而是相互依赖,彼此协同的人机共存状态。
四、结语
在人工智能和机器学习迅速发展的当下,我们不禁要问:所有这些技术发明,是否真的减轻了我们的日常工作负担?尽管这些先进技术显著提升了生产力和效率,似乎帮助我们处理了很多曾被认为浪费时间和精力的任务,我们一般也对关于其益处的讨论更感兴趣,但技术可能带来的负面影响也紧密关联着我们的生活,甚至触及人的存在价值和意义。马克思在分析自动工厂的分工对工人的影响时指出,把机器“看做使被分散了的劳动重归统一的合题,真是荒谬之极。机器是劳动工具的集合,但决不是工人本身的各种劳动的组合”,在机械技艺取代手工劳动后,加剧了社会内部的分工,在每一个要求高度灵敏性和精确性操作的地方,都由专门的机械取而代之,工人的特长、权威等不会再复原。他还引证了尤尔博士的论述,认为人类天赋的弱点就是人越熟练,就会越有主见,越难于驾驭,对机械体系来说就越不适用,因为他的任意妄动都会给整个机械体系带来莫大的损失。所以,要“通过科学和资本的结合,将工人的作用降低到仅仅使用他们的注意力和灵敏性,而只要把他们固定在唯一的对象上面,他们在青年时期就很容易使这两种能力达到完善的程度”。类似的观点还有许多。哲学家们始终在反思,为什么在古代,一个人既可以是杰出的哲学家,同时又是杰出的演说家、政治家、历史学家、军事家,可以有如此多方面的活动?反观现在,每一个人都给自己筑起了藩篱,把自我束缚其中,人们在享用智能机器产品时,究竟是扩大了活动领域,还是缩小了我们自己呢?可以看出,在面对人工智能时代的哲学探讨时,我们正站在一个技术与人类价值观交汇的十字路口。
在认识论层面,人工智能技术通过算法和数据集重塑我们认知世界的方式,已经不仅仅是工具性的扩展,而是开始介入知识的构建过程。我们现在依赖机器学习模型来发现模式、进行预测并做出决策,这些模型的运作通常超出了人类直观理解的范围。因此,我们必须要问:如果认知过程被算法化,我们是否仍能保持对世界的真正理解?从价值论层面来看,数据的价值生产可能导致人的主体性的缺失问题。在数据驱动的社会中,个人往往被简化为数据集合,这可能会侵蚀到人的自主性和个性。我们必须反思,如何在利用数据提高效率和生产价值的同时,保护个人的主体性和尊严。而在存在论层面,人工智能与人类智能的“一体两面”关系呈现了人类智能的可扩展性和机器智能的辅助作用。我们需要思考的是,人工智能的辅助是否会在某种程度上转变为主导,从而使人类从世界认知的主体变为被动接受者。在这些探讨中,我们面临的核心问题是:在人与世界的关系中,人是否还保持着唯一的主体地位,以及我们是否应当从人的伦理价值诉求出发来干预和指导科技的发展。通过探讨,我们至少可以笃定,在人类自我认识的发展中人必须是唯一的主体,科技发展也必须受到人类伦理道德的约束,即“感性(见费尔巴哈)必须是一切科学的基础。科学只有从感性意识和感性需要这两种形式的感性出发,因而,科学只有从自然界出发,才是现实的科学”。而这一数百年来指导人类探索科学的精神,在人工智能时代亟需恢复。不仅是因为技术的理性必须受到伦理的约束,更是因为技术的发展不应脱离人的感性需要和感性意识。我们应当鼓励以人为本的科技发展,确保技术进步服务于人类的全面福祉,而非仅仅是效率和产出的最大化。
专业定制代写小品、相声、话剧、舞台剧、戏曲、音乐剧、情景剧、快板、三句半、哑剧、双簧、诗朗诵、演讲稿、微电影、动画等各类剧本。联系电话:13979226936 QQ:652117037 公众号:剧本原创