这是一篇人工智能硕士毕业论文代写范文:人工智能道德责任建设研究目的是为了便利人类实践活动。作为一种高级系统性技 术,人工智能在算法能力方面具备远超过人类的能力。在人与人工智能互动的实践过程 中,人工智能按人类的需要完成各项任务、实现自身价值,其本身并无善恶之讨论。大 力发展高新技术的同时,必须高度重视可能的社会风险和伦理挑战。因此社会发展就要 求“任何行动必须从人类的长远存在着想,或者任何行动的后果不能对未来的生命造成 破坏”①,这就是人工智能发展所需要把握的一大要点。
1 引言
随着人工智能技术的不断发展,其应用领域越来越广泛,对社会和个人生活的影响也与日俱增。如若想要人工智能技术充分发挥科技生产力的功能,同时又能最大程度上降低负面影响,就需要建设人工智能道德责任体系,一方面进行伦理的反思与调控,另一方面开展科学的探索与引导。人工智能道德责任建设研究是一项跨学科的应用性研究,其重点不是“人工智能伦理”本身应该具有怎样的内容,而是对人工智能技术引发的伦理问题进行分析,思考如何规范人工智能技术研发及应用过程中相关责任主体的道德行为,引导人工能技术健康有序发展。

1.1 选题的背景、目的及其意义
随着智能机器自主程度的提高,界定道德责任的条件适用性变得更加复杂。以人工智能技术为代表的科技发展与道德伦理的责任归属问题,在科学急速发展的智能社会显得格外突出,推进人工智能道德责任建设也成为当前的紧要任务。因此,本文首先对人工智能道德责任建设研究的背景、目的及其意义进行阐释。
1.1.1 选题的背景
随着认知科学的兴起,人工神经网络的发展,大数据时代的到来,计算机科学及智能机器在技术领域的突破日新月异,人工智能技术凭借其惊人的发展速度在众多领域扮演着越来越重要的角色,但与此同时,人工智能技术引发的道德责任问题已经成为持续升温的热点并引起广泛的讨论。鉴于目前赋予人工智能道德责任方面依旧存在很大的困难,处理道德责任的传统模式或框架对人工智能技术而言也存在一定的短板,因此人工智能的责任伦理建构应当以实际情况为依据,重点分析“人”的道德责任。规范人工智能伦理的最重要环节是建立人工智能道德责任体系,尤其是人工智能研发及应用过程中出现的责任伦理问题应该着重考虑。
1.1.2 选题的目的
河北经贸大学硕士学位论文
人工智能责任归属问题对传统伦理观念形成了有力的挑战,使伦理学中本就复杂的道德责任归属问题更加突出。其中对人工智能角色的定位无疑是相关道德责任归属问题的硬核问题,这场讨论包括计算机科学、认知科学和人工智能等前沿学科的伦理学解读,具有重要的伦理学意蕴,值得我们在人工智能技术发展过程中予以关注和思考。尽管人工智能技术的便利性给人们的生活带来了许多好处,但我们也需要审慎地考虑其伦理方面可能出现的隐患,尤其是人工智能的研发及应用过程应当保证问责的实现。人工智能道德责任主体及其范围都与一般性责任不同,本文通过探究人工智能研发及应用过程中出现的典型伦理问题,对人工智能技术发展过程中所涉及的政府部门、开发企业、科研人员以及公民个体的道德责任问题进行分析,并提出些许建议,以期促进人工智能责任
伦理机制的完善,增强人工智能技术发展的可控性。
1.1.3 选题的意义
从理论方面讲,人工智能道德责任建设有其自身的理论价值。加强对人工智能道德责任建设基础性、规律性、系统性的研究,是当前智能技术发展的客观要求。人工智能道德责任建设研究的理论意义可以分为两点。其一,对人工智能技术研发及应用环节中道德原则嵌入、算法设计、数据信息资源等不同方面的伦理问题梳理整合,能够为人工智能道德责任问题提供相应的理论依据。其二,对传统道德责任主体划分方式进一步修改完善,针对个体用户作为人工智能自主学习的数据信息资源提供者常常在技术研发环节中被忽视这一现象,对相关责任主体展开更加全面细致的分析。
从实践层面讲,人工智能道德责任问题不仅是一个描述性的伦理问题,也是一个规范性的实践问题。一方面,人工智能道德责任建设有利于对已经产生的伦理问题采取相应的补救措施,并对未来可能引发的道德责任问题做好相应的防范准备,促进人工智能技术的可持续发展;另一方面,人工智能技术具有极强的社会属性,相关责任主体涉及社会中的大部分群体。就此而言,人工智能道德责任建设研究有助于厘清人工智能道德责任主体,进一步解决人工智能责任归属难题,促进人工智能责任伦理的完善与发展。
1.2 国内外研究现状
道德责任的相关概念看起来较为容易把握,但实际上人工智能道德责任归属依旧是人工智能道德责任建设研究
目前急于解决的重要问题。当前国内外学者多从人工智能是否具有道德主体性入手,以此展开讨论,进一步分析责任归属问题。
1.2.1 国内研究现状
近年来,人工智能技术凭借惊人的发展速度在各个领域崭露头角,人工智能道德责任归属问题持续升温。相较于西方发达国家而言,国内有关人工智能发展的研究起步较晚,主要分为以下三个方面:
1、关于人工智能是否具有道德主体地位的的研究
围绕人工智能是否具有道德主体地位以及人类是否还是唯一的道德责任主体问题产生大量争论。对人工智能是否具有道德主体地位持肯定观点的学者认为,人工智能已经产生自主性,具有道德主体地位,可以承担一定的责任。目前我国持此观点的学者并不是很多,相关方面的研究也不够充分。持此种观点的学者一般认为研发者、制造商或者使用者由于无法完全预测和控制智能体的行为,因此应赋予人工智能体道德地位,使其承担责任。如简小烜(2022)将人工智能体界定为“有限道德能动者”,并认为其可以承担“趋善避恶”的道德责任。①胡术恒和向玉琼(2020)认为由于人工智能有类人性,也会与人一样类责任化,即承担和人一样的责任。②闫坤如(2019)认为道德主体是指具有自我意识能够进行道德认知、能够进行推理并形成自我判断、能够进行道德选择与实施道德行为且承担道德责任的道德行为体,而经过合乎伦理设计的智能机器也有资格成为道德主体。③据邬桑(2018)的论述,由于人工智能具备道德自律能力,并且具备一定的应对联合义务责任的能力,因此人工智能可以被要求承担某些义务并对其行为负责。④
对人工智能是否具有道德主体地位持否定观点的学者认为,人工智能没有自主性,不是道德主体,无法承担相应责任。如刘永安(2022)认为人工智能的责任缺口问题实际上是由于人类无法有效掌控AI的技术性行为活动,而不在于人工智能是否具有道德主
1.3 研究思路、方法与创新点 ............................................................ 13
1.3.1 研究思路 ................................................................................... 14
1.3.2 研究方法 ................................................................................... 14
1.3.3 创新点 ....................................................................................... 14
2 人工智能道德责任体系概述
人工智能技术的发展在经过长期探索与尝试后,创造出许多前所未有的惊人成果。习近平总书记在对人工智能发展现状和趋势分析举行的第九次集体学习时强调,人工智能是新一轮科技革命和产业变革的重要驱动力量,“是引领科技革命和产业变革的战略性技术,具有溢出带动性很强的‘头雁’效应”。①凭借机器设备智能化和信息数据收送的高效性,人工智能给人类的生产生活带来极大便利,并对社会发展起到积极的推动作用,在经济、政治、文化、教育、生活等多个领域都产生了极大的影响。但由于涉及与主体地位有关的伦理价值观念、算法和数据等复杂难题以及应用环节出现的责任伦理冲突,导致人工智能道德责任并不清晰。因此,建设人工智能道德责任体系,增强相关主体的道德责任意识,以促进人工智能健康发展,具有重要的理论意义和实践价值。
2.1 人工智能简释
人工智能简释从人工智能的缘起、内涵及本质、分类及应用三点进行阐释。从技术发展与哲学反思两方面入手,对人工智能的内涵及本质进行科学把握,了解人工智能的不同分类及应用,以便进一步厘清人工智能背后的责任主体。
2.1.1 人工智能的缘起
大多数人认为人工智能缘起于1956年美国达特茅斯会议。但严格意义上,应追溯到 1955 年在洛杉矶召开的美国西部计算机联合大会(Western Joint Computer Conference),神经网络的鼻祖之一沃尔特·皮茨(WalterPitts)负责主持此次会议的分会场“学习机讨论会”(SessiononLearningMachine)。奥利弗·塞弗里奇(OliverSelfridge)和艾伦·纽厄尔(AllenNewell)参加了这一分会的讨论。1956年,麦卡锡(JohnMcCarthy)召集一众学者参加达特茅斯会议,他曾为此次会议起名为“人工智能夏季研讨会”(Summer Research Project on Artificial Intelligence),但“人工智能”这一说法并不是麦卡锡发明的,究竟是谁发明了这一词汇不好探究,若与“机器智能”(machineintelligence)一词有关,便可追溯到图灵的文章“计算机与智能”一文。“人工智能”这一词汇,开始时并没有被所有人接受,例如艾伦·纽厄尔和司马赫最初就提出了“复杂信息处理”这一理念,并创建了名为IPL(InformationProcessing Language)的程序语言。之后有人提出了“人工思维”(Artificial Thinking)这一说法。直到1965 年,欧陆学派哲学家休伯特·德雷福斯(HubertDreyfus)发表的一篇题为“炼金术与人工智能”的文章引起巨大争议后,“人工智能”一词才真正被共同体广泛认可。
此次达特茅斯会议的参会者大概十余人。其中参会者有约翰·克门尼(JohnKemeny)、马文·明斯基(MarvinLeeMinsky)、奥利弗·塞弗里奇、克劳德·香农ClaudeShannon)、司马赫(Herbert Simon)、艾伦·纽厄尔、所罗门诺夫(Solomonoff)、亚瑟·塞缪尔(ArthurSamuel)和伯恩斯坦(Bernstein)等人。这些参会者的研究工作更多的涉及了人工智能研究的技术细节,从他们的研究方向便可以看出,人工智能的研发涉及算法逻辑、神经网络、记忆存储、语言模型等各种复杂领域。
除此之外,也可以在西方哲学思想中找到人工智能研究的原始踪迹。首先是德谟克利特的机械唯物主义,按照这种学说的观点,世界中出现的所有事态都可以被看作原子的直线运动和偏离运动的机械配置方式,其中暗含了一种人类灵魂活动可以被系统还原成原子的配置形式的观点,这和艾伦·纽厄尔与司马赫的“物理符号假设”有一定的亲近性,并且比前者更为精致。另外,古希腊哲人的形式主义传统通过形式刻画来澄清自然语言推理的歧义,这对人工智能的研究发展也有着很大的影响。例如,毕达哥拉斯认为“数”是世界的本原,这对数学语言的崇高地位定下基调,不论是崇尚利用各种统计学方法还是利用形式逻辑方法研究人工智能,实际上都或多或少受到这一观点的影响;而苏格拉底、柏拉图二人,对谬误论证态度上的不妥协和对明晰定义的不断追求影响了后来整个西方的理性主义传统。人工智能研究的符号主义进路对符号表征中明晰定义的高度依赖,以及对自然语义较低的宽容度就秉承了这一路子;亚里士多德则在人类历史上第一次系统构建了形式逻辑体系,这为后来对自然语言的整编提供了初步依据。
相较于人工智能提出的时间来看,古希腊思想是比较古老久远的。近代哲学家在工业快速发展的时代背景下,大力推崇机械发明,例如基于齿轮技术的钟表制造技术,这在西方智识阶层的心中刻下了深深的烙印。技术上的成功无疑是大大提高了西方对人类理智能力的信心,这也显然有利于那些机械主义心智理论的发展。近代哲学家竖起“人类知识研究”或者“人性研究”的旗帜,纷纷建立各种心智理论,并大体形成了“经验派系”和“唯理派系”两大阵营,在这方面的建树很大程度上孕育了当前的人工智能科学,也滋养了与人工智能极为密切的认知心理学和认知语言学。

2.1.2 人工智能的内涵及本质
人工智能本质上是以计算机科学为基础,用于研究人类智慧,在生产实践活动中模拟人类的反应方式,拓展人类智能的新兴科学技术。近年来,有关人工智能的研究趋势逐渐上升,要对相关责任问题进一步整合梳理,就有必要对人工智能的内涵有一个清晰的认知。图灵测试中,一台机器只要在和人类的对话中不被发现其为机器,就可以被视为拥有智能。这个仅仅通过外部行为表现来做出判断的测试,引起许多关于“何为智能”的争论。人工智能究竟是什么?不同领域的专家可能有着不同含义的回答。例如按照美国哲学家丹尼特(DanielDennett)的说法,认为AI就是哲学。而马文·明斯基则认为,人工智能就是先锋派的计算机科学。
人工智能通过算法程序进行归纳推理,“像人”却“非人”,是以某种科学技术的形式对人类行为活动进行模拟,产生出一种看似以人类智能方式进行的反应活动。当前,很多学者都认可人工智能技术是对人类思维方式以及反应行为的模拟,是以人作为参照主体进行研发的智能机器,但是深入了解后会发现,人工智能通过深度学习(deeping
learning)来调整它们的行为,使其某种既定的行为做出正确的反应,亦即通过深度学习使其行为越来越精确。这一过程建立在海量数据收集分析的基础上,由底层数据收集,在基层人工神经元的基础上进行数据提取,经过多次的抽象提升,进入到更高的层次阶段。而神经元网络技术的实质,就是利用某种广义的统计学方法,在某一层面上对人脑的神经元网络工作方式进行模拟,设置多层彼此勾连成网络的计算单位。
人工智能深度学习机制的运作完全依靠大量专家所提供的优质样板数据为逻辑前提,在某种输入信息与某种目标信息之间建立起来的特定类别的映射关系,这种对人类能力的模仿并没有深入理解人脑对于信息的内部加工过程。从这一角度来看,人工智能的学习方式和人类思维方式有着巨大的差异。人类对事物的思考,除了逻辑上的归纳演绎之外,更多的是通过自身五感对事物进行直观把握。那种以完全主观的态度对待人工智能,忽视其作为一种技术工具的本质的观点是错误的。将人类的经验知识数字化,设
2.3 人工智能道德责任建设................................................................. 25
2.3.1 人工智能道德责任建设的全面审视....................................... 25
2.3.2 人工智能道德责任建设的基本原则....................................... 26
2.3.3 人工智能道德责任建设的意义 ............................................... 29
3.1 人工智能道德原则嵌入之难 ........................................................ 31
3.1.1 程序设计预先无法避免嵌入主体价值观念 .......................... 32
3.1.2 研发人员固有价值观念对人工智能的先在影响 .................. 33
3.1.3 人工智能价值导向对受众产生强大异化作用 ...................... 34
3.2 人工智能数据运用过程中大量失范现象难以遏制 .................... 35
3.2.1 人工智能技术与个体隐私保护之间产生矛盾冲突 .............. 35
3.2.2 数据资源拥有者对数据信息的不正当利用 .......................... 37
3.2.3 数据信息资源的保护措施欠缺 ............................................... 38
3.3 数字时代的算法伦理规范难题 .................................................... 39
3.3.1 算法技术加重了社会伦理价值偏见....................................... 40
3.3.2 算法可解释性风险加剧社会的“数字分化” ........................... 41
3.3.3 算法歧视破坏社会公正 ........................................................... 43
3.4 人工智能道德抉择困境中责任主体被弱化 ................................ 45
3.4.1 无人驾驶汽车的伦理价值抉择难题....................................... 46
3.4.2 军事武器中的技术异化风险 ................................................... 47
人工智能道德责任问题是一项重大的社会问题,加强人工智能道德责任建设则是科技新时代的要求。通过前文的分析可知人工智能研发及应用过程中出现的种种伦理风险问题大多源自于人类驾驭能力有限及运用方法不当。本章基于前文对人工智能责任主体道德问题的分析,针对人工智能道德责任建设的不足之处,从政府部门、行业领域、个人主体的不同维度入手分析并提出对策建议。
4.1 完善人工智能法律法规以弥补道德规范缺失
道德规范是实现人工智能道德责任建设的重要条件,它可以通过导向、教育、约束等功能,将人工智能责任主体的道德行为引向既定的道德责任建设目标。从道德责任规范与道德责任落实过程的同一性看,人工智能道德责任规范本质上既是智能化时代道德责任落实的固定化制度和规范形态,也是智能化时代道德责任落实的制度化和规范化动态过程。目前,我国用以指导AI技术发展的政策规范还有待进一步完善。2022年3月国务院办公厅最新印发的《加强科技伦理治理的意见》中,明确提出要加强科技伦理治理制度的保障并强化科技伦理的审查和监管等要求。①根据国家法律及社会需求,不断探寻人工智能道德责任建设机制。
4.1.1 加强人工智能的法律制度保障
近年来,传统的伦理话语体系饱受人工智能技术的冲击。迄今为止,我国并未出台具体的有关人工智能技术发展的法律规范。以新一代人工智能治理专业委员会发布的《新一代人工智能治理原则-发展负责任的人工智能》为例,主要强调建立人工智能问责机制,多为宏观把控性原则,有很多需要完善之处,并不能完全解决实践过程中产生的具体问题。事实上,目前不仅是我国,国际范围内也缺少人工智能研发及应用过程中的具体法律条文规定所谓“无规矩,不方圆”,人工智能有关的道德责任难题需要依靠法律规范和公共政策来解决。因此当务之急便是进一步推进道德责任规范的确立,增强人工智能道德责任规范的可操作性,全面发挥人工智能道德责任体系的整体功能。相关法律规范的制定和完善,是为了填补人工智能研发及应用环节的法律空缺,以便遇到实际问题时能够有法可依。在人工智能道德责任建设过程中,制度化的道德责任规范具有更强的实效性,是对人工智能道德责任主体的行为要求,强调依靠制度力量来规范人工智能研发及应用过程中人们的道德实践行为。通过完善道德责任规范,可以达到强化道德他律的效果。在人工智能道德责任建设过程中,个体道德责任意识会逐渐由外在他律转向个人自律,在这一过程中,人工智能道德规范作为一种强制性义务要求出现,道德价值取向并非出自于个体自身的主观道德意向。当前,人工智能道德规范缺失主要体现为道德责任规范的空缺和失效两个方面。
首先,道德责任规范空缺。道德责任规范发源于带有时代特征的社会实践,来自于具有现实意义的社会生活。不同时代的道德主体有不同的社会生活和社会实践,这种变化也决定着道德责任规范的变化。当前,人工智能技术的发展使科技社会进入崭新阶段,旧有的科技伦理和网络道德规范不能很好的适应社会生活实践的发展变化,导致现有道德责任规范与社会生活变化之间的矛盾产生,具体表现为现有的责任规范原则失效和必要的责任规范缺失。人工智能这一新兴科技的每一次突破,都会带来日新月异的变化。
从宏观角度来看,人工智能技术的发展过程中,信息技术因素不断成长,智能社会中的社会关系、规范制度以及人们的思想观念正在孕育发展,与此相应的人工智能道德责任规范制度也应当建立健全起来。
其次,道德责任规范失效。指现有的传统道德责任规范在人工智能技术领域失去其应有的效用。这主要表现在两个方面:一是宏观上表现为道德责任规范与智能社会实践中的不适应性,二是微观上表现为现有道德责任规范对于人工智能技术而言缺乏一定的可操作性。从功能上来看,人工智能道德责任规范可以分为评价性道德责任规范和操作性道德责任规范两种类型。评价性道德责任规范的功能与意识形态的理论功能具有相似性。它不仅是对道德责任认知的基础,也是对人工智能研发与应用过程中的实践行为进行道德评价的标准,它体现着人工智能道德责任要求的理性根据。操作性道德责任规范则是具体实践行为的道德责任要求在操作层次上的规范,是人工智能道德责任具体落实过程中的直接依据,也是评价性道德责任规范在人工智能研发及应用过程中的具体化。
由于智能社会深化了社会的内涵,将其从现实空间引入了多维技术空间,深化了现实社会责任伦理建设的层次和领域,因此,它不仅要满足现实社会责任伦理建设的要求,也必须结合特定问题赋予社会公民以新的规范和要求,弥补现实社会道德建设的不足,深化和拓展现实社会责任伦理理论。要确保人工智能道德责任建设科学有效,就必须保障人工智能道德责任规范的正当性。哈贝马斯曾指出,道德责任规范的有效性在于它的普遍性。也就是说,人工智能道德责任建设要对研发及应用过程中所涉及到的全部主体都具有较强的约束力,而不能仅仅是应用于某一个算法设计者、某一个智能产品的使用者或是某一位伦理学家。人工智能道德责任建设应当建立在人们普遍利益的基础之上,这种普遍利益就会构成遵守人工智能道德责任规范的动机。本质上,人工智能道德责任建设并不是单纯维护某个利益集团对物质利益的追求,而是体现着人们对善、平等、正义等价值的追求。在现实生活中,人们往往把道德责任规范当成善恶的直接标准,对于符合道德责任规范的行为判断为善;反之,则将违反道德责任规范的行为判断为恶,并以社会舆论形式给予当事人以压力。
如果人工智能道德责任规范失去其正当性,那就偏离了技术工具为人类造福的基本价值方向。即便对道德责任主体的行为有一定的指导与约束力,但经过实践的检验也必定会被人们所抛弃,从而失去其应有的约束效力。人工智能道德责任规范虽然是人为归纳概括和制定倡导,具有一定的主观性,但它体现着现实社会对人工智能技术发展的客观要求。正当性是人工智能道德责任规范有效性的根本,只有正当的道德责任规范才能对人工智能研发及应用过程中的道德行为进行约束,才能有效调节智能社会中人与人的关系,使人工智能健康有序的发展。
4.1.2 建立人工智能技术的长效监督机制
对人工智能技术进行管控,本质上是为了维护社会的公平正义,“正义是社会制度的首要价值,正像真理是思想体系的首要价值一样”①,通过制度化安排推动人工智能技术健康发展。完善人工智能相关法律法规,除了制定具体的法律规范原则,还应建立有效的人工智能技术的畅销监督机制。要提高人工智能伦理治理法制化水平,大力推动人工智能技术创新发展的基础性立法对监管查处等工作的明确规定。要建立人工智能伦理审查及监管制度,完善人工智能伦理审查、风险处置、违规处理等规则流程。要有科学的定位,加强对人工智能技术研发及应用过程中不同环节的监督把控。
首先是资本投入开发环节。AI技术的发展需要大量投资和技术累积,这可能会导致不同领域和不同群体之间的发展、资源和社会影响之间的巨大差异。进入AI智能时代的大型跨国公司或工业实体具有一定的垄断能力,可能会影响全球工业结构、资本和技术的发展。如若缺乏有效的指导和控制,AI技术可能会被滥用,从而削弱社会保障作用,成为资本权力的仆人,加剧社会矛盾问题。优化市场发展是国家收益的保证,但资本的逐利性和人工智能技术的潜利性往往会形成矛盾。政府部门对人工智能技术进行把控,可以避免资本对技术绑架导致的负面效应。
其次是人工智能技术研究发展环节。一方面,人工智能技术需要在经由伦理评议小组审核通过的符合人类自身需求的合理道德规范的指导下进行研究发展,始终遵循“向善原则”,确保在人工智能技术研发环节规避或消除威胁人类生存发展的不利因素;另一方面,对人工智能的设计要尽可能的避免程序“伪装”,不仅要确保技术人员对算法程序安全系数的把控,还要对所需数据信息资源的获取渠道进行严格把关,避免数据偏差,同时保护他者的个人权益。
另外是在人工智能技术应用环节。应加强伦理审核力度,最大可能避免AI技术造成的负面影响,对AI技术应用过程中出现的违反道德法规的行为开展调查并严肃处理。
要对人工智能研发机构或企业的违规行为及时处理,依法依规开展追责问责调查。对新出现的问题,及时调查研究并建立应对方案。总体而言,新技术革命带来的人工智能技术,需要政府部门对其进行引导和把控,从而缓解新技术带来的伦理困境。人工智能道德责任建设需要政治、法律、教育等多种手段综合治理。社会建设为人工智能道德责任建设提供良好的外部环境,有赖于道德责任建设与外部社会治理形成积极的良序关系。
确立人工智能法律法规,在相关责任主体自身道德完善与人工智能道德责任落实方面起到重要作用,它是人工智能道德责任内化的驱动力和持续力、人工智能研发过程中道德环境优化、人工智能道德责任建设的支撑力和保障力的外在约束。
人工智能技术发展过程中,职业活动与崇高精神价值之间的关联被一再忽视,利益价值的关联却被重点关注。当前,人工智能道德责任建设对相关行业的道德角色价值引导不足,需要提高相关行业领域道德行为主体的责任意识来减少此类“唯利是图”的现象。此过程主要涉及人工智能技术的开发企业、科研人员、伦理价值评定者三个不同行业领域的道德责任主体。
4.2.1 技术开发企业要自觉自愿承担社会责任
对于人工智能技术的开发企业而言,更加看重的是技术的盈利性,并且将技术带来的盈利看作是成功与否的关键。通常情况下,人工智能技术的开发者会从自身利益出发,找到市场需求,利用人工智能技术发展浪潮,创造更优渥的市场环境,进而增加其在人工智能技术领域的竞争力。在过度追逐利益的过程中,道德责任的约束力量也逐渐被消解。在人工智能道德责任建设过程中,开发企业在很大程度上引导着人工智能技术的发展趋势和方向,因此人工智能技术开发者的责任尤为重要。人工智能技术的开发者遵循相关的法律法规的同时也要承担相应的伦理道德责任,这是对法律精神的回应与提升。
通常情况下,人工智能技术的开发企业是科技伦理违规行为内部调查处理的第一责任主体,理应积极制定本单位调查处理的相关规定,对企业内部的违规行为主动开展调查活动。“宏观层面上指明与用户关系最直接、最紧密的核心集体在第一时间来承担责任是十分必要的,供应链核心企业便成为了合适的对象”①,因此,开发者承担相应的道德责任是符合社会期望的行为,这有利于维护开发者的商业品牌声誉与形象,也有利于提高开发者在人工智能技术发展领域的市场竞争力。事实上,道德本身与利益紧密联系,甚至可以说道德本身就是以利益为基础,二者之间的关系是伦理学的基本问题。在智能化时代,开发者的市场竞争核心一不仅仅局限于资本规模和技术创新,更是聚焦到了伦理之上。如若把利益的内在要求当成道德要求,就势必会造成道德失范现象。
正如德国哲学家汉斯·约纳斯所言,“那些负有使命感的人为了某些崇高的目的而自动寻求和承担责任”②,人工智能技术的开发企业所能承担的责任要远远超过作为个体的普通公民。只要人工智能技术开发企业愿意,就比个人更有条件和能力对已发生的事情负责和对未发生的事情提前负责。开发者应该在人工智能道德责任建设认知的基础上自觉自愿地对社会承担责任,保护社会利益,避免人工智能技术错误的发展方向对社会产生负面影响。
4.2.2 科研人员要对人工智能研究后果负责
人工智能技术的科研人员本应将注意力聚焦在科技成果带来的社会价值上,但现实中科研人员在沉浸式的研究过程中逐渐只关注自己的科研成果,将技术突破与发展当成是个人价值的体现。就此而言,需要更加注重人工智能道德责任建设过程中对科研人员的价值观引导。“从确定责任主体的条件看,从事人工智能研究的科技人员应该承担更
多的道德责任”①。约纳斯认为承担责任有三个必要条件,首要的、也是最基本的条件是因果力量,也就是行为对世界产生影响;其次该行为处于行为体的控制之下;最后,能
够在一定程度上预见行为的后果。②从这三个条件我们可以推出,从事人工智能研发的科学家、工程师应该是承担责任(包括道德责任)的主体。
人工智能技术的科研人员的道德责任这可以从以下两个方面进行归纳:一方面人工智能技术的研究人员应对自己的研究后果负责,并让公众了解这些后果,避免带入主观
道德偏见,从而造成类似算法设计歧视等主观性道德风险问题,要使人工智能的设计与人类社会价值观保持一致。也就是说,人工智能研发过程中,科研人员具有增进社会福
祉、避免伤害的职业责任。作为专业人员,社会期望他们的研究能够提供有价值的产品或服务。科研人员在一定程度上被公众赋予了许多权威和信任,理应“研究如何善用和
阻止恶用人工智能,使人工智能造福于人类”③。
另一方面,人工智能的程序设计者需要了解自己在社会中的不同角色。由于具备更多的专业知识和特长,通常会比其他人更有资格去推测研究后果。英国阿斯顿大学的学者大卫·科林格里齐曾指出“为了避免技术产生有害的社会后果,有两件事是必须的:第一,我们必须知道技术将可能产生有害的影响;第二,以某种方式改变技术从而避免这些影响一定是可能的”。①当前人工智能技术尚且处于发展的早期阶段,具有较强的可控性,而人工智能技术研发人员的“前瞻性”道德责任是实现其可控性的关键因素。人工智能设计者的道德责任意味着他们对社会负有责任,有义务去从事对社会有价值的研究,参与公众讨论,提供专家建议,并帮助政府部门制定相关的科学政策。科研人员应当充分发挥自身的专业特长,实现伦理价值与技术需求之间的转换。例如哈佛大学的拉坦娅·斯威尼(LatanyaSweeney)教授就曾创立数据隐私实验室,对隐私设计问题展开研究。同时人工智能技术的研发人员也绝不能单纯的为了科技发展而进行无底线的技术探索,要通过为社会服务,与类似与弗兰肯斯坦(Frankenstein)这类不负责任的“科学怪人”形象作斗争。
4.2.3 伦理价值评审专家的道德教育和道德审视
在人工智能道德责任建设过程中,社会学和伦理学等领域的专家学者拥有两种不同的角色要求,其道德责任角色主要分为伦理价值评定者和道德教育者。其一,伦理价值评定者角色对道德责任进行监督审视,主要是对人工智能研发及应用过程中道德价值问题的把控以及为政府部门制定相关法律规范提供专业建议。人工智能道德责任建设过程中,不同的伦理观念会对同一问题做出不同的评价并对此提出不同的应对策略。伦理价值评定在人工智能道德责任建设过程中起到风险规避的重要作用,能够推动公平、合理、透明的道德责任规范的形成。伦理价值评定的审计机制可以用于检查算法程序的输入输出,以了解偏差和危害。“当前,我国人工智能风险伦理规范体系仍处于建设起步阶段,虽然从国家层面开始出台规章制度推进伦理建设,但在政策落地、机制运行等方面仍然面临着诸多挑战”②。因此,极需要由伦理学专家构成的伦理价值评议小组,对人工智能道德责任问题进行伦理探究,“尝试探索基于源头和预见的伦理影响分析,科学审视人
工智能技术应用可能引发的伦理问题,并在此基础上进一步确定伦理上合理的设计和使用人工智能的指导原则”①。
其二,道德教育者角色则是要求相关领域的学者根据自身专业特长,对人工智能发展过程中涉及到的相关责任主体进行道德教育,以此提高人工智能道德责任意识。一方面,不同的道德责任教育者应根据自身专业领域的特点选择适合的道德责任教育方法。例如人工智能道德责任政策法规的宣传普及适合逻辑性强和善于说理的专家学者,选择灌输式或以理服人式的教育方法;而人工智能道德责任意识培养方面适合感染力较强的社会学和伦理学领域的专家学者,选择启发式或以情感人式的教育方法等。另一方面,道德教育者要因材施教,选择适当的道德教育方法来应对不同素质水平的受教育者。例如针对不同受教育者文化素质水平的不同,应选择受教育者能够听懂的语言进行讲解。
人工智能相关的知识理论较为复杂,对文化素质水平较低的受教育者而言,类似道德价值、算法设计以及数据风险审视等问题较难理解和把握,可以通过故事案例和宣传片等方式进行人工智能道德责任教育;相比之下,文化素质水平较高的受教育者的学习认知能力较强,可以将人工智能逻辑性和理论性的相关概念知识进行传授讲解。正所谓“隔行如隔山”,受教育者擅长的工作领域不同的情况下,也可以选择人工智能专题讲座、影片和展览等多种方式综合运用的道德责任教育方法。想要引导相关道德责任主体在人工智能发展过程中按照社会道德责任要求规约自己的行为,就需要根据受教育者的不同特点,选择恰当合适的建设方法。
4.3 提高主体数字素养以完善个体发展 ............................................ 57
4.3.1 提高个人数据保护意识和技能 ............................................... 58
4.3.2 提升公众个体对人工智能的理论认知 .................................. 59
4.3.3 加强个人道德修养以实现道德自律....................................... 60
为应对人工智能技术带来的社会风险和伦理挑战,需要加强人工智能道德责任建 设。人工智能道德责任建设是规范性的,旨在揭示人工智能技术发展过程中面临的伦理 难题,为人工智能技术发展清理障碍并提供价值引导,确保人工智能技术在造福人类的 轨道上发展。这不仅是一个理论性问题,也是一个实践性问题,是创造善的价值的活动, 是以人为发展目的的道德实践活动。将伦理纳入人工智能技术的发展过程,就是把道德 责任内化到人工智能技术的科研与创新中,这样才能使人工智能技术的发展符合社会的 伦理标准。
参考文献 ................................................................................................... 64
相关文章
UKthesis provides an online writing service for all types of academic writing. Check out some of them and don't hesitate to place your order.