摘要:人工智能自诞生至今,其发展已取得前所未有的突破,对人类社会产生深刻的影响。同时一系列伦理困境也随之产生,如隐私泄露、安全事故、人的全面发展失衡等,是全世界亟待面对和解决的难题。近年来负责任创新作为一种新的创新理念在欧美科技伦理研究领域兴起,旨在解决技术创新面临的道德难题及伦理规范问题。为解决人工智能产生的伦理困境,可将预期、反思、协商、反馈这四种负责任创新框架嵌入人工智能技术创新之中,为其指引正确、科学的方向,促使人工智能与人类社会能够和谐共处,创造更加美好的未来。
Abstract:Since the birth of artificial intelligence, its development has made unprecedented breakthroughs, exerting profound influence on human society. However, a series of ethical dilemmas have also emerged, such as privacy breaches, security accidents, and the unbalanced comprehensive development of human beings, which are difficult problems that the whole world urgently needs to face and solve. In recent years, responsible innovation has emerged as a new concept in the field of technological ethics research in Europe and the United States, aiming to address the moral and ethical issues faced by technological innovation. To address the ethical dilemmas arising from artificial intelligence technology, embedding the responsible innovation framework of anticipation, reflection, engagement, and responsiveness into the innovation of artificial intelligence technology will guide it in the right and scientific direction, enabling artificial intelligence to coexist harmoniously with human society, and create a brighter future.
1. 引言
进入新世纪后,以智能化、互联网为核心的信息革命促进了生产力的空前发展,生产方式和生活方式发生翻天覆地的变化,全球科技创新进入高活跃期,但技术创新给人类带来巨大福祉的背后也隐藏着深重的全球危机。马克思曾说:“在我们这个时代,每一种事物好像都包含着自己的反面,技术的胜利似乎是以道德的败坏为代价换来的。”( [1] : p. 755)伴随科技创新日益发展接踵而来的是全球利益冲突加剧,道德伦理问题不断以新的形式出现,如指纹识别、智能机器人、自动驾驶、远程医疗等人工智能新争议,冲击着人类社会,人们也愈发关注技术创新对人类、社会、自然三方面产生的消极影响。近年来负责任创新作为一种新的创新理念在欧美科技伦理研究领域兴起,旨在解决技术创新所面临的道德难题及伦理规范问题,在世界范围内产生了广泛影响。长久以来中国坚持“科技是第一生产力,人才是第一资源、创新是第一动力”( [2] : p. 33),经过新时代十年的努力与拼搏,2022年8月中国向全世界宣告已迈入创新型国家行列。2022年10月,习近平总书记在二十大报告中提出,到2035年要实现“高水平科技自立自强,进入创新型国家前列”( [2] : p. 24)。目前我国正处于建设创新型国家的关键时期,因此负责任创新理论对解决中国正面临的技术创新带来的伦理难题、提升创新能力以及建设和谐社会有着重大的理论意义。本文通过阐释负责任创新理论的产生背景、概念、理论框架以及具体实践,运用负责任创新理论分析伴随人工智能出现的伦理困境并提出解决方案,促使科技创新更好地造福全人类。
2. 负责任的研究和创新理念的兴起
2.1. 兴起背景
近代社会全球共发生四次工业革命,四次工业革命释放出巨大的生产力,尤其是以智能化为标志的第四次信息革命极大地促进全球物质丰富与技术发展,给世界带来了翻天覆地的变化。然而技术创新固然给人类社会带来了物质上的繁荣,但全球的粮食危机、能源危机和环境污染等负面问题也日益严峻。二十世纪七十年代人们提出“可持续发展”概念,为人类社会与自然环境协调发展发挥了重要作用。然而该理念也有其局限性,受到部分学者质疑,因此现需要一种更加完善、全面的理论来其阐述科技创新对人类的伤害,不仅仅局限于对自然的伤害。其次,根据科学技术与社会研究显示,社会思想文化、道德伦理及精神世界等领域的发展与技术创新之间的关系随着时代的进步变得愈发复杂,进入新世纪的人类在思想领域面临严峻挑战,甚至威胁到人类自身的生存与发展。无法解决思想领域与科技创新之间的矛盾,同样不利于全人类的持续发展。最后,邓小平同志曾强调:“科学技术是第一生产力”( [3] : p. 274),各国为不断提高本国综合实力和国际地位,大力推动科学技术创新,如我国提出的新发展理念、欧盟制定的地平线2020计划以及俄罗斯批准的“2021年至2030年前基础科学研究计划”等战略。正是各国如此重视科技创新,这就要求更加深入考虑科技创新所带来的负面影响。在这个科技高速发展的时代,需要一种新的理论将“负责任”与“创新”相结合即“负责任创新”理论来应对技术创新所带来的种种难题,以更好地促进社会发展与人类进步。
2.2. 定义
“负责任创新”,又称“负责任的研究和创新”(Responsible Innovation, PRI)。二十世纪八十年代德国哲学家汉斯·约纳斯在《责任原理》一书中提出对人类未来负责的“责任伦理”理论,旨在让科学家、政策制定者、社会公众以及媒体即技术研究与创新系统中的每一位行动者和相关利益者积极参与协商,共同为技术创新与研究担负其应尽的社会责任。“责任伦理”可以被认为是负责任创新的理论基础,它首次将“负责任”与“创新”联系在一起。2003年,德国学者托马斯·海斯托姆首次明确“负责任创新”概念,其内涵经过近二十年的拓展和深化逐步形成涵盖预期、反思、包容和响应四维度的负责任创新理论体系( [4] : pp. 1568-1580)。目前学术界普遍采用的定义是欧洲委员会成员尚伯格所解释的:“负责任创新是一个透明、互动的过程。在这一过程中,社会行动者和创新者对创新过程和成果的道德可接受性、可持续性和社会期望性进行互相响应,使得科学技术的进步更好地为人类社会服务。”( [5] : pp. 27-50)从此定义可以看出“负责任创新”与以往技术创新理论最大的不同之处在于引入了伦理维度与社会因素,强调科技创新活动需要符合社会期望以及大众的道德底线,体现了对人权的尊重和社会公众利益的重视。
2.3. 理论框架
为进一步阐释“负责任创新”概念,理查德·欧文、杰克·斯蒂尔戈、菲尔·麦克诺滕等人提出了一个包含四维度的理论框架,分别为预期(Anticipatory)、反思(Reflective)、协商(Deliberative)、反馈(Responsive)。2013年发表的《研究政策》中又进一步完善负责任创新的四维度框架,分别是预期(Anticipation)、自省(Reflexivity)、包容(inclusion)、反馈(responsiveness) ( [6] : pp. 143-155)。首先,“预期”是“负责任创新”理论的基本前提,关注技术创新活动本身,即利用当前已有知识和已知信息描述和分析技术创新在经济、政治、社会、文化等领域有可能产生的各种影响,从而避免问题出现后的“亡羊补牢;其次,“自省”是指科学家、管理者、政策制定者等相关人员对技术创新行为和状态进行思考,以确保技术创新过程中的合法性及合理性,它不仅仅是一种个体行为,更是一种社会共同参与的群体行为;再次,“包容”则是指向公众参与协商的部分,科技创新利益相关者以及更广泛的公众应共同讨论和协商,促使其达成共识,以此让技术创新与研究更好地服务社会需求;最后,“反馈”解决和克服在以上环节出现的矛盾和困难,对存在的问题做出及时回应,从宏观上说技术创新能够回应整个社会所面临的挑战,而从微观上来说是大众的需求能够被满足。反馈作为负责任创新理论框架的最后一部分,将预期、反思、协商等三部分的结果及时有效地反应到技术创新活动中去,从而使负责任创新理论得到有效的贯彻落实。这四个维度提供的不仅仅是理论上的框架,更是行动上的框架,它们在技术创新实践中相互配合、相互补充,从而更好地解决难题与矛盾,凭借以其专业度,得到了学术界普遍认可与赞同。2017年,Burget等在四维度理论框架基础之上又增加了“可持续性”和“关怀”两个新的维度。可持续性是指一种能够长时间维持的状态或过程,一般包括生态可持续、经济可持续和社会可持续三个部分,而关怀则是指普通大众负责代表本人所执行的决定以及行动。综上所述完整构成负责任创新的六个维度。
2.4. 具体实践
英、美、德、荷等欧美国家早在具体实践中落实负责任创新理论,中国也正在积极探索负责任创新理论与实践相结合。由美国国家自然科学基金会自主的社会技术整合研究正是基于“负责任创新”理论;2008年,荷兰鹿特丹港开始建设马斯弗拉克特二期项目,其主要目的为对环境友好、使人类宜居,该项目是荷兰实施“负责任创新”理念的典型案例之一;2010年,英国SPICE项目的“负责任创新”英国的3个研究理事会资助一项平流层粒子注入气候工程项目(SPICE),为尝试缓解全球变暖问题;2013年12月,欧盟委员会批准从2014年至2020年实施“地平线2020”科研规划,耗资估计770亿欧元,是欧盟主要的科研规划。“地平线2020”主要包括基础研究、应用技术、应对人类面临的共同挑战等3个方面,而“负责任创新”则被列为这一科技政策下的重要组成部分( [7] : pp. 148-168);中国在2016年《“十三五”国家科技创新规划》早已明确提出,倡导负责任的研究与创新……强调在技术创新活动中,加强伦理建设、重视和承担保障安全的社会责任。在实践也有突出表现例如2013年浙江省委十三届四中全会作出“五水共治”的重大决策,该工程的核心理念便是负责任治理,实现杭州的可持续发展。
3. 人工智能及伦理困境
2017年5月在中国乌镇举办的围棋峰会上,“艾法尔狗”与围棋世界冠军柯洁对战,以3:0的总比分获胜。围棋界公认“艾法尔狗”已经超过人类职业围棋顶尖水平,人工智能也伴随这场比赛的结束走进公众视野。2022年1月30日美国OpenAI研发的聊天机器人ChatGPT以其强大的功能吸引全球约一亿名用户,并且成功破圈。斯坦诺维奇在《机器人叛乱:在达尔文时代找到意义》中提到:“当你真正得到那把剑时,你才会意识到那把剑不那么好使,它甚至可能伤到你。”( [8] : p. 5)伴随着人工智能技术在日常生活中的日益普及,其“潘多拉魔盒”也被打开。现有的法律法规已无法解决人工智能日新月异发展所产生的道德难题与伦理困境,多个国家早已出手开启人工智能技术的相关调查、立法及制定监管规则。
3.1. 定义
人工智能(Artificial Intelligence)简称AI。1956年,以“人工智能之父”约翰·麦卡锡、马文·明斯基等为首的一批年轻科学家共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,旨在通过使用语言、模拟人类思维、行为等来解决人类所面临的各种现实难题。之后,人工智能逐渐发展成为一种理念、一类技术和一门学科。作为计算机科学分支之一,人工智能是研究使计算机来模拟人的某些思维过程和智能活动的学科,该领域研究主要包括机器人、语言识别、图像识别、自然语言处理和专家系统等。总的来说,人工智能是模拟实现人思维的一项技术。欧盟委员会将人工智能定义为:“人工智能是指通过分析环境并采取行动来展示智能行为的系统——具有一定程度的自主权——实现特定目标。”人工智能根据其应用与擅长分为弱人工智能、强人工智能以及超人工智能,目前大部分科研主要集中在弱人工智能。
3.2. 伦理困境
著名历史学家尤瓦尔·赫拉利在代表作《未来简史》中曾预判到:“人工智能和生物基因技术正在重塑世界,人类正面临全新议题。” [9] 作为二十一世纪三大尖端技术之一的人工智能,几十年来获得高速的发展,在各项领域也广泛应用,硕果累累,但不可否认的是人工智能也给我们带来了数不清的难题。人工智能带给人类的未来已经从理想的乌托邦转变为反乌托邦。
3.2.1. 隐私泄露
隐私权是人的基本权力之一。随着大数据、人脸识别、指纹识别技术和云计算等技术的兴起与发展,可以肯定的说人工智能掌握了人类的一切数据,网民们在人工智能的“监督下”生存,仿佛“裸奔”一般。个人隐私受到损害,隐私权难以得到保护。大量手机软件通过追踪用户浏览的相关网页信息,致使用户个人信息数据泄露,这样的案例数不胜数。据英国《卫报》10月29日报道,澳大利亚最大的医疗保险公司Medibank因黑客攻击,泄露大约390万客户的个人信息,包括个人账户密码、私人照片、联系方式等等,可能造成2500万至3500万美元的损失。近些年来,AI换脸技术在网络上悄然走红,使用者可通过ZAO等软件将自己的照片代替视频中的人物,表情自然、效果逼真。然而随着AI换脸技术的日趋成熟,也存在大量个人肖像被恶意利用的现象,一些不法分子通过此技术用来制作、传播不良甚至是违法信息,造成他人名誉损毁,损失钱财等。面对个人信息泄露、隐私权得不到保障等问题,处理不当有可能引发公众信任危机,影响社会和谐稳定。
3.2.2. 安全问题
人工智能技术在应用的过程中,有可能产生危及人类生命安全以及破坏环境等不良后果。近年,自动驾驶技术得到快速的发展,大量自动驾驶汽车投入市场使用,然而全球多个地区出现多起因自动驾驶引发的交通事故。2018年3月18日,美国一辆Uber自动驾驶出租车撞倒了一名女子,该女子被送往医院后不治身亡,此次事故也成为了全球第一例自动驾驶致人死亡的事故。NTSB调查数据显示在这起事故发生之前的18个月内,Uber无人驾驶系统总计发生了37起事故。当然不仅仅是Uber,特斯拉、Waymo等企业的自动驾驶汽车都曾发生过交通事故。在这些企业中以特斯拉发生的事故最多,截至目前,NHTSA正在调查至少四十一起涉及特斯拉汽车事故。自动驾驶汽车车祸次数之多、后果之严重迫使人们不得不去思考人工智能所带来的安全问题。
3.2.3. 失业加剧
马克思曾说过:“劳动用机器代替了手工劳动。但是使一部分工人回到野蛮的劳动,并使另一部分工人变成了机器。”( [10] : p. 270)每一次工业革命都极大的促进了生产力的发展,同时不可避免也造成一些工作岗位的淘汰及大批劳动者失业,人工智能的发展与应用更是加剧失业现象。人工智能具有智能化、高效率的特点,能够完成人类所不能完成的高难度工作,其工作效率也是人类所不能相比的。各行各业为实现利益最大化引进人工智能,从而导致大量工人被裁。据中国国际发展知识中心发布的《全球发展报告》显示,2020年至2025年间,全球约8500万工作岗位将会被机器所替代。自动化的生产线、智能化的机器人,将会代替大量从事重复性、机械性工作的劳动者,从而导致传统劳动密集型职业大量消失。麦肯锡全球研究院也强调,随着人工智能技术的发展,大约有7500万至3.75亿的劳动者将需要转换职业,面临重新选择就业岗位的难题。
3.2.4. 人的解放和自由全面发展失衡
马克思主义经典作家揭示共产主义社会的基本特征:“共产主义社会,将是物质财富极大丰富,人民精神境界极大提高,每个人自由而全面的发展。”( [11] : p. 293)人的解放和自由全面发展是马克思主义追求的最高的价值目标,也是共产社会主义的根本特征。劳动对人和人类社会的形成和发展具有根本的决定意义,马克思强调:“劳动创造了人本身。”( [12] : p. 550)劳动是人和其他动物最本质的区别,也是人的社会本性和社会关系形成和发展的基础,更是人作为人所不可缺失的一部分。随着社会进步和人工智能的不断发展,日常生活变得更加便利,另一方面也会导致人们沉溺于安逸舒服的环境,失去以往努力拼搏的精神,个人能力随之慢慢退化,人类的生存与发展也遭受到一定的威胁和挑战,人的全面发展面临失衡,违背了马克思的根本价值目标。
以上难题表明人工智能给人类社会在各个领域带来了一定的消极影响,传统的社会道德伦理规范以及现有的法律法规已经无法应对错综复杂的现状。因此我们需要对人工智能发展进行一定的思考和规划,将负责任创新理论引入其发展过程中,解决实际难题、走出发展困境,同时也使得负责任创新理论在实践中得到拓展与完善。
4. 基于负责任理论创新规范人工智能
为应对人工智能带来的伦理困境,可将负责任创新的经典理论框架——四维度模型即预期、反思、协商、反馈嵌入人工智能技术的全过程,以此促进人工智能技术的合理、合法应用。
4.1. 预期维度:构建人工智能伦理评审和风险评估机制
“在创新活动中,应通过技术评估对创新的可能后顾进行预测并根据价值目标对其进行评价,进而再确定未来发展的方向。”( [13] : pp. 78-85)一套完整、正规的评审标准和风险评估机制对于一个产业的发展是十分必要的,因此为规范人工智能产业发展,必须将预期嵌入人工智能技术创新过程中,构建人工智能伦理评审和风险评估机制。科研人员要积极寻求与其他相关利益者的合作,在人工智能技术创新之前或者之中分析、预测其在经济、政治、社会、文化等领域有可能产生的各种后果、采取的措施以及解决的方案。同时完善人工智能相应的审查机制,完整地描述人工智能技术在其使用的过程中有可能对社会、环境、人体健康等方面产生的的影响,严格规范该项技术研发过程中风险评估流程,对其风险以及影响进行科学准确的评估,对其可能出现的行为进行预判,采取不同的解决方案和措施,从而避免难以控制灾难性后果的产生。
4.2. 反思维度:加强人工智能监管力度
作为负责任创新的首要保证,反思维度旨在帮助主体构建道德敏感性,提升其伦理参与能力( [14] : pp. 69-75)。反思维度要求创新主体能够主动且及时地“意识到知识的局限,而且认识到对某一问题的特殊处理可能不具有一般性的意义”( [15] : pp. 84-90)。人工智能正处于高速发展期,具有十分广阔的前景。正是如此,科学家、管理者、政策制定者等相关人员在人工智能技术发展和应用的全过程中,不断进行思考,以避免只有单一主体参与所带来的社会问题。其一建立一套人工智能科研人员必须遵守的行为规范准则。在人工智能系统的研发和应用过程中,科研人员应当遵循公平公正的原则,考虑社会的整体利益,并承担相应的社会责任,确保人工智能技术的发展符合社会的整体利益。其二加强监管机构的建设与职责落实。相关监管部门应当加强对人工智能技术的监管能力和人员建设,建立健全的监管制度和监督体系,加强对人工智能技术研发和应用活动的监管和审查,对违法违规行为进行严肃处理。其三建立公众参与机制。鼓励社会各界广泛参与人工智能监管事务,包括公众舆论监督、专家学者参与评估、社会组织参与监督等方式,形成多方共治、社会共治的监管格局,推动人工智能监管工作更加科学、合理和透明。
4.3. OPPI协商维度:建立健全人工智能多元主体协同共治体制
在负责任创新视角下,技术研究与创新离不开相关利益主体的共同参与,只有多元主体的共同协商才能合理地制定决策。负责任创新理论将主体大致分为三部分,第一部分技术研究者,即直接参与技术研究与创新的实施者,例如工程设计师、建造师、维护人员等;第二部是技术研究与创新实施过程中所涉及的利益相关者,如社会大众、社会组织等;第三部分是负责沟通前两部分主体,以确保相关政策能够顺利实施的主体,例如政府、企业等。因此应建立健全人工智能多元主体协同共治机制体制,避免单一主体控制和利益的过度集中,鼓励社会公众共同参与到人工智能研究创新过程中,实现人工智能技术更好地发展和应用,加大技术研究者、社会大众以及政府这三种类型主体的沟通交流,提高参与公共事务、承担社会责任的积极性,促进主体发挥能动性共同协商决策,在“负责任创新”实践中形成合力。技术研究者要注重科技创新与伦理道德相融合,遵守相关法律法规和道德准则,积极承担起社会责任,确保人工智能技术的安全、负责任应用。社会大众增强对人工智能技术的认知和理解,并对人工智能技术的健康发展与应用提出建设学的意见和建议。另外政府部门应制定明确的法律法规,避免形成潜在的法律漏洞,对人工智能行业进行规范和监督,谋求该行业的健康发展。
4.4. 反馈维度:提高人工智能技术透明度
反馈维度是负责任创新的中心问题,将预测、反思和协商等三个维度的结果及时反馈到创新活动中去,并及时快速地进行调整,以确保“负责任创新”的理念贯穿于创新活动的全过程。为提高反馈的效率,必须提高人工智能技术的透明度,这对保障公众利益和推动人工智能的健康发展至关重要。首先加强对人工智能算法的透明度。科研人员和企业在开发人工智能技术时,应主动公开相关算法和模型的基本原理、处理方式等。这有助于科学界和社会公众对技术的理解和评估,并且及时发现和纠正技术中可能存在的偏见和错误。其次,相关机构和企业在应用人工智能技术时,应公开决策过程和依据,确保决策逻辑的可解释性和公正性。再者,在决策过程方面,需要加强人工智能技术决策的透明度。对于依赖人工智能技术做出决策的系统,应建立相应的决策记录和审查机制,确保决策过程的可追溯和可审查性。最后,在社会影响方面,需要加强人工智能技术的社会影响透明度。政府和企业在推广人工智能技术时,应主动进行社会影响评估和风险披露,促进公众对技术发展的理性参与和监督。只有通过加强透明度,才能实现人工智能技术的公平、可控和可持续发展,同时保障个人权益和社会公正。
5. 结语
综上所述,人工智能作为三大尖端技术之一,一方面对社会以及人类日常生活产生愈来愈大的影响,成为人们日常生活中不可或缺的一部分,另一方面不可避免的产生消极因素,甚至会严重影响社会发展和人类生存。因此为确保人工智能的正确、合理地使用,我们需要将“负责任创新”理论贯彻于人工智能运用中,使其符合社会伦理道德以及社会期望,为人工智能的发展指引正确、科学的方向,绿色、健康、良性地促进人工智能的发展,为其发展前景清扫障碍,使得人工智能技术与人类能够和谐共处,创造更好的未来。