airr Artificial Intelligence and Robotics Research 2326-3415 2326-3423 beplay体育官网网页版等您来挑战! 10.12677/airr.2025.142043 airr-110191 Articles 信息通讯, 工程技术 生成式人工智能赋能公共文化服务: 内在逻辑、现实挑战与实践路径
Generative Artificial Intelligence Empowering Public Cultural Services: Intrinsic Logic, Real-World Challenges, and Practical Pathways
1 2 1 1 盛雨珊 1 王秋香 1 浙江越秀外国语学院国际商学院,浙江 绍兴 浙江省工业和信息化研究院,浙江 杭州 05 03 2025 14 02 439 448 17 1 :2025 18 1 :2025 18 3 :2025 Copyright © 2024 beplay安卓登录 All rights reserved. 2024 This work is licensed under the Creative Commons Attribution International License (CC BY). http://creativecommons.org/licenses/by/4.0/ 生成式人工智能在赋能公共文化服务方面展现出巨大潜力。文章从资源管理、内容创作、用户服务以及供需对接四个维度探究了生成式人工智能赋能公共文化服务的内在逻辑。研究发现生成式人工智能通过夯实服务底座、丰富服务供给、提升服务体验以及促进服务匹配来提升公共文化服务质量,但也面临着数据迷雾、算法黑箱、内容偏差和智能鸿沟四大挑战,需要通过用户数据与版权保护、文化安全与多样性保护、算法审查与数据集优化、技术普惠与AI素养提升等手段,促进生成式人工智能在公共文化服务中的合理应用,推动公共文化服务高质量发展。
Generative artificial intelligence (GAI) demonstrates significant potential in empowering public cultural services. This article explores the intrinsic logic of generative AI in enhancing public cultural services across four dimensions: resource management, content creation, user services, and supply-demand alignment. The study reveals that generative AI improves the quality of public cultural services by strengthening the service foundation, enriching service supply, enhancing user experience, and facilitating service matching. However, it faces four major challenges: data opacity, algorithmic black boxes, content bias, and the digital divide. Addressing these challenges requires measures such as user data and copyright protection, safeguarding cultural security and diversity, algorithmic audits and dataset optimization, and promoting technology inclusivity alongside AI literacy. These efforts aim to facilitate the rational application of generative AI in public cultural services and drive their high-quality development.
生成式人工智能,公共文化服务,实践路径,高质量发展
Generative Artificial Intelligence
Public Cultural Services Practical Pathways High-Quality Development
1. 引言

公共文化服务是我国文化事业发展的重要组成部分和关键承载 [1] ,不仅承担着提升全民文化素养、推动文化传播的重要任务,还在实现社会公平、增进精神共同富裕中发挥着关键作用。当前,人民群众文化需求呈现出多样化、多层次特点,传统公共文化服务模式暴露出的服务供给不足 [2] 、资源分配不均 [3] 、内容同质化 [4] 、供需对接错位 [5] 等诸多问题亟待解决。近年来,国家高度重视公共文化服务的数字化转型,党的二十大提出要“实施国家文化数字化战略”,健全现代公共文化服务体系,同时《“十四五”公共文化服务体系建设规划》也明确指出要通过技术创新提升公共文化服务的质量和效率,推动公共文化服务向数字化、网络化、智能化建设,这些政策都为新兴技术在文化服务中的应用指明了方向。

随着大数据、5G、算法开发等技术的发展,ChatGPT等生成式人工智能(Generative Artificial Intelligence,简称“GAI”)已广泛融入公共服务领域,通过GAI技术可以生成大量内容(AI-Generated Content, AIGC)。相较于传统的人工智能,生成式人工智能因其大规模参数预训练、多模态信息融合与生成、交互式人机共生等技术和应用的创新而有了较强的泛化能力 [6] ,具备拟人化、强互动性和全感官化等特性 [7] ,逐渐成为减轻公共服务行政负担的新工具与新选择。生成式人工智能不仅能够生成高质量的文化内容,还能够通过智能推荐、个性化服务等方式,精准匹配用户需求,极大地提升了公共文化服务的供需对接效率。然而,生成式人工智能技术的广泛应用也带来了新的挑战,例如数据安全风险 [8] 、虚假信息 [9] 、算法偏见 [10] 、文化安全 [11] 等问题正逐渐显现,成为制约生成式人工智能在公共文化服务中应用的关键因素。因此,如何在推动生成式人工智能赋能公共文化服务的同时,保障文化服务的公平性、包容性和可持续性,成为当前亟待解决的重要课题。

2. 生成式人工智能赋能公共文化服务的内在逻辑

基于生成式人工智能的公共文化服务创新,是以数字资源管理为基础,以内容供给与用户服务同步提升为目标,通过GAI技术的高效链接,促进更精准的文化资源供需匹配。生成式人工智能通过夯实公共文化服务底座、丰富公共文化服务供给、提升公共文化服务体验、促进公共文化服务匹配四个层面来赋能公共文化服务,推动公共文化服务向智能化、个性化方向转型升级。生成式人工智能赋能公共文化服务的内在逻辑如 图1 所示。

Figure 1. The internal logic of generative artificial intelligence empowering public cultural services--图1. 生成式人工智能赋能公共文化服务内在逻辑-- 2.1. 资源管理端:夯实公共文化服务底座

GAI技术的快速发展,正在为公共文化服务中的文化资源管理带来全新的范式转变。借助GAI技术,文化资源的管理已超越了传统的静态存档模式,进化为数字文化建设管理。生成式人工智能作为数字文化的新编码者 [11] ,其多模态融合技术能够将文字、图像、音频等不同形式的文化数据进行统一处理与整合,生成综合性的文化资源库,为文化资源的精准管理提供强有力支持。以档案管理为例,利用GAI的语音合成、图像合成等多模态融合技术,能够实现“故人再现”“经典回溯”“古今同台”等情境,使档案馆中保存的伟人声音、非遗艺术等声像档案重新“活”起来 [12] 。与此同时,生成式人工智能还能够对文化遗产进行高精度的数字化修复与复刻,实现文化资源在虚拟空间中的永久存续 [13] ,并通过数字交互平台增强公众的参与体验。2024世界人工智能大会上,国内某科技团队将GAI技术应用于敦煌遗书残卷的图像数字化修复,打造了AI古籍修复模型,通过字形修补、褪色修复、背景补全等方式,让残损的古籍焕发新的生命力。由此可见,GAI技术的引入使得文化资源的管理从过去的被动保护,转变为主动的活化与传播,推动文化遗产在数字化时代焕发新生。

2.2. 内容创作端:丰富公共文化服务供给

《“十四五”公共文化服务体系建设规划》指出,要提高公共文化服务供给能力,广泛开展群众文艺创作和活动。生成式AI通过强大的算力和算据,对已有的文化资源(历史、文献、文学、艺术、文物等数据)进行搜索、挖掘、处理、甄选、整合与输出,产生文化内容的新量与增量 [11] ,有望成为未来内容生产的强大引擎 [14] 。通过生成式人工智能的强大生成能力,文化内容创作得以实现从传统的人工创作向智能化创作的转变,大幅减少了创作周期。创作者可以将重复、枯燥的任务交由AI完成,从而集中精力在更具创意性的工作上。例如,2024年7月,全国首部AIGC连续性叙事科幻短剧集《三星堆:未来启示录》上线,这部剧集将GAI技术用于包括场景搭建、角色塑造等制作过程中,通过图片生成虚拟场景和角色,然后通过AI技术将图片转化为视频,主创团队还运用AI技术来辅助剪辑和后期制作。再如,央视综合频道推出了采用生成式人工智能技术制作的AI动画片《千秋诗颂》,通过动画形式展现了李白、杜甫、孟浩然等诗人的创作和人生历程。不同于传统动漫制作,这部作品也是借助AI技术辅助完成的。除了赋能专业文化机构的内容创作,生成式人工智能还能满足群众的文化创作需求。根据用户的个性化需求,生成式人工智能能够生成符合其兴趣和喜好的文化内容,使得文化创作变得更加个性化和符合用户导向。例如,利用全球流行的AIGC工具Midjourney,用户不仅可以在短时间内生成数百个作品,还通过智能化排序和优化,最终生成高质量的数字艺术作品。这些应用场景表明,生成式人工智能正通过提升文化创作的效率和质量,为公共文化服务注入新的活力。

2.3. 用户服务端:提升公共文化服务体验

优化用户体验是公共文化服务的重要任务,GAI技术通过智能化、个性化和沉浸式的服务模式,正在重塑公共文化服务中的用户服务体验,提升群众满意度。图书馆、博物馆等作为群众公共文化服务的主要阵地,生成式人工智能能够为促进这些场所提供更高效智能的服务 [15] 。以图书馆用户服务为例,GAI技术无疑是革新图书馆用户服务的重要手段,在智能咨询、知识保存与发现、智能翻译等场景发挥重要作用 [16] 。作为GAI技术的典型应用,虚拟数字人不仅能够模仿人类的思维和情感,还能够通过多模态感知技术捕捉用户的情绪和需求。国内多所大学和机构正尝试探索图书馆虚拟数字人应用,如清华大学图书馆的“小图”、南京大学图书馆的“图宝在线”、上海图书馆的“图小灵”,这些虚拟数字人通过自然语言处理和机器学习技术,能够为用户提供全天候的高准确性智能问答、导览讲解等服务,还通过情感交互功能提升了用户的服务体验。在辅助阅读方面,生成式人工智能同样可以发挥自身优势,提高用户阅读便利性。对于特定的图书和阅读材料,生成式人工智能可以自动解析和解读其内容,为用户提供更加深入的阅读体验和理解。例如,对一本文学名著,人工智能可以为其生成一个详细的内容解读和人物分析,帮助用户更好地理解和欣赏作品 [15] 。同时,通过生成式人工智能的文生视频能力,书籍中原本晦涩难懂、抽象的概念和关系等,也将变得“可视”“易懂”,富有趣味性 [13] 。部分图书馆公共服务GAI技术使用案例如 表1 所示。

<xref></xref>Table 1. Cases of GAI technology usage in library public servicesTable 1. Cases of GAI technology usage in library public services 表1. 图书馆公共服务GAI技术使用案例

地区

图书馆

GAI项目

北京

中国国家图书馆

虚拟数字馆员“小图”

北京

清华大学图书馆

“清小图”智能问答系统

江苏

南京大学图书馆

“图宝在线”智能问答系统

上海

上海图书馆

机器人馆员“图小灵”

天津

武清区图书馆

AI数字人“小博”

安徽

马鞍山市图书馆

AI伴读机器人“小艾”

江苏

连云港市图书馆

机器人“图小孙”

吉林

吉林农业科技学院图书馆

元宇宙虚拟数字人

江西

江西省图书馆

AI人工智能机器人

浙江

江北图书馆

AI数字员工

资料来源:作者根据公开资料整理。

2.4. 供需对接端:促进公共文化服务匹配

解决好供需匹配问题是公共文化服务的建设重点 [17] 。《“十四五”公共文化服务体系建设规划》明确提出,要掌握服务对象的特点和需求,提升公共文化服务供需匹配程度。生成式人工智能通过用户画像与行为数据的深度分析,精准识别用户的文化需求,确保文化产品的供给能够与用户需求无缝对接。例如,生成式人工智能可以根据用户的阅读历史、搜索记录以及兴趣偏好,为其推荐符合其需求的书籍、文献或文化活动信息,从而提升用户个性化体验。生成式人工智能还可以利用多模态融合技术,整合文字、图像、音频等多种形式的文化资源,为用户提供多样化的文化选择。此外,生成式人工智能通过数字孪生和虚拟现实技术,使得文化资源的展示与传播不再受限于物理空间,用户可以在线上参与文化活动或参观文化场馆,突破了时间和空间的限制,增强文化服务的可及性和普惠性。例如,敦煌研究院通过3D重建技术,将莫高窟的壁画与雕塑进行数字化处理,构建了虚拟敦煌博物馆,使得用户能够在线上体验这些珍贵的文化遗产;故宫博物院利用GAI技术创建的数字化博物馆,不仅实现了文物的虚拟展示,还通过沉浸式虚拟现实技术为用户提供了深度的文化体验。

3. 生成式人工智能赋能公共文化服务的现实挑战

生成式人工智能在推动公共文化服务创新发展的同时,也面临新的挑战。这些问题集中体现在用户隐私与版权侵犯风险、算法黑箱引发的偏见和歧视、数据“投喂”不合理导致的内容同质化和虚假内容、以及不同地区和人群面临的新型智能鸿沟问题等。这些困境不仅限制了GAI技术的有效应用,也对公共文化服务的公平性、包容性和多样性造成一定冲击,亟需从技术、法规和数据管理等方面加以应对。

3.1. 数据迷雾:AIGC的数据风险和版权纠葛

在生成式人工智能广泛应用于内容创作的背景下,数据风险和版权问题日益凸显。AIGC的核心在于其依赖大规模数据集进行训练,而这些数据集往往包含大量个人信息和受版权保护的作品 [18] 。这种大规模数据收集和利用的方式带来了前所未有的隐私风险和版权纠纷。GAI技术在训练数据集时,可能未经许可使用受版权保护的内容,导致版权侵犯。例如,2023年1月底,图库巨头Getty Lmages在伦敦高等法院起诉Stability AI,指控其使用“Stable Diffusion”模型非法复制和处理数百万受版权保护的图像,这起侵权案成为全球首例AIGC侵权案件。此外,GAI技术的隐私侵犯问题同样不容忽视。在训练过程中,数据集可能包含个人的敏感信息,如身份信息、财务数据等,生成式人工智能应用实践中侵犯用户隐私权的事件时有发生 [15] ,例如韩国Scatter Lab公司的AI聊天机器人未经用户同意违规收集和使用用户个人信息而面临集体诉讼。这引发了关于个人信息保护的广泛争议,尤其是在AIGC内容中可能嵌入或泄露私人信息的情形。例如,欧盟的《人工智能白皮书》特别强调了人工智能系统在使用过程中应确保个人数据和隐私得到充分保护。

3.2. 算法黑箱:GAI技术缺陷带来的算法偏见风险

人工智能的算法封闭性本质决定了处于核心处理环节的算法依然被黑箱笼罩,无法保障全流程透明 [7] ,导致了所谓的“算法黑箱”现象。生成式AI依赖于复杂的深度学习模型,这些模型通常是通过大规模数据集进行训练的。然而,训练数据的选择和处理过程往往缺乏透明性和解释性。在这种情况下,算法的决策过程对外部观察者不可见,甚至连开发者也难以完全理解模型是如何得出特定结论的。数据偏见是算法黑箱的直接原因之一,亚马逊、OpenAI等公司都曾承认由于高质量数据集有限、加工粗糙、审核不严等原因而导致生成式人工智能大模型训练数据存在偏见等质量问题 [19] 。由于训练数据集本身可能包含各种偏见,这些偏见会通过模型的训练过程被“学习”并在生成内容时表现出来。例如,若训练数据集中某些群体的代表性不足或存在歧视性内容,那么AIGC内容很可能会延续这些偏见,导致在公共文化服务的内容创作、用户服务等领域中,出现种族、性别、地域等方面的歧视性结果。一个典型的案例是2018年曝出的亚马逊招聘AI工具的失败经验。亚马逊开发的AI招聘系统被发现对女性求职者存在明显的性别偏见,因为该系统主要基于男性主导的历史招聘数据进行训练。这一事件突显了算法偏见的严重性,也揭示了“算法黑箱”问题在公共文化服务应用中的潜在风险。

3.3. 内容偏差:AIGC内容输出的文化安全和价值观挑战

AIGC大模型训练数据在语言方面较为单一的来源,导致AIGC不可避免的存在代表性偏差的问题 [20] 。目前,国际主流的AIGC模型主要依赖于以英语为主的语料库,即便在我国国内开发的大模型也主要以汉语为主,这导致其他语言和少数民族文化在生成内容中被边缘化 [21] ,影响了文化的多样性和公平性。同时由于语料库的不均衡分布,AIGC内容往往偏向于反映特定文化的主流观点,忽视了对多样化文化表达的需求。这种偏差不仅削弱了少数民族语言和文化的存在感,还可能削弱文化多样性,进一步加剧文化的同质化趋势。此外,AIGC由于“喂料”、采样等环节局限性导致文化编码偏差,从而对AIGC文化内容的真实性和完整性造成影响 [22] ,扭曲人们对历史和文化的理解。虚假内容不仅对文化遗产的真实性构成威胁,还会破坏公众对文化价值的正确认知。同时,如果过度依赖生成式人工智能快速内容生成能力,长期可能导致文化产品趋于快餐化,削弱其艺术和文化价值,导致人的主体性被剥夺。因此,在推动GAI技术赋能公共文化服务的过程中,必须高度重视并采取有效措施,确保文化多样性和价值观输出的平衡,以维护文化服务的公平性和可持续性。

3.4. 智能鸿沟:生成式人工智能参与公共文化服务的公平性困境

生成式人工智能尽管为公共文化服务带来了诸多创新和便捷,但也加剧了数智鸿沟,导致在文化服务的公平性方面出现了新的困境。算力是GAI技术使用的基础,随着深度学习的推进,AI对算力的要求越来越高 [23] ,但全国各地区算力基础设施建设水平存在显著差异。这种不平衡导致了数字鸿沟的深化,在公共文化服务中表现为文化资源的获取和利用能力的差异。例如,发达地区的图书馆已经普遍引入了基于AIGC的虚拟助手,可以为读者提供精准的书籍推荐和智能化的图书馆导航服务,而欠发达地区则难以实现同样的服务水平。此外,用户的受教育水平等客观因素的差异也催生了生成式人工智能背景下新型数字鸿沟,即用户对生成式人工智能的认知程度、获取难度、使用能力和评估水平存在较大差异 [6] 。这种智能鸿沟进一步加剧了社会分化,使得数字弱势群体极易被排斥在公共服务体系之外,加剧了用户之间的文化服务获取不平等。例如,部分公共文化服务平台虽然引入了智能化的文化资源推荐系统,但用户如果不能有效理解和使用这些系统,就无法充分获取其中的文化资源,从而在智能时代的文化消费中处于不利地位。

4. 生成式人工智能赋能公共文化服务的优化路径

优化生成式人工智能赋能公共文化服务的实施路径,应从确保内容合规性、消解内容偏差、减少算法偏见以及缩小智能鸿沟四个核心方面展开。AIGC依赖大规模数据集进行训练,因此加强用户数据保护与版权管理是确保内容合规的重要前提。数据“投喂”过程中确保文化内容的多样性和真实性,才能避免输出内容文化单一和存在虚假信息。与此同时,通过道德审查和数据集优化,提升算法透明性,可以有效减少技术偏见的潜在风险。最后,通过加大基础设施投入、提升不同群体AI素养等,能够缩小智能鸿沟,确保不同群体公平享有文化资源,从而推动公共文化服务普惠化。

4.1. 用户数据与版权保护:保障AIGC内容的合规性

AIGC依赖海量数据进行训练与内容生成,这些数据的使用可能涉及用户隐私和版权问题。建立完善的数据保护体系、强化版权审查和法律规范,才能避免生成式人工智能赋能公共文化服务过程中潜在的法律风险和伦理争议。一是要强化生成式AI参与公共文化服务过程中的数据保护。AIGC依赖于海量数据进行训练,这些数据中往往包含了大量的个人信息和敏感数据。如果这些数据在使用过程中得不到妥善保护,将可能导致严重的隐私泄露问题。为了应对这一挑战,公共文化服务机构需要严格遵守《生成式人工智能服务管理暂行办法》《中华人民共和国个人信息保护法》《数据安全法》等法律法规,构建健全的数据保护体系。一方面,应当通过数据加密、匿名化处理等技术手段,确保用户数据在传输和存储过程中的安全性,应遵循最小必要、知情同意、安全合法、保护隐私等原则。另一方面,应强化数据访问管理,严格控制数据的使用权限,防止未经授权的访问和滥用。如果在合规情形下需要向第三方提供用户个人信息,应取得用户同意,并对个人信息进行脱敏处理,避免泄露用户的敏感信息。二是要关注公共文化服务中AIGC的版权问题。AIGC内容可能涉及到受版权保护的素材,如图像、文本和音频等,版权纠纷的风险不可忽视。AIGC文化内容如果未经许可使用了他人的作品,就可能引发版权争议。这不仅会损害原版权持有者的利益,也可能导致公共文化服务机构面临法律诉讼的风险。因此,公共文化服务机构在应用GAI技术时,必须加强对生成内容的版权审核,确保所有内容的使用均符合版权法律法规的要求。三是要完善生成式AI参与公共文化服务相关法律法规。为了保障数据保护和版权管理的有效性,还应从制度建设入手。当前,GAI技术的发展速度远超现行法律的调整速度,导致在实践中出现了法律滞后和空白现象。就版权保护而言,我国《著作权法》规定著作权属于作者,对由人工智能和自然人共同创作的作品的著作权归属还没有明确规定;《生成式人工智能服务管理暂行办法》中也仅提到“涉及知识产权的,不得侵害他人依法享有的知识产权”,并未对具体版权归属问题作出明确指示。可以借鉴国际上成功的经验,考虑制定类似欧盟《人工智能法案》那样的法律框架,规范GAI技术的应用,确保生成式AI参与公共文化服务中的数据隐私与版权双重保护。部分生成式人工智能相关法律法规如 表2 所示。

<xref></xref>Table 2. Relevant laws and regulations on generative artificial intelligenceTable 2. Relevant laws and regulations on generative artificial intelligence 表2. 生成式人工智能相关法律法规

相关制度

国家/地区

时间

《人工智能法案》

欧盟

2024

《与人工智能和版权相关的清单和指南》

日本

2024

《内容来源保护和防止编辑和深度伪造媒体完整性法案》

美国

2024

《生成式人工智能服务管理暂行办法》

中国

2023

《人工智能和数据法案》

加拿大

2022

《生成人工智能网络安全法案》

美国

2020

《可信赖人工智能伦理准则》

欧盟

2019

资料来源:作者根据公开资料整理。

4.2. 文化安全与多样性保护:避免AIGC内容输出的价值偏差

生成式人工智能赋能公共文化服务需要保障文化安全与多样性。通过丰富数据来源、优化算法设计,能有效避免价值偏差,确保多元文化的平等表达。同时,建立内容审查机制,提升生成内容的准确性和真实性,以防止虚假内容的传播。一是丰富AIGC文化内容的多样性。数据集的多样性与包容性是文化内容多样性的基础。在AIGC数据集的建设中,需要引入更多元化的文化元素和语言内容,确保生成内容能够全面反映不同文化的特征。这不仅有助于增强文化内容的包容性,也能够扩大公共文化服务的受众范围,避免少数民族语言和文化的边缘化。此外,GAI技术的开发者应在算法设计中融入文化敏感性原则,确保算法能够识别并尊重不同文化和价值观的差异。通过引入文化适应性算法,针对不同文化背景的用户提供个性化的内容生成服务,避免“一刀切”的内容输出模式。二是增强AIGC文化内容的准确性。在AIGC内容的生成和传播过程中,内容审查和监管机制的建立同样不可忽视。为了防止GAI技术生成虚假文化内容,相关部门应设立专门的审查机制,对AIGC文化内容进行严格的审查和筛选,防止虚假内容的传播和文化偏见的扩散。同时,严格执行《生成式人工智能服务管理暂行办法》中关于AIGC内容标识的规定,采用显著方式在视频、图片等AIGC内容的合理位置、区域进行标识,显示“由人工智能生成”或“由AI生成”等提示文字,帮助用户识别内容来源。三是提升AIGC文化创作的价值性。虽然生成式人工智能能够大大提升文化创作效率,但其不具备人类情感、体验、想象力,无法代替人类创造力 [24] 。因此,为了创作出高质量的文化作品,需要在充分发挥生成式人工智能优点之上,搭配人类的具身审美体验和创意,使人类主观能动性与生成式人工智能精准高效协同,创作出符合大众需求的创意作品。

4.3. 算法审查与数据集优化:减少GAI技术使用中的偏见

偏见是人工智能治理需要破解的一张技术伦理“封印” [20] 。为了减少生成式AI应用于公共文化服务时的技术偏见,必须在算法模型、道德审查和数据管理三个方面进行优化和完善。首先,优化算法模型。GAI技术的偏见常常源于其训练数据的统计规律和模型的设计缺陷。因此,应在AIGC模型结构中引入道德判断模块,通过奖励机制增强模型的道德决策内在动机,确保模型在生成内容时遵守道德规范。同时,采用道德强化学习的方法,使模型在学习过程中能够避开不符合道德标准的内容,进一步减少偏见的发生。其次,增强伦理审查。为了确保AIGC模型的输出内容符合社会伦理和价值导向,应建立公共文化服务领域AIGC伦理评估体系,对模型的表现进行持续监测与评估。借鉴欧盟《人工智能法案》,引入“监管沙盒”制度,为AIGC开发者、设计者等提供一个特定的监管环境,允许其在将人工智能应用推向市场之前进行测试,验证创新型技术的风险隐患与安全性 [25] 。在此基础上,构建AIGC模型的风险评估模块,实时模型的自我监控,确保其在复杂的应用场景下依然能够保持道德识别能力。例如OpenAI公司在涉及种族歧视、民族仇恨和违法犯罪等议题领域时进行了严格的问答限制,ChatGPT可能会拒绝回答相关问题 [11] 。这种伦理审查机制不仅帮助识别潜在的偏见,还能通过人机交互获取道德反馈,持续优化模型的道德表现。最后,完善数据管理。数据集的管理与更新是减少偏见的关键所在。由于GAI技术高度依赖于训练数据集,而这些数据集可能存在各种历史偏见和数据噪声,这些问题在未经处理的情况下,容易在生成内容中显现。例如,如果训练数据集中存在性别、种族或地域的偏见,AIGC内容可能会不自觉地延续和放大这些偏见。公共文化服务机构应定期检查并更新数据集,确保技术使用时所依赖的数据是多样化且不带有偏见的。同时,严格遵循道德标准对训练数据进行筛选,避免不良内容进入模型的学习过程导致偏见的产生。为确保这些措施的有效性,应制定相关规章制度,明确数据管理的流程与标准,并通过透明化的管理机制,防止算法和数据的“黑箱”运作,进一步降低GAI技术在应用中的偏见风险。

4.4. 技术普惠与AI素养提升:缩小不同地区和群体间的智能鸿沟

缩小智能鸿沟是推动生成式人工智能充分赋能公共文化服务的关键。通过完善基础设施,提升欠发达地区的技术覆盖,同时加强公众的AI教育,确保所有用户都能平等获取和使用GAI技术。加大对弱势群体的特别支持,同样是实现文化服务公平性和普惠化的重要措施。一是完善算力等基础设施建设。国家相关部门应加大对欠发达地区数字基础设施的投入,通过政府财政支持以及社会资本引入等多种方式,提升这些地区的算力供给、网络通信设备等。不断完善全国算力一体化网络建设,通过算力调度方式为算力基础设施薄弱地区提供跨区域支持,强化算力支撑。二是提升群众人工智能素养。GAI技术的应用要求用户具备一定的AI素养,而AI素养的缺乏是造成数智鸿沟的重要原因之一。在公共文化服务中,AI素养较低的用户往往难以充分利用GAI技术提供的服务,从而在文化资源获取上处于不利地位。为此,政府相关部门应积极开展AI素养教育,通过线上线下相结合的培训模式,提升公众对GAI技术的理解和使用能力。例如,可以通过开设AIGC培训课程、举办讲座、发布在线教育资源等方式,帮助不同年龄、不同背景的用户掌握GAI技术的基本操作和应用技巧,从而增强他们在数字时代的文化参与能力。三是推动GAI技术普惠,注重社会弱势群体的文化服务保障。老年人、低收入群体、残障人士等群体,由于在技术接触和使用能力上存在一定障碍,容易在GAI技术应用中被边缘化。因此,相关部门应制定并实施针对性措施,确保这些群体同样能够享受到GAI技术带来的文化服务便利。例如,可以为老年人提供专门的技术支持服务,帮助他们克服使用智能设备的困难,或为残障人士开发无障碍技术接口,使其能够顺利访问和使用文化资源。

5. 结语

生成式人工智能(GAI)在赋能公共文化服务的过程中展现了巨大的潜力。通过数字资源管理、智能化内容创作、优化用户体验和供需对接,AIGC正在重塑公共文化服务的供给模式。然而,本文同时指出了AIGC在应用过程中面临的现实挑战,包括数据隐私与版权问题、算法偏见、文化输出的同质化风险以及技术普惠性不足等,这些问题直接影响了GAI技术在公共文化服务中的应用效果,并对公共文化服务的公平性、多样性和包容性造成一定影响。未来,要充分利用GAI技术推动公共文化服务的高质量发展,关键在于完善数据保护和版权管理机制,确保算法透明度与公平性,减少技术偏见,同时要加大文化安全和多样性保护。此外,要加强基础设施建设,缩小智能鸿沟,提升公众AI素养,以确保各群体均能平等享受GAI技术带来的文化服务便利。在GAI技术应用的同时,需持续完善相关政策法规,保障技术的安全性和可持续性,从而推动公共文化服务的全面智能化与普惠化发展。

基金项目

本文系教育部人文社会科学研究规划基金“生成式人工智能企业的社会责任评价、风险成因以及治理策略研究”(项目编号:24YJCZH209)、浙江省软科学研究计划“从‘承接地’到‘策源地’:产业转移中承接地创新能力同步提升策略研究(项目编号:2024C35078)”的研究成果之一。

NOTES

*通讯作者。

References 金栋昌, 王宇富. 党的二十届三中全会指引下的公共文化服务机制优化[J/OL]. 图书馆论坛, 1-4. >http://kns.cnki.net/kcms/detail/44.1306.G2.20240724.1806.002.html, 2024-09-01. 李杨, 陆和建. 政社合作供给公共文化服务中更好发挥政府作用的角色定位探析[J/OL]. 图书馆建设, 1-14. >http://kns.cnki.net/kcms/detail/23.1331.G2.20240627.1725.004.html, 2024-09-01. 张波, 任艺璇. 精神生活共同富裕导向下公共文化治理的空间向度[J]. 山东社会科学, 2024(6): 167-175. 王晴. 城乡公共文化服务高质量协同发展: 基本内涵、问题面向与逻辑进路[J]. 图书馆理论与实践, 2024(4): 18-25. 完颜邓邓, 童雨萱. 供需匹配视角下国外公共数字文化资源整合平台服务方式调查分析[J]. 图书馆建设, 2022(5): 124-131. 孙榕, 李白杨. 生成式人工智能(GAI)背景下的新型数字鸿沟识别框架研究[J/OL]. 图书情报知识, 1-12. >http://kns.cnki.net/kcms/detail/42.1085.G2.20240321.1548.002.html, 2024-09-03. 臧雷振, 张晴. 生成式人工智能与公共服务中的行政负担: 减压助手还是增压工具? [J]. 浙江学刊, 2024(2): 60-71+239-240. 吴静. 生成式人工智能的数据风险及其法律规制——以ChatGPT为例[J]. 科技管理研究, 2024, 44(5): 192-198. 郭海玲, 卫金金, 刘仲山. 生成式人工智能虚假信息协同共治研究[J/OL]. 情报杂志, 1-10. >http://kns.cnki.net/kcms/detail/61.1167.G3.20240605.1624.004.html, 2024-09-01. 彭兰. 智能传播中的人类行动者[J]. 西北师大学报(社会科学版), 2024, 61(4): 25-35. 陈文敏. “非物”织景: 生成式AI的文化编码及数字生态影响[J]. 山东师范大学学报(社会科学版), 2024, 69(4): 131-142. 杨晶晶. 生成式人工智能在档案数字场景中的应用研究[J]. 浙江档案, 2024(1): 45-47+54. 李涛. 生成式人工智能Sora对智慧图书馆的机遇、风险与法律规制[J/OL]. 图书馆建设, 1-10. >http://kns.cnki.net/kcms/detail/23.1331.G2.20240709.1039.006.html, 2024-09-04. 胡正荣, 樊子塽. 历史、变革与赋能: AIGC与全媒体传播体系的构建[J]. 科技与出版, 2023(8): 5-13. 徐芳. 智慧图书馆生成式人工智能应用场景及其法律问题[J]. 情报资料工作, 2024, 45(2): 24-29. 刘泽, 邵波. 元宇宙场景下人工智能生成内容(AIGC)赋能图书馆用户服务研究[J]. 图书馆, 2024(2): 10-16. 赵立波, 魏文超. 供需适配视域下推进城市公共文化服务建设的思考——以青岛市为例[J]. 中共青岛市委党校, 青岛行政学院学报, 2023(3): 115-120. 张涛. 生成式人工智能训练数据集的法律风险与包容审慎规制[J]. 比较法研究, 2024(4): 86-103. 朱禹, 陈关泽, 陆泳溶, 等. 生成式人工智能治理行动框架: 基于AIGC事故报道文本的内容分析[J]. 图书情报知识, 2023, 40(4): 41-51. 何祎金. 生成式人工智能技术治理的三重困境与应对[J]. 北京工业大学学报(社会科学版), 2024, 24(2): 124-134. Guo, D., Chen, H., Wu, R. and Wang, Y. (2023) AIGC Challenges and Opportunities Related to Public Safety: A Case Study of ChatGPT. Journal of Safety Science and Resilience, 4, 329-339. >https://doi.org/10.1016/j.jnlssr.2023.08.001 荣耀军. 传承与创新: 生成式人工智能视域下的优秀传统文化活化研究[J]. 当代电视, 2024(6): 27-33. 陈红丽. 算法算力在人工智能领域的发展与应用[J]. 中国安防, 2023(5): 30-33. 解学芳, 高嘉琪. AIGC模式赋能数字文化创新的逻辑与善治: 基于ChatGPT热潮的思考[J]. 江海学刊, 2023(3): 86-95. 张广伟. 欧盟人工智能监管沙盒制度的功能、局限及其启示——基于欧盟《人工智能法》的解析[J]. 德国研究, 2024, 39(2): 116-132+136.
Baidu
map