jc Journalism and Communications 2330-4766 2330-4774 beplay体育官网网页版等您来挑战! 10.12677/jc.2024.124173 jc-94530 Articles 人文社科 大众视野中的ChatGPT——基于抖音评论数据的形象感知结果分析
ChatGPT in the Public View—Analysis of Image Perception Results Based on TikTok Comment Data
吕一唯 江羽婷 贵州民族大学传媒学院,贵州 贵阳 30 07 2024 12 04 1132 1139 17 7 :2024 10 7 :2024 10 8 :2024 Copyright © 2024 beplay安卓登录 All rights reserved. 2024 This work is licensed under the Creative Commons Attribution International License (CC BY). http://creativecommons.org/licenses/by/4.0/ 本文利用ROST CM6软件对抖音平台评论文本进行词频分析、语义网络分析以及情感分析发现,ChatGPT的诞生,人们更为关注的是其与自身所产生的联系,对ChatGPT能够帮助解决工作或学习上的问题持积极态度,但又对其存在的风险和挑战而感到担忧。在ChatGPT等人工智能渗透入人们的生活后,人们应提高自身能力以应对各种风险,在享受其带来的好处的同时,也要防患于未然,合理地看待与使用ChatGPT。
In this paper, ROST CM6 software is used to conduct word frequency analysis, semantic network analysis and emotion analysis on the comment text of TikTok platform. It is found that the birth of ChatGPT makes people pay more attention to the connection between ChatGPT and themselves, and they hold a positive attitude toward ChatGPT to help solve problems in work or study. But they are worried about the risks and challenges. As artificial intelligence such as ChatGPT permeates people’s lives, they should improve their ability to deal with the risks, enjoy the benefits, and treat and use ChatGPT in a reasonable way.
ChatGPT,大众,评论,文本分析
ChatGPT
The Public Review Text Analysis
1. 引言

随着ChatGPT技术应用日益成熟,对于这项技术,人们褒贬不一,进而引发了激烈的讨论。目前,关于公众对人工智能的态度的研究大多通过案例研究或问卷调查的方式进行,刁生富和冯桂锋的研究指出,媒体的宣传和报道可以帮助公众更好地理解和接受人工智能,从而影响他们的思维模式和价值观念 [1] 。张海等构建了影响ChatGPT用户使用意向因素的研究模型,探讨了ChatGPT用户的行为特征 [2] 。通过阅读大量的文献,笔者发现大部分文章都是从国家、行业、社会的角度出发去谈论ChatGPT,而本文则从大众的角度出发。在大众传播面前,受众在媒体接触、内容选择、接触和理解上并不是完全被动的,他们具有某种自主性和能动性 [3] 。因此,当ChatGPT逐渐与我们的生活紧密联系时,从大众的视角对其进行研究具有重大的意义。大众对于ChatGPT的态度非常分明:部分人认为ChatGPT作为新技术,是人类福音;也有一部分人认为ChatGPT在未来会产生不好的后果。本文以抖音上关于ChatGPT视频的评论为线索,从大众的角度去探讨ChatGPT等人工智能融入我们的日常生活后需要注意的问题。本文的研究成果可以为各领域提供有价值的信息,帮助其更好地理解公众对于ChatGPT的态度,从而根据这些信息来制定相应的策略 [4]

<xref></xref>2. 数据来源与研究方法 <xref></xref>2.1. 来源地概述

“抖音”是一款具有垂直精准定位的“去工具化、去中心化”的音乐创意移动短视频社交平台软件,它专注年轻人音乐短视频社区平台,用户可以通过这款软件选择歌曲,拍摄音乐短视频,形成自己的作品 [5] 。抖音所覆盖的范围无论是人群还是内容,如今在不断地扩充,并且用户的活跃度高,笔者观察到无论是农村还是城市,抖音这款软件的使用率非常高。当ChatGPT一经出现,立刻引起了抖音博主们的注意,加之使用这款软件的用户量不断增多,于是大量博主发布视频对ChatGPT这个话题进行讨论,如ChatGPT是否会取代人类、如何使用ChatGPT、ChatGPT未来发展等等。

<xref></xref>2.2. 数据来源

以ChatGPT为关键词在抖音平台进行检索,共搜索到了上千条视频。为确保数据的真实性和准确性,本文在检索到相关视频后对视频的播放量进行了排序,选取了播放量最多的40条视频。为保证评论的认可度,本文选取了每条视频点赞最多的4条评论,最终收集到200条评论。

<xref></xref>2.3. 研究方法

文本分析法即用来描述和解释媒介讯息,侧重于描述文本的内容、结构和功能,解释深层的潜在意义。本文采用文本分析法对分析的主体,也就是大众的评论进行分析,利用ROST CM6软件对ChatGPT视频的评论数据进行统计分析处理。该软件可以实现聊天分析、流量分析、聚类分析、微博分析、网站分析、浏览分析、全网分析、分词、词频统计等一系列文本分析。本文研究的是视频下方的评论,运用该软件进行研究可以更加鲜明、明确的体现出评论所反应的信息含义,以此能够获取到大众完整的心里感知 [6]

<xref></xref>3. 形象感知结果分析 <xref></xref>3.1. 词频分析

本文运用ROST CM6软件对ChatGPT视频的评论数据进行词频处理,在数据预处理后分别进行了数据清洗工作和文本分词,得到分词结果后再对这些分词进行词频统计,提取出了高频词语及词频数,最终统计出前30的高频词,如 表1 所示。

<xref></xref>Table 1. ChatGPT high frequency glossary of web commentsTable 1. ChatGPT high frequency glossary of web comments 表1. ChatGPT网络评论高频词汇表
高频词

词频

高频词

词频

高频词

词频

人类

16

科技

5

答案

4

人工智能

11

恐怖

5

军事

4

问题

10

发展

5

代码

4

论文

8

大量

5

模型

4

取代

7

代替

5

医学

4

替代

6

软件

5

不出

4

时代

6

电脑

5

应用

4

学习

6

语音

5

对话

4

医生

5

训练

4

告诉

4

可怕

5

程序

4

产生

4

通过对高频词的分析,“人类”这个词汇的出现次数最多。可见,在ChatGPT出现后,人们更多关注的是其对人所带来的影响,对人而言有何作用,使用ChatGPT这个工具的主体是人,因此与人的联系最密切,所以出现频次最高的词汇是“人类”。“人工智能”“问题”“医生”“军事”等词出现频次较高,可以看出在与人的联系中,人们更为关注的是这项新技术在哪些方面能够为人类提供帮助,作为一项新技术,它能够帮助人类解决哪些人类无法解决的问题,为我们的生活带来了哪些便捷。“语音”“训练”“模型”可以看出ChatGPT的独特之处,是它的语言理解和文本生成能力较强,它训练模型就是通过连接大量的语料库来进行的,因此它具备熟练的互动聊天能力 [7] 。“论文”“医学”“应用”可以看出该项技术人们已经开始投入使用,与我们的日常生活开始有了一个融合的趋势,比如有大学生在构思论文时,可能会使用ChatGPT来辅助自己,以更加快速、有效的方式去收集更多的资料。“学习”“发展”“科技”可以看出人们对ChatGPT是有积极态度的,认为ChatGPT能够让我们不断地学习,它的发展也能够让我们的科技水平不断发展。而“取代”“替代”“可怕”“恐怖”能够看出人们对于ChatGPT仍然持有消极态度,认为ChatGPT可能会使得大量的职业被替代,工作机会不断减少,它的可怕在于可能不久的将来ChatGPT会出现自主意识,对人类实施控制,产生负面影响,因此部分人对其发展是十分担忧的。

<xref></xref>3.2. 语义网络分析

整理好评论的文本后,笔者将文本导入到ROST CM6软件中,在功能分析中选择语义网络分析,在经过快速分析后,最终得到了网络评论语义网络图,见 图1

Figure 1. ChatGPT network comments semantic network diagram--图1. ChatGPT网络评论语义网络图--

语义网络用于表示知识和建立认知模型的一种带标号的有向图,是一种知识表达模式,其中存在相互连接的节点和边,节点表示对象、概念,边表示节点之间的关系。语义网络分析后形成直观的语义网络图,能反应出词语间的关系。

从网络图可知,“人类”“对话”“绝对”“时间”在语义网络中与其它特征词的联系最紧密、共现的频次最高,可推断其为整个语义网络中最核心的四个特征词。这体现了ChatGPT对于人的价值,它的运作方式,它所带来的影响以及在时间的不断流逝之下它出现的问题都是作为主体的人类所深思的,“对话”一词可以看出ChatGPT作为对话聊天工具,是具有一定的使用价值的,随着其语料库的不断发展,他也会变得更加强大,表达了大众对其的基础形象感知。但是由于这四个词所覆盖范围广,囊括了多方面,可见人们对其见解还是在表层,并未抓住一个细节进行深入的研究。除以上四个词外,仍出现了其他重要节点,例如“人工智能”“直播”“发展”“大战”“职业”等核心特征词,这些词汇能够体现出如今大众所关注和重视的核心评论因素,他们的存在能够为各高频词建立联系,使得整个语义网络能够实现互联互通,各词汇之间不再有较大的阻隔。这些核心特征词表现了在ChatGPT发展过程中,尽管部分职业可能会受到冲击,我们的工作会被替代,但是它在一定程度上也能够带动相关职业的发展,所以不能说人工智能只有弊而无利。在网络图中,有一些词处于边缘地位,如“问题”“答案”“知识”“智慧”可以体现出在使用ChatGPT的过程中,需要不断吸收知识,用我们的智慧去解决问题,寻找答案。

<xref></xref>3.3. 情感分析

使用ROST CM6软件情感分析工具进行情感分析,得到了情感分析结果( 表2 )。情感分析(Sentiment Analysis)指利用自然语言处理技术对带有情感倾向的主观性文本进行分析,它可以帮助我们了解文本中所表达的情感倾向 [8] 。本研究对收集到的抖音评论文本进行情感分析,其中情绪值大于0的表示文本显示积极态度,情绪值小于0的表示文本表达消极态度。

<xref></xref>Table 2. Results of sentiment analysis on ChatGPT network commentsTable 2. Results of sentiment analysis on ChatGPT network comments 表2. ChatGPT网络评论情感分析结果
情感类型

评论数

占比%

强度

评论数

占比%

积极情绪

72条

35.82

一般(0~10)

44(条)

21.89

中度(10~20)

21(条)

10.45

高度(20以上)

7(条)

3.48

中性情绪

86条

42.79

——

消极情绪

43条

21.39

一般(−10~0)

31(条)

15.42

中度(−20~−10)

8(条)

3.98

高度(−20以下)

0(条)

0.00

表2 的结果表明:积极情绪、中性情绪、消极情绪分别占总评论数的35.82%、42.79%、21.39%。总体上看,中性评论的占比最高,积极情绪的评论数也较多,可知对于ChatGPT人们普遍持中立态度,认为ChatGPT是一个工具,它的好坏仍旧在于使用者。大部分人也持积极情绪,首先,ChatGPT可以为用户提供个性化的服务。其次,ChatGPT可以提供即时的帮助和解答,当我们在学习、工作或生活中遇到问题,只需向ChatGPT提问,就能得到快速准确的回答,节省时间和精力。最后,我们可以通过ChatGPT进行娱乐和消遣。在消极情绪中,一般情感占15.42%,中度情感占3.98%,对于持消极情绪这部分人而言,他们认为ChatGPT存在潜在的风险,首先,如果用户过分依赖ChatGPT的回答,可能会受到错误或不准确的信息影响,从而产生误解或错误的决策。其次,ChatGPT的技术还存在隐私和安全的风险。最后,ChatGPT可能会代替大量的工作,使得失业人员不断增多。总之,消极情绪主要集中在在技术大发展的环境下,ChatGPT所引发的一系列革新让人类对其产生恐惧,害怕最终被其控制从而主导的担忧。

<xref></xref>4. 结果与建议 <xref></xref>4.1. 结论

笔者利用ROST CM6软件对抖音上关于ChatGPT的讨论进行文本挖掘,通过对词频的处理得到了“人类”“人工智能”“问题”等30个高频词,文章通过网络语义分析得到了大众对于ChatGPT的整体认知情况。基于文本通过情感分析得到了大众对于ChatGPT普遍持中立态度但也有不少人持积极情绪,持消极情绪的占比最小。通过以上的分析可知,从大众的视角出发,ChatGPT的出现,能够为我们带来什么是人类最为关注的,无论是学习、工作还是生活,它如何影响这些内容是我们探究的。当然,其中我们也能看出人类是理性的,我们在享受ChatGPT所带来的好处的同时,我们也深知ChatGPT也会带来失业、失控的风险。

<xref></xref>4.2. 建议

模型越强大,实际上泄露出来的数据越多。尽管ChatGPT便利了我们的生活,但背后所隐藏的隐私泄露风险也不能忽视 [9] 。ChatGPT作为一个大型语言模型,如果使用不当或是开发设计存在问题,很有可能被用来生成网络钓鱼软件或虚假信息,引诱欺骗用户泄露个人隐私信息。首先,ChatGPT具有潜在的隐私泄露风险,如侵犯隐私、版权等 [10] 。它可以利用社交平台生成虚假信息、诱骗信息和恶意软件,对网络安全构成一定威胁。由于被使用者对于ChatGPT常常处于完全相信的状态,因此在与该聊天机器人的对话交流中,部分用户会过度关注与其对话所产生的成果与收益,这时个人的隐私信息就已经开始泄露了 [11] 。并且ChatGPT可以通过搜索和学习已有的资料数据库进行随意的拼接和改造,如若使用不当,容易出现违法犯罪行为 [12] 。其次,近几年随着人工智能的发展,接踵而至的深度伪造问题也受到了大众广泛的关注 [13] 。再次,不法分子可以以较低的技术成本去盗用他人虚拟形象、冒充他人身份,导致用户的数字身份被盗用、冒用,且难以被人们识别,这可能进一步侵犯个人人格尊严,给受害人造成经济损失等。最后,各种类型的山寨版ChatGPT不断涌现,频繁地向消费者索取个人信息授权。笔者认为防范隐私泄露的风险应当强化公民数据权利的保护,加快数据合规合法建设,在设计过程中就加入个人信息保护机制,如“临时聊天”模式就是一个很好的举例,所有对话内容都不会被保存或用于训练,确保了交流的私密性。严格审核数据来源,确保个人信息处理的合法性。个人信息作为人工智能对话中可能出现的内容,有必要对其进行特殊保护。第一,对数据合法性和真实性进行审核,防止虚假、错误的信息进入语言训练模型,维护良好的网络生态环境。第二,平台不可避免的需要获取用户个人信息,但也需要做好用户的信息保护工作,确保用户的隐私安全,以免被恶意盗取,引发信任危机 [14] 。最后,对于互联网公开、透明的信息,要核实信息的真伪性和时效性,强化对个人信息的保护意识,要对输出内容进行管理,防止出现语料的错误。并且要建立健全对违法、不良信息的识别和阻断机制。一方面,在数据“输出”端口进行筛选过滤,可以采取“机器 + 人工”的双重审核机制。另一方面,严格规范人工审核的外包服务,在人员资质、业务流程和审核能力等方面形成统一的行业标准体系,尽量减少虚假、错误信息内容流出。

互联网快速发展,媒介素养逐渐成为提升个人基本素质的关键一步,其通常被认为是使用和解读媒介信息所需要的知识、技巧和能力,它在一定程度上也反映出整个社会的文明程度 [15] 。一方面,ChatGPT可以帮助研究者快速获取和筛选信息,提供有用和有趣的内容,增加知识和乐趣。另一方面,ChatGPT也可能导致研究者过度依赖机器人而不进行自己的思考判断,缺乏创新和批判性思维。麦克卢汉曾提出“媒介即人的延伸”,但人们的身体器官在不断被延展的同时,人类的独立思考能力和创新创造能力也在慢慢的被削弱。由于模仿人类行为是在设计ChatGPT时的主观目标,因此在对话模型中的编码设计也隐含了人类对话中的潜在偏见。如招聘广告更多向男性用户投放就暗含着对女性求职者的歧视偏见 [16] 。利用ChatGPT可以帮助用户提升自己在多个方面的能力,但也要注意避免过度依赖或盲目相信ChatGPT生成的内容。提升用户的媒介素养,可以针对不同需求进行培训,主要是基本知识、安全意识与伦理道德的培训。如通过互联网或线下讲座等形式,向广大群众普及人工智能的基本原理、应用领域、发展趋势、风险挑战等方面的知识,提高民众的人工智能素养。通过普及人工智能的使用风险,避免用户盲目崇拜人工智能,从而造成不必要的损失。在使用过程中大众要承担起监督人工智能的重任,时刻保持批判性思维和主动性学习,在不断学习中提升自己的媒介素养 [17] 。当然在使用过程中,用户需要保持谨慎的态度去对待所得到的一切信息,并采取一定的防护措施,合理地使用ChatGPT [18] 。首先,要设置有一定复杂性的密码,无论是平台登录或是手机开锁。其次,要有主动学习和持续学习的态度,在实践中提高识别和避免ChatGPT这类技术所带来的不良影响,如出现可疑的电子邮件或链接,避免进行点击,个人或敏感信息不在网络上共享。最后,要进一步增强大众自身的法律观念和意识,大众要确保自己在使用ChatGPT时是合法的、道德的并且对他人及自身都是有利的 [19]

随着电子设备的不断普及,以ChatGPT为引领的生成式人工智能有着强烈的扩张性 [20] ,其准入门槛越来越低,使用也越来越广泛。这就使得技术的使用出现了更多复杂性,为了谋取利益,用于违法途径的案例越来越多。任何新技术的应用都存在社会与技术双向适应的过程 [21] 。因此,面对人工智能的各种社会风险,需要法律进行介入规制的时候就应确立必要的风险社会理念 [22] 。制定相应的法律条文和规范,如可以实行网络实名制和IP归属地透明化 [23] 。对于ChatGPT使用过程中不断涌现的新问题,政府及相关部门应该反复进行测试,对相关法律和政策持续优化,以达到该技术尽可能多的有利于大众。2023年3月31日,意大利个人数据保护局宣布,禁止使用聊天机器人ChatGPT,并限制开发该程序的OpenAI公司处理意大利用户的相关信息,成为第一个由政府部门禁用ChatGPT的案例 [24] 。2023年4月,美国政府发布了一项有关“是否应该对ChatGPT类人工智能工具采取监管措施”的技术调查评估 [25] 。在我国,2023年4月11日,国家网信办发布了《生成式人工智能服务管理办法(征求意见稿)》,规划人工智能发展和利用 [26] 。尽管ChatGPT拥有丰富的资源储存,但是从我国现有的法律及案例中来分析,该软件并不能成为其智能生成内容的作者,其作者身份在法律上更是难以赋予的,可见,仅从知识产权入手开展治理的管理模式已经失效了 [27] ,因此笔者认为对于人工智能法律规范路径的可以从不同的主体出发去进行探讨。如以ChatGPT为主体出发,其具有非常强大的学习能力,所以我们需要定期检查其学习的情况,出现了敏感的关键词比如违法、涉黄、涉政等应当第一时间提醒并进行屏蔽,一旦发现它所提供的回答不恰当,应当立即停止使用并重新训练或修改算法。在规范实施方面,根据其应用场景和生成内容所涉及的风险指数可以建立相应的风险管理体系,定期开展数据风险能力评估 [28] 。以监管机构为主体出发,如果在运行过程中出现问题,监管机构可以从专业角度去检查问题,并以更全面的方式指导实施。并且监管部门应引导人工智能行业制定相应的行业标准,形成行业内部制约,进一步规范企业行为。通过将技术与法律的融合治理,可以将敏捷治理的包容性理念实施到数据安全风险治理的实际操作中,实现审慎而开放的治理 [29] 。未来,关于人工智能的法律法规需要不断优化完善以此应对更加复杂的人工智能使用情况。相关法规制定应当以人类为主体出发,在发展人工智能过程中坚持“科技以人为本”和“科技为人服务”的理念,发展技术的初衷是促进国家的繁荣昌盛和全人类的共同进步。总之,人工智能的发展应该基于整体效用最大化的原则实施,即把技术看作是一种中性工具,是社会效用最大化的尝试,以此为基础实现更大的社会价值。通过不断地优化,满足人们日益增长的需求,从而提高生活质量和改善生活条件,促进人类社会的发展和繁荣 [30]

References 刁生富, 冯桂锋. 媒体传播与公众的人工智能态度[J]. 长沙理工大学学报(社会科学版), 2018, 33(5): 1-6. 张海, 刘畅, 王东波, 等. ChatGPT用户使用意愿影响因素研究[J]. 情报理论与实践, 2023, 46(4): 15-22. 李长波. 新媒体语境下高校形象传播及其策略研究——基于分众理论的视角[J]. 高教探索, 2016(5): 27-32. 代一方. 基于微博数据的人工智能网络舆情分析——以ChatGPT话题为例[J]. 传播与版权, 2023(21): 93-95. 曾月婷. 移动短视频社交平台的互动仪式研究[D]: [硕士学位论文]. 重庆: 西南大学, 2019. 孙晓东, 倪荣鑫. 中国邮轮游客的产品认知、情感表达与品牌形象感知——基于在线点评的内容分析[J]. 地理研究, 2018, 37(6): 1159-1180. 喻国明. ChatGPT浪潮下的传播革命与媒介生态重构[J]. 探索与争鸣, 2023(3): 9-12. 孟伦, 杨博文. 公众对ChatGPT关注的舆论焦点与情绪研究[J]. 传媒, 2023(22): 87-90. Henderson, P., Sinha, K., Angelard-Gontier, N., Ke, N.R., Fried, G., Lowe, R., et al. (2018). Ethical Challenges in Data-Driven Dialogue Systems. Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society, New Orleans, 2-3 February 2018, 123-129. >https://doi.org/10.1145/3278721.3278777 Dash, B. and Sharma, P. (2023) Are ChatGPT and Deepfake Algorithms Endangering the Cybersecurity Industry? A Review. International Journal of Engineering and Applied Sciences, 10, 4-5. 何静. 基于ChatGPT的智能传播发展挑战与应对策略[J]. 阅江学刊, 2023(3): 67-73+173-174. 陈永伟. 超越ChatGPT: 生成式AI的机遇、风险与挑战[J]. 山东大学学报(哲学社会科学版), 2023(3): 127-143. 陈昌凤, 徐芳依. 智能时代的“深度伪造”信息及其治理方式[J]. 新闻与写作, 2020(4): 66-71. 曾晓. ChatGPT新思考: AIGC模式下新闻内容生产的机遇、挑战及规制策略[J]. 出版广角, 2023(7): 57-61. 孟丽. 媒介化社会背景下媒介素养教育的三重视角[J]. 首都师范大学学报(社会科学版), 2022(4): 181-188. Lambrecht, A. and Tucker, C. (2019) Algorithmic Bias? An Empirical Study of Apparent Gender-Based Discrimination in the Display of STEM Career Ads. Management Science, 65, 2966-2981. >https://doi.org/10.1287/mnsc.2018.3093 周茂君, 郭斌. 生成式人工智能传播中的偏向与规制——以ChatGPT为例[J]. 学习与实践, 2024(1): 33-41. Rozado, D. (2023) The Political Biases of ChatGPT. Social Sciences, 12, 1-8. 罗昕. 聊天机器人的网络传播生态风险及其治理——以ChatGPT为例[J]. 青年记者, 2023(7): 91-94. 谢梅, 王世龙. ChatGPT出圈后人工智能生成内容的风险类型及其治理[J]. 新闻界, 2023(8): 51-60. 喻国明, 苏健威. 生成式人工智能浪潮下的传播革命与媒介生态——从ChatGPT到全面智能化时代的未来[J]. 新疆师范大学学报(哲学社会科学版), 2023, 44(5): 81-90. 马长山. 人工智能的社会风险及其法律规制[J]. 法律科学(西北政法大学学报), 2018(6): 47-55. 向雅茹. 媒介伦理与法规视域下网络媒体的管理之道[J]. 新闻前哨, 2018(1): 15-16. 何向向. 基于智能内容生成的新闻传播生态重塑、风险与应对——以ChatGPT为例[J]. 传媒, 2023(10): 32-34. 程思凡. ChatGPT知识生产框架、技术迷思与未来演进[J]. 当代传播, 2023(6): 60-64. 唐林垚. 具身伦理下ChatGPT的法律规制及中国路径[J]. 东方法学, 2023(3): 34-46. 刘胤衡. ChatGPT “横扫”校园缘何遭封杀[N]. 中国青年报, 2023-02-17(006). 毕文轩. 生成式人工智能的风险规制困境及其化解: 以ChatGPT的规制为视角[J]. 比较法研究, 2023(3): 155-172. 赵梓羽. 生成式人工智能数据安全风险及其应对[J/OL]. 情报资料工作, 1-11. >http://kns.cnki.net/kcms/detail/11.1448.G3.20231222.1613.005.html, 2024-02-22. 张学博, 王涵睿. 生成式人工智能的法律规制——以ChatGPT为例[C]//上海市法学会. 《上海法学研究》集刊2023年第6卷——2023年世界人工智能大会青年论坛论文集: 2023年卷. 北京: 中共中央党校(国家行政学院)政治和法律教研部, 2023: 9.
Baidu
map