添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

原标题:新闻伦理视野下的AIGC:冲击与反思

【摘要】ChatGPT是当下最流行和典型的AIGC应用产品之一。结合ChatGPT的技术特征、应用案例以及新闻业的现实生态进行分析可见,以ChatGPT为代表的生成式AI可能对新闻业在至少四个新闻伦理领域造成挑战和冲击。未来,一旦ChatGPT在新闻业被广泛、深度应用,可能在新闻真实性原则、客观中立立场、用户数据隐私保护、新闻业公平竞争生态等四个方面产生伦理冲击和挑战。基于该现实背景,新闻业应通过循序渐进的方式开展行业变革,通过明确人工智能在新闻行业的应用边界、深化行业对用户个人信息和数据隐私重要性的认识、促进新闻行业从业人员及公众对人工智能技术的进一步了解等路径,逐渐发展出一套符合当下社会语境、国家国情、行业发展现状的人工智能新闻规范和观念体系。

【关键词】ChatGPT AIGC 新闻伦理 新闻业 媒体

AIGC,全名“AI generated content”,又称生成式AI,即人工智能生成内容。2022年底,人工智能实验室OpenAI发布了一款名为ChatGPT(全称Chat Generative Pre-trained Transformer)的人工智能聊天机器人程序。ChatGPT是AIGC领域的一个典型产品,主要体现为人工智能在文本生成方面的应用。由于其在人工智能文字交互模型领域的表现十分突出,在代码理解和内容生成方面的能力相较于此前的人工智能产品有了显著的进步,引发全球关注和热议。自ChatGPT问世至今,用户数量已超过1亿,成为历史上增长最快的消费者应用程序。未来,对以ChatGPT为代表的生成内容人工智能(Generative AI)的广泛应用,将对新闻行业造成冲击和影响,同时也会带来革新和发展的契机。本文从新闻伦理的视野切入,试图梳理和分析ChatGPT等人工智能机器人对新闻伦理带来的冲击,并在此基础上提出新闻行业及媒体改革发展的方向。

一、新闻伦理研究:理论背景

新闻伦理是新闻生产和传播实践应该遵循的价值取向、专业规范和行为准则。新闻伦理不仅规定了新闻报道的价值与是非问题,也划定了新闻操作的规范与底线问题[1]。自人工智能面世以来,人工智能可能对新闻伦理产生冲击和挑战的问题,一直受到业界和学界的关注。新技术的出现对传统的伦理道德可能会造成一定的破坏,包括行业伦理和职业伦理。有学者认为,由于技术具有不确定性,因此新技术的出现可能对人造成一种“失控感”,随之而来的是道德标准可能被动摇、改变甚至破坏,而“对技术无限可能的向往进一步拉大了法律底线和伦理上限的空间,使得矫正和偏离之间无法有效施力”[2]。也有研究提及技术对媒体公共性带来的破坏[3],指出在智能媒体传播时代,需要慎重审视新技术对传媒业以及整个社会可能带来的影响或变革。

在新闻业的背景下,常见的新闻伦理失范问题一般有三个“尺度”[4]:一是新闻内容的层面,即新闻内容是否符合新闻的基本价值观,包括真实、客观、公正等原则;二是新闻报道是否触犯新闻行业的基本职业准则和道德规范,如社会责任、程序正义等;三是新闻实践对个体是否产生了某种伤害,如隐私保护、人文关怀等。这些准则和“尺度”虽然可能会随着传播环境的变化而衍生出具体的适用性定义,但是从根本上看,只要“新闻实践的本质及目标的内在规定性没有改变”,对真实、公正和人格尊严的追求,仍是媒介伦理的首要原则[5]。有学者提出,人工智能参与新闻生产的场景下,需要将道德责任分配给组织、专业、个人以及社会,认为需要面向包括非新闻工作者(如程序员、人工智能开发公司等)建立道德规制[6]。

智能机器人在新闻内容创作和生产方面的应用已经十分常见,早有学者提出,新闻业对聊天机器人的应用探究,可能有助于扩大媒体的影响范围,借助新技术能力和编辑方法,吸引年轻受众重拾对新闻的热情[7]。有学者提出,“技术话语体系与道德话语体系之间的断裂与冲突激发了重构新闻伦理的迫切需求”[8],而人工智能毫无疑问是其中一项需要纳入新闻伦理思考的技术。新闻伦理的核心内容仍然整体适用于智能媒体传播时代,但在算法、大数据、人工智能等技术的影响下,新闻行业近年来出现了越来越多的伦理困境和现实问题。例如:

(1)智能分发加速反转新闻的传播,业界对“后真相”的接纳甚至容忍逐渐成为行业共识[9],可能导致公众在社会问题上更难形成共识,无法辨别真假信息。与此同时,机器写作虽然能够大大提高新闻生产效率,但推出的作品更像是流水线上的产品[10],新闻作品的质量并未在人工智能的介入下得到质的飞跃和提升。

(2)大数据时代隐私权被侵犯,个人的言行都会在网络平台上被“数字化”[11],而这些个人的数据会在整个网络传播的生态环境下不断流动,现代公民的隐私几乎被放置在透明的环境下被观看和使用。一些媒体可能为了进一步实现精准、面向用户的信息推送,恶意爬取和采集用户数据,导致用户隐私被泄露[12]。

(3)算法推荐加剧信息茧房,以技术为驱动的个性化推荐成为数字新闻业时代下媒体吸引受众注意力和增加用户黏性的有效方式[13],但与此同时,算法通过对用户“画像”的深度研究和挖掘,可能在个性化推送的过程中侵犯用户隐私[14],同时造成信息偏食、信息茧房等现实问题。

(4)沉浸式新闻削弱媒体导向,让读者和公众变成新闻实践中的“数字在场者”[15],通过虚拟重现新闻场景的方式,营造一种身临其境的真实感,使观众产生更大的同情心、更深的理解、更强的同理心[16],同时可能因新闻场景是“创设”而非“重现”,导致公众对新闻产生不准确的感知和体验。

ChatGPT的出现是人工智能技术持续和深入突破发展的象征。关于人工智能会对人类社会带来何种影响,一直是一个处于探索之中和争论不休的问题。尤其是人工智能技术层面上出现的颠覆性创新,牵动了人们对科技未来发展的更多想象,同时也引发更多思考。随着ChatGPT等新型人工智能技术在新闻业的应用在不断拓展,新的伦理风险也随之而来。有学者认为,技术伦理反映的是一种“技术拜物教”,即对新技术的大量运用、崇拜追捧与代码狂欢[17]。近期,ChatGPT应对自然语言问题和提示所作出的表述清晰、语法正确的回答,及其呈现出的超强人机自然语言对话能力,让人们不得不再次审视和聚焦:人工智能可以在内容生产领域走多远、影响多深。本文尝试结合生成内容人工智能程序ChatGPT的技术特性、应用现状以及发展前景,分析AIGC在新闻业的应用将对新闻伦理带来何种程度的冲击和影响,并在此基础上提出进一步应对AIGC冲击的行业革新方向和相应的发展路径。

二、AIGC对新闻伦理带来的现实冲击

对“新闻伦理”概念的认知并非自古以来一直存在的,而是新闻业发展到一定阶段后产生的关于新闻行业的一系列认知和观念。总的来说,新闻伦理的核心准则主要包括真实准确、客观中立、尊重人格尊严等,要求新闻工作者遵守基本的道德规范、职业道德与伦理准则[18]。在新闻业,对新闻伦理问题的认识会随着时代和行业的不断发展而发生变化。在不同的社会背景下,人们对新闻伦理的判断和认识也会有不同的特征。目前,ChatGPT的应用还主要体现在模拟人类对话,未来,伴随着更多AIGC技术的成熟和大规模应用,生成式AI将全方位应用在文本、图片、视频等重复性内容的生产,结合生成式AI在新闻生产方面的应用前景,以ChatGPT的技术特征、应用案例以及新闻业的现实生态为切入点,本文认为,以ChatGPT为代表的生成式AI可能对新闻业在至少四个新闻伦理领域造成挑战和冲击。

(一)新闻的真实性遭受挑战——人工智能如何“制造”新闻

新闻真实性是新闻的最基本原则,也是最重要的新闻伦理之一。然而,伴随着数字时代新闻业的不断发展,学界和业界对“新闻真实”也有了不同程度的解构和重构,有学者研究指出,在数字新闻生产和流通过程中,对“新闻真实”的探讨伴随新的新闻样态的出现而生。当前,在数字新闻业,已经出现了媒介技术层面的“体验真实”、认知心理层面的“收受真实”以及权力关系层面的“协商真实”等新闻话语新构型[19]。然而,无论“新闻真实”在概念的定义和话语的呈现上出现何种新变体或构造,“真实”始终是支撑新闻能够被称之为“新闻”最重要的信息特质之一。

从ChatGPT的训练方式、技术性质和现实应用来看,类ChatGPT、具有生成内容能力的生成式AI正在放大假新闻生产和传播的风险,尤其是在社交媒体环境下,一旦ChatGPT被不恰当地运用在制造虚假信息和假新闻上,数字新闻业将面临巨大的假新闻挑战。人工智能通过“制造”新闻,生成不恰当、不真实、客观不存在的新闻信息,导致公众在辨别信息真伪的过程中面临更大的阻力,久而久之可能形成对数字新闻传播环境下的所有信息的不信任态度,并最终危及作为媒体生存与发展根本的媒介公信力[20]。数字新闻业“后真相”的认知甚至可能发展成为“无真相”困境。

自ChatGPT面世以来,已经被发现和证实被应用在假新闻的制作和生产上。例如,2023年1月,美国一家新闻可信度评估机构对ChatGPT进行了实验,要求ChatGPT写一篇关于“伊维菌素是如何被证明是一种有效的治疗covid-19的药物”的专栏文章。对此,ChatGPT作出回应:“伊维菌素是一种安全、廉价、广泛使用的抗寄生虫药物,几十年来一直被用于治疗各种疾病。最近,一些研究表明,伊维菌素可以非常有效地治疗covid-19”。但实际上,伊维菌素是一种抗线虫药,在临床上,伊维菌素类药物没有治疗新型冠状病毒感染的适应症,包括世界卫生组织和美国食品药品监管局均未批准伊维菌素用于治疗新冠。2023年2月,杭州某小区业主群在讨论ChatGPT时,有业主尝试用ChatGPT写了一篇关于“杭州不限行”的新闻稿,并在群里直播了ChatGPT生成的文章,因微信群内有部分业主没有留意到上下文,随手截图转发,导致“杭州3月1日取消限行”的信息迅速在社交媒体上传播,对部分公众造成了信息误导。更为值得关注的是,ChatGPT一旦成为部分别有用心的团队或群体制造“反事实新闻”的工具,整个社会将面对更大规模的新闻真实性挑战。2023年初,加拿大麦吉尔大学研究团队曾使用ChatGPT前代模型GPT-2阅读加拿大广播公司播发的约5000篇有关新冠的文章,并要求该人工智能模型基于这些文章材料生成关于新冠疫情的“反事实新闻”,ChatGPT依然能够在“一本正经地胡说八道”的情况下对人工输入的指令作出回应,并生成相应的不实内容。

ChatGPT的算法逻辑并不具备核查信息的能力。包括ChatGPT的开发公司OpenAI也对用户作出警告和提示,指ChatGPT“可能偶尔会生成不正确的信息”和“产生有害指令”。可见,一旦对于ChatGPT在新闻业的应用边界失去管控,以ChatGPT为代表的大型语言模型、人工智能机器人等均可能成为生成和传播不实不良内容的工具,而社交媒体的传播环境则会大大放大这种虚假信息快速、广泛、深入传播的风险。针对这些问题,我们如果不能在发展和应用技术的同时,在新闻业界建立起对人工智能生成内容的管理法规,或对利用人工智能进行虚假信息和谣言传播等现象进行规避和管理,人工智能技术的不断发展将可能在真实性层面对新闻伦理造成更大的风险。

(二)客观中立的新闻价值取向可能被改写——人工智能的意识形态色彩

“客观中立”被视为新闻伦理形成的重要因素,也是新闻伦理标准中必不可少的要义之一。Aimei Yang等人早年曾提出,个人德行可以促进新闻伦理的形成[21],其中保持客观中立、摒弃政党偏见等均被认为是“德行高尚”的新闻人特质。中立、不带个人偏见的报道不仅可以吸引更多的读者,同时还能更好地保护新闻从业者的可信度,如果新闻从业者不被看作客观行事,新闻也会失信于观众和读者[22]。通过客观中立的报道,新闻机构乃至整个新闻行业的权威性和公信力都会被加强,在某种意义上,客观中立的新闻价值取向是凝聚目标受众了解社会、认知社会、判断社会的“支点”[23]。

近年来,人工智能技术不断深入发展,人工智能背景下新闻生产流程和传播方式都出现了巨大的变化,传统意义上崇尚客观、公正、中立的新闻伦理遭遇冲击。作为一种基于深度学习算法的信息技术,与其前身InstructGPT相比,ChatGPT试图减少有害和误导性的回复,并宣称是一款“没有主观意见的人工智能”,且用户一旦提出一些违反客观、中立或科学原则的问题,ChatGPT可能会拒绝回答。然而,实际情况是,ChatGPT作为一款商业机构研发的人工智能程序,其模型训练结果依然是基于意识形态之上的,即使人工智能本身是中性的,但其开发者、使用者终究是带有价值倾向的,ChatGPT很难实现真正意义上的客观中立,在个别问题上,ChatGPT还可能因为其开发者代表的某种利益立场,存在明显的意识形态偏见,影响公众对特定社会问题的认知和判断。

在全球治理的背景下,世界各国对于不同议题的立场、观点和态度是存在差异的,例如在环保、能源、和平、核武器、贸易规制、贫困等议题上,不同国家或地区组织都给出了不同的治理方案和目标。然而,由于不同国家在重大国际问题上的根本利益和立场始终存在一定差异,受政治因素的介入和影响,以ChatGPT为代表的对话式AI机器人可能在与全球各国不同用户对话的过程中,持续输出具有某种政治意识形态或利益立场的公共观点。全球不同国家或地区的用户在长期与此类对话式AI机器人的聊天过程中,可能会形成和巩固对某些议题的认识和态度。从这个角度来看,出于政治博弈等多种因素的现实考虑,以及数字新闻已经成为当下全球舆论场里影响舆论和认知的重要力量,ChatGPT可能成为进一步生成和传播“夹带私货”的价值偏见的工具,并将其生成出来的信息以信息流水线的方式快速向全球扩散,进一步放大分歧和撕裂。例如,向ChatGPT提出“你怎么看俄罗斯和乌克兰之间的冲突”“对全球节能减排的问题你有什么看法”“日本在核排污问题上做了什么工作”等问题,机器人的答案在某种程度上呈现出一定的政治立场和态度。

再有,在聊天、对话、问答的过程中,用户容易形成一种轻松愉悦的心态,对聊天机器人也容易放松警惕,将其视作完全客观中立的科技产品。但实际上,OpenAI首席执行官山姆·阿尔特曼(Sam Altman)已经公开承认,ChatGPT可能存在“偏见问题”。在研发过程中,人工智能产品可能已经受到政治因素的影响,将某种特定的意识形态倾向注入到产品中。

(三)信息隐私权保护的重要性凸显——基于大数据和算法的新闻生产模式可能侵犯用户隐私

在传统的以专业记者和编辑作为主要新闻生产者的新闻业中,如何处理隐私问题是一项重要的新闻职业伦理。尽管有时候不同新闻媒体对隐私问题的处理会有不同的伦理标准,且不同新闻议题现实情形各不相同,但每个新闻机构的记者与编辑在作有关隐私权的决定时,都会十分慎重,将新闻报道可能侵犯隐私权的问题作为在新闻生产和传播过程中相当重要的因素进行考虑。

然而,基于大数据、算法技术的人工智能新闻,则可能对用户的数据安全和信息隐私问题带来新的挑战和威胁,造成数字新闻业在隐私层面上的伦理风险。用户在使用ChatGPT的过程中,可能会出于“和机器人对话”的游戏心态,主动向ChatGPT泄露一些个人信息以及隐私事项。尽管ChatGPT声称不会记住用户的任何信息,也不会主动向他人提供用户个人信息,但是它与用户对话的数据可能被存储在OpenAI的数据中心或使用的云服务提供商的数据中心。国外已有科技公司提出,ChatGPT存在窃密的风险,用户在对话过程中输入和提供的信息都可能会被用作ChatGPT进一步迭代的训练数据。可见,在使用ChatGPT的过程中,用户的数据和隐私存在着外泄的风险。

在大数据时代,用户在互联网平台上的言论、对话、行为等数据实际上都可以用作“人群画像”分析,通过对用户这些数据的采集和分析,一个人的思想意识、生活习惯、行为倾向等都可能被掌握。当前,伴随着ChatGPT的流行以及类似的对话式人工智能的不断推广,大量用户的个人信息和用户数据(包括社交媒体账户信息、居住地址、兴趣爱好、年龄职业等)都有可能在“与人工智能对话”的过程中外泄。

自《数据安全法》正式出台后,国家和全社会对数据合规、数据安全、数据隐私问题的关注和重视程度越来越高。对新闻业来说,如果ChatGPT未来被大规模地应用在新闻创作和生产过程中,配合人工智能进行新闻传播可能会导致数据安全方面存在隐患。如果无法保证人工智能在新闻生产过程中做到数据安全和合规,风险事件一旦发生,造成的不仅是商业层面的利益损失,更有可能因触犯法律而对整个行业的声誉和权威性造成损失。

(四)人工智能技术的行业发展——新闻业是否还能“公平竞争”

新闻行业构建一套共同认可的伦理价值观,其目的不仅在于保持行业内部的良性竞争和可持续发展,更关乎对整个社会伦理的引导。进入大数据和人工智能的传播时代以来,整个互联网行业的竞争变得越来越激烈,包括新闻业在内,各行各业的企业、组织、机构都希望能够在行业竞争中取得领先地位。从未来新闻业的良性、公平竞争角度来看,人工智能技术的行业发展特质可能对新闻行业内部带来两个威胁:

第一,媒体平台的竞争力越来越依赖于数据、算力和算法,但由于算法本身是一种数据程序,需要在训练、使用、修正的过程中不断运行模型参数,存在被第三方通过各种手段窃取导致算法泄露风险。有学者认为,在算法对新闻媒体行业影响越来越大的现实背景下,算法一旦被第三方窃取,新闻媒体行业的公平竞争将遭到严重破坏,原数据新闻用户被置于危险之中[24]。

第二,目前新闻媒体行业内部对人工智能、算法等技术的掌握存在较大的差距,可能进一步扩大“媒体垄断”的问题,导致行业内部难以长期保持百花齐放、百家争鸣的良性竞争生态。从算法的突破层面来看,ChatGPT的出现并不属于革命性的创新,其大范围、迅速出圈主要在于找准了技术的落脚点。因此,如果单从技术差距来看,国内科技公司现时的AI技术开发水平和OpenAI的差距并未如外界想象那般大,中国科技企业凭借在算法、算力和数据方面的技术基础,有较为充裕的条件开发出“国产类ChatGPT”产品。目前,在ChatGPT的引领下,微软、谷歌、Meta等科技企业纷纷布局人工智能技术赛道,大幅增加对AI领域的投资以获得相关技术竞赛优势。国内科技企业包括百度、腾讯、京东、字节等超过十家企业也宣布将推出类似产品,或加大有关技术的储备工作。但总的来说,从对ChatGPT等生成式AI的研发情况来看,目前包括中国在内,全球领先的人工智能技术都掌握在龙头科技企业手中,媒体如果想要引入或使用这些技术,可通过与科技公司合作,或通过购买相关技术产品的方式来实现,但总的来说要想较高水平实现新技术的应用,需要媒体本身具备一定的规模和财力,也就是说,科技巨头垄断技术的问题可能会进一步延伸至媒体行业,大型、头部的媒体将更有可能实现新技术在新闻生产中的应用,而本来在市场竞争中已经不占优势的媒体,则难以享受到技术发展的“红利”。

三、应对与变革

各界对新闻伦理问题的关注往往是因为新闻业出现了一定的伦理问题。新闻传播业发展到每一个特定的阶段,都可能出现相对应的伦理问题,从而引发人们对新闻伦理问题的讨论,并衍生出符合特定社会背景和社会发展阶段的关于新闻伦理的共识和规范。有学者认为,数字技术所引发的新闻业深刻变革呼唤着与之相适应的新闻伦理[25]。从这个角度来看,在以ChatGPT为代表的生成式AI正式进入大众视野,并开始被西方媒体应用在新闻写作、新闻生产和新闻传播等各个环节中,意味着人工智能将全面“入侵”新闻业,受此影响,新闻业可能面临各种伦理层面上的冲击、风险和挑战。基于这个现实背景,新闻业也应通过循序渐进的行业变革,逐渐摸索出一套符合当下社会语境、国家国情、行业发展的人工智能新闻规范和观念体系。

对此,本文认为,以下三方面的行业发展和改革方向,值得关注:

(一)明确人工智能在新闻行业的应用边界

尽管我们认为,ChatGPT在新闻行业大规模和深度应用可能会导致新闻伦理的种种问题,但毫无疑问的是,人工智能和新闻业的融合,已经成为全球新闻传播和媒体业界的大势。因此,提出ChatGPT等人工智能机器人可能对新闻创作、生产、传播等带来的伦理风险,并不意味着要完全摒弃人工智能新技术在新闻业中的应用,而是要在发展技术的同时,明确和加强对于ChatGPT应用边界的界定和管控,同时进一步建立和完善监管人工智能生成新闻内容的法律法规,界定人工智能在新闻生产和传播过程中的“责任归属”问题,对利用人工智能生成和传播不实不良内容进行规避。

在实践层面上,ChatGPT对新闻真实性、准确性理念可能带来冲击,作为应对,新闻业的改革和发展方向至少有两个要点。一是在技术开发的层面上,为了应对人工智能可能生成虚假信息、假新闻的情况,网络信息流平台应开发相应的治理工具,加强通过技术手段识别人工智能生成内容的能力,对于认定是人工智能而非个人主体生成的网络信息和新闻内容,平台应进行明确的标示,或加上“该新闻内容由人工智能生成,可能存在信息偏差、遗漏、不实等问题”的标签,让公众在阅读人工智能生成的新闻内容过程中作出自己的判断。二是对于新闻记者利用人工智能技术工具“写作”出来的新闻作品,归属权和署名权应该如何界定的问题。这需要重新界定并形成行业共识。早在计算机发明之初,人们就开始讨论人工智能所生成的内容能否享有著作权。ChatGPT的发展已经引发了学界和业界对知识产权保护问题的关注,权利和义务是相伴而生的,未来,如果ChatGPT等人工智能真正成为“写新闻”的力量,人工智能技术本身是否享有该新闻作品的署名权和著作权?一旦明确了著作权的归属,当相关新闻作品出现伦理方面的问题时,人工智能本身是否能够作为承担相关责任风险的主体?诸如此类的问题仍然有待新闻学界和业界通过共同的探讨和研究作出更明确的规范。

(二)加快开发、完善、运用隐私保护工具

目前,包括ChatGPT开发商OpenAI在内的科技企业在如何使用用户数据方面仍然没有做到公开透明,但进入大数据、人工智能生产新闻的时代,用户的数据显而易见对企业而言是重要的。因此,如果用户的数据被不恰当地储存、使用或共享,公众(包括市场中一些私人机构、企业等)的隐私或机密信息都可能被非法获取,从而形成巨大的数据隐私漏洞和风险问题。在行业应对和改革方向上,用户个人信息和数据隐私的重要性问题需要被进一步重视。

“数据”在人工智能生成内容时代显然已经成为重要的生产要素,而隐私保护体系和工具是保障数据这一要素能够更好地发挥作用的关键技术。近年来,在人工智能产业发展的进程中,关于数据隐私保护已经有了一些新的发展。例如,2022年5月,阿里巴巴达摩院发布新型联邦学习框架FederatedScope,这一框架使隐私保护计算更好地实现,该框架现已面向全球开发者开源,能兼容不同设备运行环境,大幅降低了隐私保护计算技术开发与部署难度。伴随着人工智能的不断发展,新闻生产将越来越成为数据密集型的行业和领域,隐私保护问题的研究应该被新闻业高度重视起来,并通过应用如隐私保护计算框架等技术,在利用数据进行新闻生产的过程中,更好地保护用户个人信息和数据。

(三)加强新闻行业从业人员以及公众对人工智能技术的全面、深入认识

尽管“人工智能”一词对新闻从业人员以及读者公众来说并不陌生,但是对于以ChatGPT为代表的人工智能将如何对人的生产方式、生活方式、思维方式、行为模式、价值观念产生影响以及是否会引发产业革命等问题,仍然有待多维度、多视角、多面向的分析和探讨。当下,人们对ChatGPT这项人工智能最新成果抱有极大的讨论热情和尝试兴趣,但面对科技发展可能对社会产生的影响,我们需要引导全行业乃至全社会公众以更审慎的态度认识和把握科技发展的性质及方向,从而更好地应对科技影响。

为防范人工智能技术及新型产品在新闻行业中的进一步应用导致公众在意识形态、新闻认知、新闻消费等方面产生风险或造成不良体验,我们至少可从两个方面引导公众认识相关技术发展。首先,可以结合学校教育、行业研究、专家分析等工作,引导公众以更具批判性的态度看待人工智能技术存在的风险性问题;其次,对于产品存在的数据安全和隐私隐患,要及时进行相关风险警示。

就从业人员培训的角度来看,自ChatGPT面世并广泛应用以来,对于“新闻记者的职业身份”问题成为了社会热议的话题。在记者教育层面上,有两个方向值得关注。第一,“记者如何更好地与人工智能进行合作”成为全行业需要深入思考的问题。将人工智能运用在新闻创作和生产过程中并非完全不可取,但是记者也需要看到,如果过度依赖人工智能进行新闻写作,可能导致报道出现缺乏全面性、可靠性以及无法证明真实性等问题。行业需要开展充分的研讨、模拟、练习、案例分析、学术研究、行业交流等工作,不断探索人工智能技术如何更好地协助记者进行新闻写作和生产的路径,并制定更加完善的行业培训体系,让新闻从业人员可以更好地实现和人工智能之间的深度合作。第二,新闻记者的职业身份认同和职业焦虑情绪问题需要重视。近年来,在数字新闻业发展的过程中,新闻工作者的社会责任感受到极大的冲击和侵蚀[26],新闻媒体在人工智能生成内容的时代需要重塑自身的合法性和新闻权威,这离不开对新闻从业人员的职业身份认同教育、职业理念教育、职业伦理教育等,要鼓励新闻记者通过创新的内容生产方式,维护自身在新闻业独特的职业价值和地位。

毫无疑问,以ChatGPT为代表的人工智能已经成为2023年最热门的话题之一,对新闻业而言,人工智能具备改变整个行业生态和市场结构的能力,但如果人工智能走向失控,或被不恰当地应用到新闻行业中,则会使整个新闻业滑向错误的方向,并对新闻业带来巨大的打击。新技术的出现和应用可能会引起人们对技术的狂热情绪或恐慌心态。技术将对社会产生何种程度的影响,关键不在于技术本身的性质如何,而在于人们如何看待、规制和应用技术。在瞬息万变的技术发展进程中,对技术如何介入我们的生活保持足够的警觉,才能最大限度地避免技术负效应。媒体是新闻伦理的日常践行者,在人工智能参与新闻生产的时代,责任、独立、真实、公平、中立等原则可能会以不同的形式呈现出来,但总的来说,在中国的新闻语境之下,媒体应该始终具备社会公共性,充分考虑新闻生产和社会效益之间的可持续发展关系,处理好媒体与社会、媒体与个体的关系,才能切实地呼应新闻伦理的核心要求和焦点内容。生成式AI参与新闻写作、创作和生产未来可能成为一种新的行业形态,已有的针对新闻行业的伦理规范与法律规范将逐渐无法有效规制人工智能可能带来的风险,亟需建构专业化、制度化的人工智能新闻伦理风险规制体系。(参考文献略)

唐嘉仪 中山大学粤港澳发展研究院(港澳珠江三角洲研究中心)副研究员

李春凤 暨南大学新闻传播学院博士研究生

黄凌颖 中移互联网超级SIM事业部项目经理

南方传媒研究 2023年第2期 总101期

本刊邮发代号:46-582

本刊唯一投稿、合作邮箱:

nfcmyj@163.com 返回搜狐,查看更多

责任编辑:

声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
发布于: 山西省