摘要:ChatGPT赋能数字出版可助力编辑、作者、出版商等实现多模态内容生成,使数字出版生成内容质量与效率获得极大提升,在其技术应用优势显著的同时,ChatGPT赋能数字出版也面临极大风险。本文通过对ChatGPT赋能数字出版的多模态场景呈现,分析其可能引发的涵化与意识形态风险、伦理风险、社会风险、技术垄断与互联网安全风险、法律风险,进而对引发上述风险的归因做深入探析,以期为我国人工智能技术赋能数字出版的风险治理提供新思路。
关键词: ChatGPT;数字出版;风险;归因
引言
内容生产是出版业的核心。过去数十年传统出版业生态一直相对固定:作者创作,编辑提供意见和反馈,出版商负责发布和销售。但在当前数字化和智能化时代,机器学习、自然语言处理等人工智能技术正在改变这一模式,并潜移默化地引发了数字出版业生态变革,出版+AI辅助功能目前已得到了较为普遍的应用。2022年12月,由OpenAI公司开发的ChatGPT智能聊天机器人完成测试并正式上线,此款应用对自然语言的理解超出以往所有问答类人工智能产品,不仅可以生产高质量的文本,还可以完成翻译、编程、企划案等更为专业性的工作。2023年3月中旬,“OpenAI”公司推出更新版本“GPT-4”,在原有的大规模语言模型与人类反馈强化学习的基础上,又增加了无标注学习与基于规则的奖励模型,ChatGPT变得更像“人”了。
作为生成式AI功能最为强大的一种应用,其对于以内容生产为核心业务的数字出版业所产生的影响将是重大而深远的,与此同时,所产生风险的严重性与复杂性更有可能远超人类想象。2023年3月29日,马斯克等千名科技人士发表公开信表示,广泛的研究表明具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险,这一观点得到了顶级人工智能实验室的承认。我们是否应该发展最终可能比我们更多、更聪明,淘汰并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?只有当我们确信它们的影响是积极的并且风险是可控的时候,才应该开发强大的人工智能系统。公开信呼吁“暂停训练比GPT-4更强大的AI系统至少6个月”[1]由此不难看出人工智能专业人士对ChatGPT可能产生风险的强烈担忧。但是,很显然ChatGPT技术的发展已是大势所趋。
在享受人工智能生成内容(AIGC)技术为数字出版带来的创新、便利和效率的同时,如何有效规避风险?我们需要对风险产生原因先有正确的认知,方有可能对其进行有效治理。由此,本文拟通过对ChatGPT赋能数字出版的多模态应用场景呈现,探讨其可能引发的多类型风险并分别进行归因分析,以期为我国人工智能技术赋能数字出版未来发展提供有益参考。
一、ChatGPT技术特点与应用场景
ChatGPT(Chat Generative Pre-training Transformer)是指由OpenAI公司开发的一款自然语言处理(Natural Language,NLP)模型,专门用于在实时聊天环境中生成类人文本。[2]
1.ChatGPT技术特点
第一,强类人智能。GPT技术在第一、二阶段时几乎默默无闻,神经网络技术研究也并不被世人所重视,直到GPT-3尤其是GPT-3.5阶段,在堆积了数百个层级之后,高度复杂的神经网络中“涌现”[3](涌现性是系统的基本特征,是部分被整合为系统后在整体上涌现出来的新的特性)出超乎寻常的“复杂”性,其在处理自然语言过程中就呈现为极强的类人类智能,这一点出乎所有人的意料之外,甚至包括GPT-3.5的研发人员。也就是说,当GPT模型在参考了千亿甚至万亿级数据后,经过大模型预训练,可以基本掌握自然语言处理规律,但此阶段错误率较高,GPT-3.5在前面研究的基础上加上人工标注错误答案,并不断进行反馈学习,于是在参考数据足够多、算力足够强大的情况下,GPT模型可通过“涌现”效应产生较强类人智能。[4]
第二,多模态性。ChatGPT目前可实现的功能不仅仅局限于聊天机器人,它具有强大的自然语言处理能力,可以完成文本生成、图像生成、音频生成与视频生成等模态。
文本生成模态:ChatGPT可以按照要求高质量完成文案生成、撰写新闻稿件、撰写小说文稿、文本翻译、改编剧本、写作辅导、修复代码、在线问诊、在线答疑等任务,某些方面甚至有超越搜索引擎的趋势。同时具备较强上下文连接以及多轮对话的能力,人机交互体验感大大提升。
图像生成模态:目前ChatGPT大致可以实现三类AI绘画,一种是通过文字描述生产图像,另一种是已有图像的基础上借助文字描述生产新的图像,第三类是先通过文字描述产生图像,然后在生产图像的基础上再借助文字进行调整。如Midjourney、DALL.E2以及国内的文心一格等应用软件。 音频生成模态:目前人工智能内容生产在音频生成领域的应用非常广泛,例如有声读物的制作、语音播报、短视频配音、音乐合成等领域,目前以GPT技术为标志的人工智能内容生成主要有两种类型:语音合成与歌曲生成。
视频生成模态:目前ChatGPT已经可以实现直接利用文字描述生产视频。早在2022年9月,Meta公司推出的Make-A-Video工具就已经可以实现文字描述生产短视频的功能,谷歌公司也推出了分辨率更高、功能更加强大的视频内容生产软件Imagen Video和Phenaki,生成的视频不仅更加清晰,同时能理解并生成不同风格的视频作品。例如当前各大视频平台的AI新闻主播视频与AI换脸视频就是GPT技术在视频生成模态方面的实践案例。[5]
第三,运行成本很高。ChatGPT功能实现需要海量数据与强大算力支撑。从GPT-3公开信息来看,整个神经网络就已经有1750亿个参数。对这么多参数进行训练,所需要的数据和算力是惊人的。数据方面,GPT和其他大语言模型的数据来源包括维基百科、书籍、期刊、Reddit链接、Common Crawl和其他数据集。根据OpenAI发布的关于GPT-3模型论文,其中所有合计数据集容量为753GB,包含4990亿Token(0.7字节/Token);算力方面,GPT3.5 的训练使用了微软专门建设的AI计算系统,由1万个V100GPU组成的高性能网络集群,训练ChatGPT模型的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天),需要7-8个投资规模30亿、算力500P的数据中心才能支撑运行。这只是模型训练阶段的算力需求,如果考虑真实运行过程,算力需求会更为惊人。因而,ChatGPT是大力出奇迹的典型案例,是芯片、显卡、云计算、数据库等多种技术发展到一定阶段,发挥协同效应的产物。[6]
2.ChatGPT赋能数字出版的主要应用场景
首先,选题策划阶段。通过与ChatGPT交互可以实现精准理解用户意图并通过海量数据语料库及其强大算力,准确推测出更符合受众预期且更具有社会价值的新闻热点或出版选题,选题更加准确且更具时效性。目前已有相关应用推出,例如英科特(Inkitt)等。
其次,内容生产阶段。ChatGPT可以实现多模态内容生产。在内容创作方面,ChatGPT可以用于自动化创作。通过交互用户提出要求,ChatGPT可以根据撰稿人、编辑或作家设定的关键字和句子,自动生成文章。此外,还可以通过交互实现特定命题新闻文字稿写作与图像自主生产、新闻音视频自主生成与剪辑、字幕自主生成、AI主播播报等任务,目前完成质量非常高,仅需稍作调整即可发布,极大提升了视频新闻推送的时效性;在书籍出版方面,ChatGPT3.5可通过交互响应与人工后期微调实现论文与书籍创作,2023年3月由华龄出版社发行的《ChatGPT:AI革命》一书,即是在ChatGPT的帮助下迅速成稿的。[7]此书一经推出即位列当当网经济类畅销书排行榜第四位。
第三,数字出版内容审校环节。ChatGPT通过人机交互可以实现自动化创作、检查语言、编辑文章、文稿校对、数据核验、敏感词条的排查、文献检索与考证等任务,大大提高了数字出版业内容生成的效率和效益。例如国外软件Statreviewer、Statcheck以及国内的方正智能辅助审校系统等。 最后,数字出版内容传播与分发环节。结合不同专业类型插件,ChatGPT可实现通过输入需播报的文字内容即可自动生成由AI主播播报的新闻视频,还可以通过数据投喂训练学习真人主播的播报风格,并结合口型、表情等细节生成与真人主播差异化较小的新闻视频,在GPT-4技术支持下,新闻播报时效与质量都较以往有大幅提升;同时,ChatGPT预训练过程中的海量数据语料库可以最大程度为出版商及用户提供精准内容细分与推送服务,例如丹麦论文与专利搜索平台UNSILO的分类(Classify)功能可以最大限度地对期刊和图书内容进行细分以实现精确的内容打包服务。[8]
二、ChatGPT赋能数字出版可能引发的风险呈现
目前业界与学界对ChatGPT赋能数字出版可能产生风险的相关研究主要集中于数字出版伦理失范风险、版权与确权风险、个人信息安全与隐私风险、ChatGPT对新闻出版从业者的替代风险、数据偏见与算法歧视等,且呈现如下特点:第一,研究涉及面广且较分散,理论深度相对不足;第二,有关ChatGPT赋能数字出版业的研究多集中于舆论热点问题,[9]对于ChatGPT赋能数字出版风险的归因分析也相对薄弱。 基于此,下文拟从分析ChatGPT赋能数字出版可能引发的风险呈现入手,对涵化与意识形态风险、出版伦理风险、社会风险、技术垄断与互联网安全风险、法律风险等进行归因分析。
(一)涵化与意识形态风险
1.涵化风险(涵化理论,cultivation theory,又称“培养分析理论”,认为电视等大众传播媒介通过长期潜移默化的影响,在某种程度上塑造了受众文化框架、社会认知和思维方式。[10] ChatGPT生成内容因数据歧视与算法偏见产生的偏差可能产生两种结果,一种是ChatGPT通过对歧视性数据的无监督学习,会自动模仿这种歧视与偏见,例如2016年微软推出Tay聊天机器人(可视为ChatGPT的前身)在互联网上发布充斥着厌恶女性和种族主义的内容,缘于他们被网上的“喷子”污染了,这些“喷子”用攻击性的训练数据填充它。[11]另一种结果可能使ChatGPT通过涵化作用对受众价值观产生潜移默化的负面影响,这种负面影响具有极大隐蔽性与深入性,例如由ChatGPT生成小说、绘画等作品时,往往会因肤色而固化角色的性别、职业、性格等,这就有可能对用户在种族、性别等有关人类命运共同体的价值观引导层面产生潜移默化的影响,这种影响是极难察觉且难以消除的。
2.意识形态风险。ChatGPT虽然已经是目前最为接近强人工智能的聊天机器人,但依然存在较大技术缺陷,体现为数据歧视与算法偏见。数据歧视是基于ChatGPT大模型预训练时会被投喂海量数据,这些数据初始来源是全球互联网上自由存取的数据,经过多次清洗后再被投喂给预训练大模型。被投喂的数据以自然语言形式存在,但由于ChatGPT技术由美国OPENAI公司研发问世的,“科学无国界而科学家有国籍”,作为预训练模型投喂的数据,其中英文数据比重最大,约占92%左右,ChatGPT在预训练阶段多以英文数据进行深度学习,因此,ChatGPT更像是一位具有多年英美国家学习生活背景的类人机器人,具有西方价值观与思维方式,作为当前类人程度最高的聊天机器人,当用户输入英文提示语或者把中文问题翻译成英文输入对话框,然后再把英文回答翻译成中文,ChatGPT答复的准确度是比较高的,且相对而言更擅长用英语回答问题。涵化一方面是指在预训练模型中对ChatGPT的涵化,另一方面则是通过互动以及问题解答对ChatGPT使用者的涵化。这两方面都存在较大西方意识形态侵入风险,更为值得深思的是,如果使用ChatGPT写作与出版书籍,其所生产内容中可能存在潜在且不易察觉的、与正向价值观相悖的内容,从而引发意识形态风险。
(二)伦理风险:虚假信息、个人隐私泄露与滥用、网络欺诈等
1.ChatGPT生成内容可能存在虚假信息风险。GPT技术逻辑与基本特征,其生成内容的主要依据是无监督学习,是通过大语言模型来预测符合自然语言输出逻辑的规律性与合理性,但这种语言模型不具备自然人的判断性,同时由于数据来源高度不确定,因此,其生成内容有较大几率出现其内容本身是符合逻辑但结果却未必正确的情况,由此可能导致ChatGPT生成内容掺杂大量虚假信息,由于这些信息具备表面上的合理性,对于用户来说,产生误导的可能性极大,且往往大多数用户对此深信不疑。据央视新闻5月29日报道,美国一名律师在一起诉讼案件中,帮原告打官司时,引用ChatGPT搜集的6个案例,而法官却发现那些信息全是子虚乌有。律师也承认自己没有核实信息并为此道歉。[12] 在此案例中,作为具有专业知识的律师尚且不能具备完全识别ChatGPT生成内容真实与否的能力,更遑论普通用户,由此,ChatGPT可能产生虚假信息的隐蔽性之大可见一斑。
2.ChatGPT预训练数据对公民个人隐私权的侵犯:对ChatGPT预训练数据获取合法性质疑。虽然OPENAI公司在发布ChatGPT时宣传其用于预训练的全部数据来自互联网开源数据,但对于这些数据是否经过了提供者的授权却未明确提及,由此引发了人们对ChatGPT预训练数据获取合法性的质疑。
3.对于公众个人隐私信息的滥用极易造成巨大社会风险:对ChatGPT预训练数据使用合理性质疑。近几年“AI换脸”新型诈骗频发, 2023年5月包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。对此,中国互联网协会发出提醒:“在AI时代,文字、声音、图像和视频都有可能是深度合成的,在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款,无论对方是谁!”[13]
(三)社会风险:行业替代与社会稳定风险
1.行业替代风险
随着人们对ChatGPT使用深度以及对于聊天提示语掌握能力的增强,目前ChatGPT完成任务的质量越来越高:生成式AI作品“太空歌剧院”获奖,国际知名期刊编辑收到ChatGPT辅助下的高质量学术论文,在撰写新闻稿方面,ChatGPT所撰写的新闻稿件质量与准确度非常高;在文稿审校等环节,人工智能发挥的作用日益增大,这不由得使人们产生恐慌:新闻出版从业人员是否会就此被ChatGPT替代从而引发脑力劳动者“失业潮”?
2.社会稳定风险
拥有强烈好奇心且具备使用能力的用户之间,可能会因为对ChatGPT使用目的不同而呈现新型数字鸿沟:一部分用户出于好奇尝试使用ChatGPT,在过了新鲜期后往往得出结论:
ChatGPT经常“一本正经的胡说八道”,看来也不过如此,人工智能暂时还无法超越人类;另一部分出于实用目的用户往往一边使用一边积极摸索提示词生成方式,通过积极调整提问方式将ChatGPT的回答导向正确的方向。由此可能产生ChatGPT使用的“马太效应”:在很多人嘲笑ChatGPT只会一本正经胡说八道的时候,已经有人在ChatGPT帮助下完成了专业书籍的出版。
与此同时,数字鸿沟与经济鸿沟也具有一定关联。有学者研究发现数字鸿沟是由于经济鸿沟导致,反过来数字鸿沟又可能加深影响经济鸿沟。[14]为了不让在信息时代因经济鸿沟造成“马太效应”,就必须设法加快欠发达地区的信息化水平,逐步缩小或弥合数字鸿沟和经济鸿沟。[15]
因而,ChatGPT技术的广泛应用,可能导致数字鸿沟进一步增大,从而造成社会经济鸿沟加剧,在“马太效应”作用下,社会贫富差距可能进一步增大,从而引发社会稳定风险。
(四)技术垄断与互联网安全风险
1.技术垄断风险。数据、算法与算力需要大量的资源消耗,例如,为帮助OPENAI训练GPT-3,微软专门组建了有1万个V100GPU组成的高性能网络集群,总算力消耗达到3640算力当量。[16]目前全球只有部分具备GPU核心芯片研发与生产能力的国家具备支持这种巨大能源消耗的可能性,而这种可能性又进一步集中于部分大公司,比如OPENAI、微软、谷歌等,国内互联网公司百度目前是最为接近的研发与应用公司,但因为GPU芯片需从国外大量采购,一旦国外公司限制芯片出口,不仅很难自行进行大模型预训练,甚至可能极大限制各类ChatGPT类应用软件的研发进程。这极易导致ChatGPT核心算力的严重垄断,完全竞争市场不复存在,从而导致人工智能行业市场失灵。
2.互联网安全风险。当全球最为前沿的人工智能技术掌握在某一些特定利益集团手中时,而基于数据投喂与巨量算力支持的ChatGPT生成内容极易被别有用心的掺杂进难以轻易识别的意识形态倾向,在长期潜移默化作用下极易引发较为严重的政治安全问题。
(五)法律风险
从当前世界各国人工智能技术发展实践看,与通用人工智能技术开发与使用相关法律法规的制定是相对滞后的,尤其是2022年11月ChatGPT-3发布,其超越以往智能聊天机器人的强类人性引发了人们对ChatGPT技术开发与应用的极大热情,但随着ChatGPT应用范围的扩大,在享受其带来便利的同时,人们也意识到其可能引发较为严重的社会风险与社会问题,但对此目前尚缺乏有效法律监管。
1.与ChatGPT生成内容知识产权相关法律缺失引发的风险
首先,ChatGPT生产内容是否具有著作权问题目前尚无统一法律标准(根据新版中华人民共和国著作权法相关法条规定,著作权所有者需具备两个必要条件:自然人(即生物学意义上的人,是基于出生而取得民事主体资格的人。[17])且具备承担相应责任的能力。从我国相关法律来看,ChatGPT生产内容是不能单独作为著作权所有者的,但是否可以共同作者署名这一问题上尚存在较大争议。
其次,用于ChatGPT大语言模型预训练的互联网数据,其在预训练过程中是否涉及对原数据提供者的侵权尚无统一标准。著名语言学家乔姆斯基直接称ChatGPT就是高科技剽窃[18]。
第三,ChatGPT生成内容如文字、视频、音频内容是否具有创新性尚无统一标准注释,有学者质疑,当以 ChatGPT智能应用为代表的智能机器人作品在“创作”过程中大量使用语料库中他人作品中的内容并以新的形式出现, 会不会导致“以智能技术为幌子的智能‘洗稿’”成为一种普遍现象?原作品作者的权益如何保护?[19]也有学者提出对数据原始提供者可依据对作品贡献比重支付相应知识产权费用,但目前尚无统一支付标准。[20]
2.与ChatGPT生成内容收益权与问责权相关法律缺失引发的风险。
此风险的关键问题在于如果ChatGPT生成内容有部分知识产权,那么这部分知识产权的收益权归属于哪一方?与此同时,如果ChatGPT生成内容可以有收益权,那么同样其也需要对其生成内容导致的相关后果承担责任。例如,一则由ChatGPT自动生成的新闻稿中明确表示某一种未知菌菇安全可食用,然而受众在读到这则新闻并放心食用后却出现了中毒现象并死亡,在这种情况下该由谁来承担相应法律责任?此前已有类似新闻报道出现并引发广泛讨论,这类风险值得关注。
三、ChatGPT赋能新闻出版业可能引发风险的归因分析
(一)意识形态风险归因:大模型预训练数据歧视与算法偏见
1.ChatGPT模型预训练数据歧视。ChatGPT预训练数据全部来源于互联网数据,且目前所使用的互联网开源数据产生于2020年之前,2020年之后产生的互联网数据则不在ChatGPT的学习范围内,所使用数据90%以上为英文数据,因此ChatGPT在英文环境下互动回答的正确率相对更高,答案也最为符合标准,但如果用英文之外的其他语言作为提示词,回答质量则差强人意,笔者做过测试,如果将中文提示词翻译成英文,把得到的英文答案再翻译成中文,则答案正确率大幅提升,与此同时,ChatGPT几乎无法处理需要2020年以后产生数据参与的问题,且特别容易出现“一本正经的胡说八道”。
2.算法偏见主要源自GPT技术自身局限性。GPT技术核心是数据、算法与算力,是“预训练+微调”模型,其训练方式是使用大量通用数据进行“预训练”得到一套模型参数,然后用这套参数对模型进行初始化,再利用少量特定领域的数据进行训练,即“微调”。ChatGPT就是在GPT-3.5模型基础上的微调模型,在ChatGPT-3.5模型基础上,ChatGPT采用了全新训练方式——“从人类反馈中强化学习”,其训练分为三个步骤:第一步,通过人工标注的方式生成微调模型;第二步,训练一个可以评价答复满意度的奖励模型,即对每个提示词,要求模型输出多个答复,标注团队需要将每个提示词的答复进行排序,这其中隐含了人类对模型输出效果的预期,以此形成新的标注数据,最终用来训练奖励模型,通过奖励模型,可以为模型的答复提供评价标准;第三步,利用第二步训练好的奖励模型,即通过强化学习算法来优化答复策略。具体来说,首先准备一个提示词样本集,对其中的提示词进行答复,然后利用第二步训练好的奖励模型对该答复进行打分,根据打分结果调整答复策略,在此过程中,人工已经不再参与,而是利用“AI训练AI”的方式进行策略的更新,最终重复这个过程多次之后,就能得到一个答复质量更好的策略。[21]由以上模型训练步骤可以看出,人工标注团队初期生成的奖励模型是ChatGPT算法的基础,人工标注团队天然具有一定主观性立场,因而不可避免在模型算法上产生偏见。
(二)伦理风险归因
1.虚假信息风险归因:初始训练数据存在虚假与ChatGPT对知识边界的无意识。
ChatGPT模型预训练时使用的初始数据全部来自互联网,然而“大型模型持续在以书籍、文章和网站为代表的大规模数据集上进行训练,这些数据集可能有偏见,很难完全过滤。尽管在ChatGPT的案例中,通过使用人类反馈的强化学习实现了有害和不真实的输出的内容大幅减少,但OpenAI承认其模型仍然可以产生有毒和有偏见的输出。”[22]因而ChatGPT生成内容不可避免存在虚假信息的可能。与此同时,由于ChatGPT预训练数据全部来自于互联网,而在互联网上人们面对不理解或者不知道答案的问题,一般不会发表意见或者评价,不会明确表示“我不理解这个问题”,只有理解或者知道问题答案的人才会去发表意见,因而,对于ChatGPT来说,预训练数据的缺失使得其在什么情况下可以做出“我不知道”或者“这个问题我无法回答”的反应是非常困难的,因此,ChatGPT会出现面对其无法准确回答的问题时,其反应经常是“一本正经的胡说八道”,给出某些从逻辑上看没有问题,但实际上是完全错误的答案。例如,笔者曾经向ChatGPT咨询一位国内知名学者的简历,但ChatGPT却以非常符合逻辑的文字表述这位学者是一位知名韩国男团成员,且罗列出这位男团成员的一系列代表作及其参加的各类活动,其回答从逻辑上看毫无问题,但其生成的这位男团成员根本查无此人,其代表作与所参加的活动也纯系子虚乌有,但其生成的文本回复在不了解这位学者的用户看来,可能会是极具说服力与可信度的,可能会对使用者产生极大的误导。
2.个人隐私侵犯风险归因:预训练数据来源及用户使用ChatGPT过程中产生个人信息与隐私泄露。
首先,ChatGPT并不会凭空创造数据,其预训练数据来源本身就可能涉及侵犯他人的著作权、肖像权、名誉权、个人信息等权利,如果其使用数据是未经授权文字、图片、音频、视频等作品著作权人授权或许可的,则可能产生侵犯他人著作权风险;如果ChatGPT生成内容出现侮辱、诽谤等情况并产生相应负面影响的,则可能产生侵犯他人名誉权风险;如果未经授权使用他人生物信息,如人脸等,则可能产生侵犯公民个人信息安全风险。
其次,用户使用ChatGPT过程中产生的个人信息泄露风险其归因在于ChatGPT用户在对话框中数据输入文字内容后,这些文字会第一时间传送到ChatGPT服务器上,然后ChatGPT在运算过后才能做相应回复,这些服务器一般部署在国外某个机房中,在较短的时间内数据可以完成多次跨境传输,用户在使用ChatGPT时很可能无意识间造成个人信息、隐私信息、商业机密等信息的泄露。美国微软、亚马逊等公司已经提出禁止员工对ChatGPT分享任何机密信息,防止出现泄露商业机密的问题。
(三)社会风险归因
1.出版从业者失业风险归因:ChatGPT多模态强替代性
2023年3月15日,OpenAI公司发布了GPT-4,其信息处理能力较GPT-3.5又有了进一步提升:可以接受图像和文本输入,可以输出文本回复,并且回复的准确性大大提升,对其回复稍作微调即可生成优质新闻稿件、小说、剧本及学术论文等。微软公司紧随其后发布了Microsoft 365 Copilot,将Offic软件接入GPT-4插件,可以根据文案实现Word自动生成论文,甚至PPT也可以根据文案自动生成。至此,以ChatGPT为标志的生成式AI多模态功能引发出版从业人员的极大担心:是否我们的工作机会将不复存在?
上述焦虑的产生,与我国绝大部分高校新闻出版专业课程设置以人文社科类专业课程为主干课程,较少有与自然科学相关的课程设置有关,因而我国新闻出版专业本科教育中对于最新科技发展的感知、理解与接受能力相对不足,这也是导致出版从业者在ChatGPT强烈冲击下产生强烈不适感的原因之一。
2.社会稳定风险归因:ChatGPT可能间接导致数字鸿沟与经济鸿沟
对于先进生产力和技术进步的学习与接受能力的差异直接导致了数字鸿沟的产生与加大,而数字鸿沟与经济鸿沟又具有耦合关系,即经济鸿沟增大可能数字鸿沟增大,而数字鸿沟增大又会进一步扩大经济鸿沟并如此循环下去,由此可能导致社会贫富差距进一步拉大,并进而引发社会稳定风险。
(四)技术垄断与互联网安全风险归因
1.ChatGPT高运行成本是可能产生技术垄断的主要原因之一。目前支持ChatGPT正常运行所需耗费的资源是非常大的,同时决定大模型核心算力水平的GPU供应尚集中在少数国家手中,因此,虽然GPT技术是开源的,作为发展中国家一员,我国在没有充足GPU供给的情况下,难以维持强大且持续的算力支撑,从而影响到我国人工智能技术前沿科技的创新研发,从而产生通用人工智能技术研发的“马太效应”,强者愈强,且极易引发技术垄断,从而进一步激发意识形态安全风险。
2.预训练数据来源较为单一可能引发互联网安全风险:根据OpenAI官网资料整理得知,GPT-3预训练数据主要来自于数字图书(BookCorpus和Project Gutenberg)、网页爬取(CommonCrawl)、社交媒介平台(Reddit平台)、维基百科(英文版)和代码语料(主要来自GitHub、BigQuery),预训练数据使用语言中英语占92.65%、法语占1.82%、德语占1.47%,中文占比为0.1%。ChatGPT是GPT-3.5的进化版,预训练数据来源与以上基本相符。根据GPT技术底层逻辑,ChatGPT是在预训练数据基础上来学习自然语言规律并按照总结出的规律来组织语言并使之符合人类自然语言规律与习惯的,从以上预训练数据来源可知,其90%以上训练数据都是以英语形式呈现,因而在人类反馈学习训练中ChatGPT总结出的规律更符合英语语系自然语言特征,并在价值判断方面产生相应倾向性,极易引发互联网安全风险。
(五)法律风险归因
面对ChatGPT的横空出世,各国显然都没有做好相应准备,体现在面临诸多风险时相关配套法律的缺失,这是引发ChatGPT法律风险的主要原因。主要体现在与预训练数据所有权的确权与授权、有关源数据使用的相关法律规定;对ChatGPT用户在对话框中输入信息的保护性法律法规的缺失;对ChatGPT生成内容是否具创新性的确定标准与比例认定的相关法律法规的缺失;对于ChatGPT是否可以成为著作权人的相关法律法规;对于使用ChatGPT生成内容进行再创作作品的著作权认定;对于使用ChatGPT生成内容并造成损失或重大社会不良影响责任认定的相关法律规定。
几点启示
尽管存在诸多风险,但ChatGPT与数字出版的融合之势已无法逆转。由此,对ChatGPT赋能数字出版的风险归因就显得尤为重要,从风险根源出发进行风险治理,才有可能有效减少先进技术赋能数字出版行业可能产生的负面且深远的影响。可考虑首先从顶层设计层面完善人工智能相关产业政策及与之相匹配的法律法规;加强数据信息监管,建立数据隐私和安全保障机制;完善著作权法等相关法律条文,确保AIGC技术应用安全和可控性;进一步完善政府就业与社会保障制度以应对短期内可能出现的失业潮等。其次,各新闻出版机构需加大对ChatGPT生成内容的审核力度,大力培养具备深厚专业背景与审核经验的资深出版从业者;再次,国内互联网大厂亟需紧跟国际先进人工智能技术发展,充分利用GPT开源技术,加快自主开发以中文数据为主的预训练大模型并加快投入应用环节。最后,数字出版从业者亟须转变思路,以开放积极的心态学习、理解并合理使用新技术,理解ChatGPT底层逻辑,积极探索利用ChatGPT等人工智能技术检索并生成优质内容的方法,降低威胁与风险,保障以ChatGPT为标志的生成式AI在推动数字出版行业生态变革的同时,也可以实现数字出版行业规范、高效发展,让科技真正助力数字出版。
参考文献: [1]澎湃新闻方晓.2023-03-29 https://www.thepaper.cn/newsDetail_forward_22490961. [2]蔡士林,杨磊.ChatGPT智能机器人应用的风险与协同治理研究[J].情报理论与实践,2023-04-06,网络首发. [3]约翰•霍兰.涌现 从混沌到有序[M].陈禹,等,译.上海:上海科学技术出版社,2001:7-8. [4][英]迈克尔.伍尔德里奇著,许舒译.人工智能全传[M].浙江科学技术出版社,2021:28-29. [5]杜雨,张孜铭.AIGE:智能创作时代[M] 北京:中国出版集团中译出版社,2023:31-33. [6]第一财经04-03 16:11巫景https://www.yicai.com/news/101719976.html. [7]刘琼.ChatGPT:AI革命[M] 北京:华龄出版社,2023:3. [8]易龙.从数字出版到智能出版:知识封装方式的演进[J].出版科学,2023:81-90. [9]王仕勇,张成琳.国内外 ChatGPT 研究综述及展望:人文社科视[J/OL].重庆工商大学学报(社会科学版). https://kns.cnki.net/kcms/detail/50.1154.C.20230518.1407.002.htm(网络首发). [10]新闻学与传播学名词审定委员会.新闻学与传播学名词[M]北京:商务印书馆 2022:99. [11]胡泳.论事实:美丽、谎言与ChatGPT[J].新闻大学.2023,(04):38-56. [12]AI还可以相信吗?ChatGPT给出6个案例并称“千真万确”,30年老律师用来打官司,结果全是假的!https://www.sohu.com/a/680157592_115362 20. [13]AI换脸新骗局正在全国爆发!科技公司老板10分钟被骗走430万元 https://www.thepaper.cn/newsDetail_forward_23185080. [14]纪秋发.中国数字鸿沟——基于互联网接入、普及与使用的分析[M].北京:社会科学文献出版社,2010:220-223. [15]警惕数字鸿沟加剧贫富“马太效应”. http://husiness.sohu.com/20100610/n272707423.shtml 访问时间,2010-07-18. [16]陈永伟.超越 ChatGPT:生成式AI的机遇、风险与挑战[J/OL].山东大学学报(哲学社会科学版). https://kns.cnki.net/kcms/detail/37.1100.C.20230303.1549.002.html(网络首发). [17]百度词条权威词条https://baike.baidu.com/item/%E8%87%AA%E7%84%B6%E4%BA%BA/1465#2. [18]“Noam Chomsky on ChatGPT: It’s “Basically High-Tech Plagiarism” and “a Way of Avoiding Learning”, https://www. openculture.com/2023/02/noam-chomsky-on-chatgpt.html,访问时间:2023 年 2月27日。 [19]顾理平.技术的工具性与人的成长性:智能技术进展中的伦理问题[J].传媒观察.2023,(03)36-41 [20]杜雨,张孜铭.AIGE:智能创作时代[M].北京:中国出版集团中译出版社,2023:210-211. [21]丁磊.生成式人工智能AIGC的逻辑与应用[M].北京:中信出版集团.2023:82-85. [22]胡泳.论事实:美丽、谎言与ChatGPT[J].新闻大学.2023,(04):38-56.
来源:中国大学出版社协会
|