从ChatGPT到Sora.docx

上传人:夺命阿水 文档编号:1315836 上传时间:2024-06-06 格式:DOCX 页数:16 大小:25.85KB
返回 下载 相关 举报
从ChatGPT到Sora.docx_第1页
第1页 / 共16页
从ChatGPT到Sora.docx_第2页
第2页 / 共16页
从ChatGPT到Sora.docx_第3页
第3页 / 共16页
从ChatGPT到Sora.docx_第4页
第4页 / 共16页
从ChatGPT到Sora.docx_第5页
第5页 / 共16页
点击查看更多>>
资源描述

《从ChatGPT到Sora.docx》由会员分享,可在线阅读,更多相关《从ChatGPT到Sora.docx(16页珍藏版)》请在课桌文档上搜索。

1、从ChatGPT到Sora【摘要】文生视频大模型SOra将生成式人工智能的应用边界从文字、图片拓展到了视频领域。通过以Sora对视频类记者的职业规范可能带来的挑战为切入点,对生成式AI浪潮下新闻专业意识进行再思考。作者认为,原有的新闻专业操作要求需要有更广阔的外延,新闻从业者不仅要律己,更要学会如何他律于机器。人机协同中新闻从业者应占据“核查者”的主体地位,明确适合生成式Al条件下的职业规范意识和评价标准,新闻传播教育应训练学生如何使用及核实AIGCo智能传播时代不仅新闻从业者,全民的媒介素养都需要提高。【关键词】视频新闻;新闻专业意识;生成式人工智能;Sora;新闻职业规范2024年中国春节

2、假期尚未结束,曾发布ChatGPT的OpenAI公司又扔下一记重磅炸弹,发布了新的生成式人工智能模型Sorao该文生视频模型仅根据提示词就能生成60秒流畅的超精细视频,包括生动的色彩及复杂的镜头运动,这标志着AlGC技术(生成式人工智能)从文字、图片拓展到了视频领域。可以预见,未来将会出现一批Al视频生成工具。面对这一新闻,影视、广告等媒体行业的从业人员惊叹的同时,也对未来的职业发展充满担忧。从OPenAl公布的由Sora生成的一些样片来看,这种担忧并非过虑只猫在床上乖巧地等待主人起床、几只小狗在雪地中嬉戏等,这些视频的精细、真实程度让人惊诧于过去两年间人工智能视频生成技术的发展速度。其实SO

3、ra并非是首个文生视频模型,2022年9月,Meta公司发布了人工智能系统Make-A-Video,一个月后,谷歌展示了InIagenVideO。2023年3月,网上流传着一段视频,一位Reddit网友使用开源Al工具ModelSCOPe模型生成了一段十分怪异的威尔史密斯吃意大利面的情景;同年5月,曾被认为是文字视频领域领跑者的Runway使用影片制作模型Ge11-2制作了一个名为合成夏日(SyntheticSummer)的啤酒广告,其中充满了怪异扭曲的画面。这些视频,普通观众仅凭肉眼就可以轻松判断其真假。但SOra生成的视频,逼真程度已经远超此前所有AlGe的能力,仅凭输入的一段提示词,就可

4、以很快获得这样的视频:“一位时尚女性走在充满温暖霓虹灯和动画城市标牌的东京街道上。她穿着黑色皮夹克、红色长裙和黑色靴子,拎着黑色钱包”这仿佛电影般的真实场景,其实是人工智能生成的。OpenAI同时发布了一份名为“视频生成模型作为世界模拟器”的技术报告。根据这份报告,Sora建立在一个对语言有深刻理解的模型之上,这使它能够创造出符合现实物理的动态图像。即该模型可以提取并理解用户在提示文本中提出的要求,如主题、勤作、地点、时间和情绪等。然后它从数据库中搜索与关键字匹配的最合适的视频,并将这些元素混合在一起创建一个新视频。Sora的强大之处在于它能够理解这些元素在现实物理世界中是如何存在的,尽管在这

5、一点上现在还不能做到完美。目前Sora只对内部测试人员、一些视频创作者和艺术家开放,但各行各业都需要进行前瞻性布局,这一技术对媒体人的冲击可能会比ChatGPT更大。2024年2月,美国理海大学微软研究团队发表了一篇名为Sora:大型视觉模型的背景、技术、局限性和机遇综述的论文,作者指出,Sora为记者和新闻机构带来了机遇:“记者和新闻机构可以利用Sora快速生成新闻报道或解释性视频,使新闻内容更加生动和引人入胜。这可以大大提高新闻报道的覆盖率和受众参与度。通过提供一个可以模拟现实环境和场景的工具,Sora为视觉叙事提供了一个强大的解决方案,使记者能够通过具有吸引力的视频方式来传达复杂的故事,

6、而这在以前是很难做到或很昂贵的。”1但这也意味着AlGe技术对新闻专业领域的僭越越来越深。在生成式Al浪潮下,新闻传播行业的职业意识会受到怎样的冲击?视频类新闻如何坚守真实的底线?新闻从业者又当如何遵循新闻职业规范?目前生成式Al时代的新闻实践还很少,对于上述问题,本文仅为初步探讨,期待学界和业界有更深入的研究。一、视频新闻生产者的两次角色转变:从“摄影师”到“记者”再到“核实者”电视在中国存在的前20年,绝大多数中国人不知道,也没有看过。本文第一作者是生活在首都北京的普通人,还算幸运,在这20年里看过三次电视:1958年第一次偶然看到电视,1964年上初一时在街道居委会里第二次看到电视,19

7、76年1月在北大校园里第三次看到电视(内容是周总理逝世)。新闻视频,在那些年里是极其少见的。1981年4月,中央广播事业局在青岛召开全国电视新闻座谈会,集中讨论办好“新闻联播”的问题。此后,电视新闻记者从“摄影师”逐渐转变成“记者”,融入新闻传播业中,开始有了新闻职业意识,新闻视频制作、播放的行为规范问题提上日程。1991年中国记协制定了中国新闻职业道德准则(至今已经四次修订)。2012年,本文第一作者出版了中国新闻职业规范蓝本,为新闻职业规范提出了具有很强可操作性的条款,划分为总的原则、职业角色、利益冲突、新闻业务四个板块,涉及28个方面的情形,明确了新闻从业者怎样做是对的,怎样做是错的,其

8、中包括制作和播出图像(含视频)的具体规范。以ChatGPT和Sora为代表的生成式人工智能,将对新闻从业人员的冲击推向一个新的阶段。随着未来Sora对公众的开放,专业性很强的视频领域将极大提升生产效率,降低生产成本,视频新闻生产者的专业领域将进一步遭到僭越。与此同时,虚假新闻制作和传播的成本变得更低,这些假新闻可能会在“有图有真相”的理念下,更加肆无忌惮地扩大传播。这是因为以机器智能生成内容,打破了以人为主体的传播方式,机器成为传播主体,这也是当下智能传播的本质特征2,由此带来的记者职业角色问题及一些具体新闻业务操作问题,已经不能仅仅依靠行业的“自律”去消除了。生成式人工智能技术的科技公司掌握

9、着生成式AI的底层逻辑,即使用高性能的算法,以大数据为支撑,通过强化训练和深度学习,使机器具备类似人类神经网络的反馈纠错机制。算法黑箱背后的隐私问题、社会控制问题及舆论问题等,早已引起新闻传播行业的关注;大数据可能带来数字侵权、刻板印象和偏见、意识形态问题等,目前已经有了一批诉讼,其结果拭目以待。目前OpenAI没有公布训练Sora所使用的数据库,但据人工智能研究专家推测,OPenAl除了使用真实拍摄的视频,比如从YOUTUbe等视频网站抓取或从其视频库中攫得授权的视频外,还可能使用视频游戏引擎中生成的合成视频数据。从样片来看,这个数据库一定超级庞大,涵盖了各种视频主题、风格和流派。很多已有的

10、视频带有明显的倾向性,以这些视频为训练数据而生成的新视频,很有可能会进一步加深刻板印象,加强现有的社会各方面的不平衡,带来更多的文化冲突。因此,生成式Al时代,视频新闻记者除了生产新闻外,更需要承担起“核实者”的角色。未来需要规范的不仅是新闻传播业,而是所有类似SOra这样的生成式人工智能产品及其背后的企业。2023年7月13日,国家网信办联合国家发展改革委、教育部等七部门联合公布了生成式人工智能服务管理暂行办法,内容包括总则、技术发展与治理、服务规范、监督检查和法律责任、附则,共计五章24条,为促进生成式人工智能健康发展和规范应用定下了总基调。新闻从业者除了遵守公民层次的法律法规外,仍需遵守

11、专业层次的操作规范,在智能传播条件下把具体的新闻业务做对和做好。二、新闻专业意识的重构:基于新闻职业规范的几点思考随着生成式人工智能在新闻传播领域的广泛应用,新闻从业者可以从繁重重复的劳动中解放出来,提高工作效率,将精力转向一些深化的新闻选题。随着机器加入新闻传播的程序中并起到一定的关键作用,大众传播时期围绕新闻职业意识所形成的一套新闻传播专业的操作要求,需要有更广阔的外延,新闻从业者不仅要律己,更要学会如何他律于机器。(一)人机协同中新闻从业者占据“核查者”的主体地位新闻真实、准确的原则,是新闻传播从业者必须遵循的,它要求新闻从业者追求真相,包括跟踪报道,呈现并核实事实的细节,说明信息来源,

12、不以任何误导受众的方式操纵图像和声音等。中国新闻职业规范蓝本中“新闻真实、准确原则”中,明确要求记者“模拟再现事件情景,需作出明确标示”3。在大众传播时期,电视新闻“再现事实”的报道方式被要求尽可能避免,因为会有误导受众的风险。如果有必要“再现事实”,可以进行适当的现场模拟或再现,前提是事先征得传媒负责人的同意,刊播时要有“情景再现”“现场模拟”等标示。这种模拟再现要基于重要的和可查证的事实,谨慎标明,使观众不会误把记者设想的可能的事实,当作实际的真实事实。随着SOra的应用,模拟复现过去的场景变得异常简单,并且每个用户都可以根据自己对事件的理解生成不同的视频,这会使真相更加扑朔迷离,也会使假

13、信息变得更加“真实”。比如2023年网络上疯传的“特朗普被捕”的图片,现在用户还可根据这一图片生成现场视频、音频,甚至直播画面等,不明就里的普通受众面对来自多种信源的不同角度的信息,会对假消息产生信任。与此同时,一些真视频也可能被谎称为深度伪造的视频,例如一些劣迹名人可以声称媒体拍到的不雅视频是深度伪造的,以逃避舆论谴责。普通人目前尚没有办法立刻判断视频的真假,即使专业新闻机构向公众传递了真实的信息,受众并不一定就会认同和相信,这使新闻从业者践行“新闻真实和准确的原则”变得更具挑战。中国新闻职业规范蓝本在“社会责任原则”一节中规定记者应当“尊重和保护未成年人、少数民族、女性、残疾人等特殊群体”

14、,“舍弃可能会煽动暴力或冲突的有关仇恨的内容”。4比如可以在刊播时进行化名、模糊影像或声音等技术处理,以免对当事人及家属造成伤害。利用Sora生成视频几乎是零成本,这一技术很容易被人利用。此外,AI机器再智能,面对复杂情况,也很难作出人道主义的判断。据OPenAl公司宣布,他们目前正在与误导信息、仇恨内容和偏见等领域的专家“红队测试”(RedTeaming)进行合作,对Sora进行对抗性训练,用于拒绝那些想要生成侵犯他人肖像权、暴力或性图像的用户,但效果如何仍有待检测。卢卡斯格雷夫斯在事实核查一书中写道:“事实核查凸显了新闻作为镜像隐喻的深层问题:不仅新闻由社会建构,就连被新闻报道的人类制度现

15、实(Institutionalreality)也是由社会建构的。”5生成式人工智能的应用将这个深层问题更为直白地揭示了出来。大众传播时代的事实核查多是事前核查,主要指通过寻求多方信息来源、回访、查阅各种相关背景资料等手段力图呈现事实,面对人工智能生成内容,新闻传播的从业者更多的是事后核查,即对“已然出现的、真实性存疑或存有争议性的信息,通过多方取证、交叉核实并将核实后的信息向公众进行公开”6。记者的角色从信息生产者转变为信息核实者,其中“核实”又应当具有双层含义:一是核实Al所生成的各种类型的新闻信息的真实性,抽丝剥茧,向大众澄清真相;二是核实生成的信息是否符合长久以来形成的新闻职业道德规范,

16、对不规范的内容向科技公司进行警示。(二)行业“自律”夕卜更需“他律”新闻自律通常指新闻传播行业和规范的成文公约或行业公认的惯例,自律是非强制性的。几乎每个国家都有体现本国新闻职业道德的自律文件。中国的新闻自律走过了一段极为艰难的阶段,近年来已颇有成效,但智能传播的新态势又带来了新问题。继2023年12月纽约时报起诉OPenAl后,美国三家数字新闻媒体也于今年2月28日对OPenAl提起版权侵权诉讼,他们认为OPenAl违反了数字千年版权法案,并侵犯了记者们的著作权。在国内,被网友戏称为“中国Al第一人”的李一舟所创办的“一舟智能”网站也被多名开发者和SD生态网站1.iblibai宣布盗用模型,

17、严重侵权。这两年呈现出科技公司在前方领跑,国家监管部门及各类新闻机构在后面紧追的态势。然而,新闻行业应当站在更高的层面,对人工智能公司提出更高的要求,要求他们采取保障措施。尊重作者的版权是世界新闻界高度关注的职业道德问题,剽窃、篡改同行新闻作品,不仅是对同行劳动成果的不尊重,更是对受众的一种不负责任和欺瞒。训练Sora所使用的数据都是之前新闻工作者生产的内容,受著作权的保护。Sora生成的视频更像是一种高明的拼接,这让著作权保护变得更加困难。面对这一问题,有专家提出了Al数字水印的解决办法,Al数字水印类似于区块链的地址标签,它具有不可见和稳健的优势。不可见指添加水印不会影响视频画面的质量,稳

18、健指画面过干扰后,水印仍可以被准确地提取。通过在视频生成的每一步都添加Al数字水印,可以标记视频生成模型所参考、引用的内容,表明作品是AIGC,这样还能从源头上防范虚假信息。但这仅依靠传媒行业的呼吁是不够的,还需要从法律层面进行保障。我国法学界目前已经注意到了人工智能生成物著作权问题。我国现行著作权法对著作权主体的规定是“对文学、艺术或者科学作品依法享有著作权的自然人、法人或者其他组织“,也就是说,人工智能不具备著作权主体资格,在由Al生成的内容版权归属问题上,学术界尚存在较多争议,“主流学说为法律拟制人格说投资者说使用者说邻接权保护说与设计者说”7。无论法学界最终采纳何种学说,从法律方面对生

19、成式Al的版权问题进行明确已经迫在眉睫。(三)明确适合生成式Al条件下的职业规范意识和评价标准数字化技术的迅猛发展带来新闻传播业发展的新态势,2019年中国记协发布了新修订的中国新闻工作者职业道德准则,该准则制定于1991年,并于1994年、1997年、2009年进行了三次修订。2019年版的准则融合了互联网传播的时代特点,比如第五条中增加了以下表述:“强化互联网思维,顺应全媒体发展要求,积极探索网络信息生产和传播的特点规律,深刻把握传统媒体和新兴媒体融合发展的趋势,善于运用网络新技术新应用,不断提高网上正面宣传和网络舆论引导水平。”但这版准则也带有前几版的缺陷,比如“规定空泛笼统,可操作性不

20、强”“有条文但没有具体的执行机制,对传媒和新闻从业者的约束力很弱”8o2023年8月,美联社发布了针对新闻工作者的生成式人工智能使用指导方针,共7条内容,本文摘录了其中4条较有参考价值的内容:“生成式人工智能工具的任何输出都应被视为未经审查的源材料。美联社员工在考虑发布任何信息时,必须运用编辑的判断力和美联社的标准进行审查。“根据我们的标准,我们不会更改照片、视频或音频的任何元素。因此,我们也不允许使用生成式人工智能添加或减少原素材中的任何元素。“我们将避免传播任何人工智能生成的、被怀疑或证明是对现实进行虚构的图像。但是,如果人工智能生成的插图或艺术作品是新闻报道的主题,则可以使用,只要在标题

21、中明确标明即可。“员工不得将机密或敏感信息输入人工智能工具”。9美联社的这几条标准是非常明确的,告诉其新闻工作者哪些信息不适合使用生成式人工智能,使用的标准和程度如何。制定这样一套新闻职业规范也可以让公众清楚地了解新闻传播机构的工作标准、行为准则是怎样的,进而提高公众的信任度。我国首个独立的事实核查组织“有据”的主理人魏星,2023年6月撰写了一本事实核查手册,以案例的形式介绍了常用的文字、图片和视频核查工具,也涉及事实核查的具体工作流程、信源评估方式,内容较为具体、翔实,具有可操作性,但这本手册主要涉及事实核查方面。中国新闻传播界仍需要明确一套适合生成式Al条件下的职业规范和评价标准,这些标

22、准应当是客观的、可测量的,明确告诉新闻从业者,面对AIGC,怎样做算是专业的,怎样做不够专业。(四)新闻传播教育应训练学生如何使用及核实AIGCChatGPT出现之际,有研究者指出:“强大的类人的知识生产、交流和优化平台是ChatGPT的核心终端产品,随着其不断进化,必然会对人类整个知识教育体系产生重大影响。”10中国新闻传播教育主要分为史、论及新闻实务三大板块,其中新闻实务部分,主要教授学生采写编评、音频视频的剪辑制作等。ChatGPT可以根据提供的新闻视频素材、报道要求等,生成一份专业的新闻稿件,Sora则可根据新闻稿内容生成合适的视频画面,最后再通过数字人主播播报出去。采写编评摄的技术分

23、工被终结了,新闻实务似乎成了已经过时的知识。但是,讲述那些没有被讲述的故事,这一点是所有生成式人工智能都没办法完成的,新闻记录的是现实世界中发生和正在发生的事情。新闻传播学教育需要与时俱进,教授学生如何使这些工具适应新闻工作流程,以提升新闻时效,放大和增强报道效果,而不是让Al取代新闻记者。当前生成式人工智能主要依靠用户输入的prompt去生成内容,语言和逻辑直接决定输出的内容质量。亚里士多德曾将人看作是有逻各斯的动物(Zoonlogonechon)11ologos”一词具有“言说、话语”和“理性、道理”双重含义,古希腊时期对语言和逻辑的重视在智能传播时代又将重拾新的意义。美国已经开始推进对记

24、者进行专业的Al培训,2024年2月5日,微软宣布推出Al辅助项目,记者可免费参加其课程,这一项目旨在帮助新闻机构在新闻采集和业务实践中负责任地使用人工智能并遵循相关政策,帮助培训新一代记者对人工智能的使用能力。2月13日,纽约市立大学克雷格纽马克新闻研究生院邀请经验丰富的记者参加一个为期三个月的免学费项目,以探索如何将生成式人工智能融入他们的工作。我国的大学新闻传播专业也应当带领学界和业界进行相关的探索。除了教学生使用Al技术,新闻传播学教育的另一个重点是教学生如何识别AlGC。文字、图片、视频的核查方式不尽相同,其中视频是最难核查的,它无法直接粘贴或上传到某个验证工具。后真相时代,精细化的

25、视频拼接、换头换脸、抠图换场景等早已不是新鲜技术,但通常需要耗费一些人力、物力,核查人员只需要放慢视频速度、截图放大、反向搜图等,就可以判别内容的真假。但Al时代,对视频的核查提出了更高要求。有学者曾将Al时代视频核查概括为六个要素,即(1)出处:检查相同的内容是否被分享过;(2)来源:最初拍摄视频内容的人;(3)拍摄视频内容的日期;(4)视频内容的地点;(5)视频内容/分享的动机;(6)多媒体验证:使用可用的图像/视频验证工具分析可视图像是否被篡改。12目前用于核查视频真伪的工具主要有:法新社的InVID-WeVerify,该插件支持查看影像拍摄的设备、事件、拍摄地点坐标等信息;借助Goog

26、leEarth和WikinIaPia等地图工具,核实视频中的具体地点、方位信息是否属实;借助SUnCaIc,可进一步确认日照方向、太阳高度角等推算出具体年月信息的内容,从而确定视频的拍摄时间。但是,一些深度造假的视频可对元数据进行篡改,导致非专业人员无法正确核实。因此,想要最大限度地对抗SOra的深度造假,需要新闻传播从业者具有极高的专业素养。这些,都是新闻传播学教育需要拓展的方向。麦格理软件和人工智能研究主管弗雷德哈夫迈耶在Sora发布之后指出:“生成式人工智能的负外部性将会是2024年每个企业和每个人都要面对的实质性问题。”13现在很多社交网站在与用户签订使用协议的时候,都明确规定用户在该

27、平台产生的数据将用于生成式人工智能产品的训练。这好比是一个霸王条款,用户想使用社交平台,就必须承受自己的信息被拿去训练人工智能产品的风险。反过来,用户的价值取向、偏见、发布的过激言论等也会影响生成式人工智能所产出的内容。其实,在智能传播时代,不仅新闻从业者,全民的媒介素养都需要提高。Sora可能会使有影响力的自媒体人创造出比过去更多的内容,传统新闻传播机构的竞争力该如何保持呢?一项对中国社交媒体用户新闻真实性判断和转发倾向影响的在线试验结果显示,“面对嘈杂的网络信息生态环境,新闻机构与专业核查者在负责向公众确证新闻真实性方面具有独特的优势”14。但也有学者指出,“公众对新闻业的信任,是一种在双

28、方长期互动中建构起来的关系。公众选择相信新闻报道,并不是因为他们确实知道事实如此,而是生成了一种包含风险因素的信任感它依赖受信人一方从具体的新闻行动者到组织层面的新闻媒体和系统层面的新闻业,不断通过行动来展现值得被信任。公众可能信任新闻,也可能随时撤回信任。信任与不信任的转换规律告诉我们,新闻业维系公众信任要比破坏这种信任困难”。15因此,面封野蛮生长的AI技术,传统新闻传播机构最重要的还是保持冷静,爱惜羽毛,继续保证新闻报道的透明度、可信度,维持大众传播时期积累起来的公信力。霍克海默和阿多诺在启蒙辩证法中警示我们,“精神的真正功劳在于对物化的否定。一旦精神变成了文化财富,被用于消费,精神就必

29、定会走向灭亡。16我们要做的是让生成式人工智能“解放”人,而不是“取代”人。新闻视频的素材永远需要专业记者亲自去拍摄或有现场的监控视频,视频新闻的制作是一种精神创造,它们不可能先验地存在于大模型中。大模型对于视频新闻,永远具有滞后性,新闻从业者监测社会环境的责任也不可能被Al完全取代。参考文献:1Yixin1.iu,KaiZhang,Yuan1.ietal.,Sora:AReviewonBackground,Technology,1.imitations,andOpportunitiGsof1.argeVisionModels.https:/arxiv.org/pdf/2402.17177vl

30、.pdf.2彭兰.从ChatGPT透视智能传播与人机关系的全景及前景J新闻大学,2023(4):1-16+119.3陈力丹,周俊,陈俊妮,等.中国新闻职业规范蓝本M.北京:人民出版社,2012:15.4陈力丹,周俊,陈俊妮,等.中国新闻职业规范蓝本M.北京:人民出版社,2012:30.5卢卡斯格雷夫斯.事实核查:后真相时代美国新闻业的选择M.周睿鸣,刘于思,译.北京:中国人民大学出版社,2023:12.6林嘉琳,师文.主流媒体事实核查应对AlGC的问题分析与路径探索J.青年记者,2023(23):19-22.7吴凯,李金惠,王增栩.著作权法视域下人工智能生成物的可版权性与权利归属问题分析特区经

31、济,2022(12):103-106.8陈力丹,周俊,陈俊妮,等.中国新闻职业规范蓝本M.北京:人民出版社,2012:9.9美联社官方网站EB01.https:/blog.ap.orgstandards-around-generative-ai.10朱鸿军ChatGPT对新闻传播系统的颠覆性重构J.探索与争鸣,2023(5):29-32.11Aristotels.NicomacheanEthicsM.1098a3-5.12S.A.Khanetal.,VisualUser-GeneratedContentVerificationinJournalism:AnOverview.IEEEAccess,vol.11,2023:6751.13https:/14闫文捷,刘于思,周睿鸣.事实核查:专业新闻生产者可为的创新实践项在线实验的启示J.新闻记者,2023(2):46-59.15王辰瑶.真而有信:新闻真实的关系实践与数字时代的公众信任J1.新闻与写作,2022(7):26-36.16马克斯霍克海默,西奥多阿多诺启蒙辩证法M.梁敬东,曹卫东,译,上海:上海人民出版社,2006:4.

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 在线阅读 > 生活休闲


备案号:宁ICP备20000045号-1

经营许可证:宁B2-20210002

宁公网安备 64010402000986号