您现在的位置: 首页 -> 最新 -> 正文
警惕新闻生产中的算法风险——对话山东大学副教授张超
发布时间: 2019-04-04 23:37:45     发布来源: 大众网    
作者:孙翔     发布人:李冰倩    

 编者按:近年来人工智能技术迅猛发展,新闻业正经历一场变革。机器人量产新闻,记者是否会消失?算法驱动新闻生产创新,是否只有机遇?算法风险你是否意识到,我们又该如何应对?记者与山东大学新闻学副教授张超对话,探讨人工智能技术带给新闻生产的影响与风险。

  访谈嘉宾:

  张超,山东大学文化传播学院新闻学副教授,硕士研究生导师。博士毕业于中国人民大学新闻学院。以第一作者获山东省第三十二届社会科学优秀成果奖二等奖、山东省第三十一届社会科学优秀成果奖二等奖、2017年山东高校人文社会科学优秀成果奖一等奖。近五年以第一作者发表CSSCI论文15篇。近年来在大数据、数据新闻、人工智能等领域发表一系列有影响力的学术成果,论文被《新华文摘》、人大复印报刊资料《新闻与传播》转载,被《新华文摘》和《中国社会科学文摘》论点摘编。

  记者:人工智能技术的发展如火如荼,技术驱动下的新闻业也在这波人工智能大潮中经历转型,你如何评价人工智能技术对新闻业的影响?

  张超:我认为人工智能技术对新闻业的影响可以用“深刻”“颠覆”之类的词来形容。人工智能技术的核心是算法。我曾在一篇论文中将人工智能技术对新闻业的影响称之为“算法转向”。这一“转向”是渗透在新闻生产的各个环节,从选题、内容生产,再到推送,无不有算法的身影。这次的“算法转向”不仅与技术有关,更是一种新闻生产方法论和思维方式的大变革。

  记者:你能具体谈一下人工智能技术对新闻生产各个环节带来的“转向”吗?

  张超:比如在选题阶段,新闻价值评价由经验判断转向实证测量;在内容生产中,新闻内容生产模式由“手工作坊”转向人机协同;在新闻叙事上,由线性叙事转向交互叙事;在内容分发上,由大众化覆盖转向个体化定制;在表征现实的机制上,由记者中介转向算法中介。

  记者:你刚才提到了新闻内容生产模式是人机协同,我是不是可以理解成你不认为记者会被人工智能技术“完全”替代?

  张超:你的理解是对的。现在各行各业都有一种声音,就是一些岗位、工种会被人工智能取代。在一些人看来,人工智能技术似乎是“洪水猛兽”,抢了人类的饭碗。其实,只要技术在发展,一些技能就会被新技术替代。机器人新闻之所以能批量产出大量文本,是因为有算法、有模板,而非有像人类一样的创造性思维。所以机器人的写作领域一般是财经新闻、体育新闻。深度报道对于算法而言遥不可及。因此算法只能是“有选择”地替代记者的某些技能。

  在我看来,机器人对记者而言是一种“解放”,一些常规的消息由机器人来写,记者可以腾出时间做更有创造力的事情,减少了简单、重复的劳动。因此,算法与记者的关系并非“替代”关系,而是“耦合”关系。未来人机协同将是新闻生产的主要模式。

  记者:人工智能技术给新闻生产带来许多可能性,从目前业界和学界的声音看,憧憬大于忧虑。在国内人工智能相关研究领域,你是为数不多的对人工智能技术持批判态度的学者,你的担心是什么?

  张超:对技术既要有敬畏心,也要有提防心。我们人类正处于贝克所描述的“风险社会”之中,技术的发展让各种风险形态不断“生产”出来。人工智能技术也是如此。很多人认为人工智能无所不能,这实际上是一种“技术崇拜”,甚至是“技术盲从”。现在我们的人工智能技术还处于弱人工智能阶段,由于人们对算法的过度依赖和算法本身的局限所导致的“算法风险”将随着人工智能技术的渗透与日俱增,这不得不引起我们的重视。

  记者:具体来说新闻业会面临哪些算法风险呢?

  张超:我将新闻生产中的算法风险分为五类风险:失实风险、决策风险、偏见风险、隐私风险和声誉风险。

  失实风险是算法得出的错误结论导致内容失实、信息错误,影响整个新闻报道的准确性和真实性。失实风险主要由算法设计本身的局限性和输入数据的错误导致的。

  决策风险是指由于人们过于相信算法,对某些决定进行思考、判断时出现错误。比如一些数据新闻采用“计算器”的方式帮助用户进行决策,但没有人关心这种计算器是如何计算的,算法有问题,人们的决策也错了。

  偏见风险的产生由于算法运行系统中的偏见因素导致偏见的结果输出。

  隐私风险是由于数据收集者对个人隐私数据的过度搜集或缺少保护,引发的个人隐私受到侵害的风险。

  声誉风险是针对媒体而言的,算法出错所产生的后果影响面大、速度快,这必然对媒体公信力构成威胁,需要媒体在应用算法时保持警惕。

  记者:你认为我们该如何应对算法风险?

  张超:应对算法风险不是一两句话能说透、说全的,它是一个系统工程,我认为可以从四个方面着手:在自律层面,新闻业要构筑算法责任伦理;在他律层面,立法部门要制定监管新闻算法的法律法规;在社会层面,利益相关者,尤其是记者、编辑和公众要提升算法素养;在媒体层面,新闻机构要建立预防和处理算法风险的应对机制。

  记者:我的直观感受是当前业界和学界好像对“算法风险”问题关注得不够?

  张超:这方面的研究未来应该加强。算法风险研究是一个极具前瞻性的领域,它更像是一种“预警”研究,时刻提醒着新闻业者算法是不可以完全依赖的。我希望未来有更多的人关注算法风险、技术风险。不了解风险本身就是一种风险。

人工智能技术改变着新闻业,但不会改变新闻的生命:真实性。算法风险不单因为它是风险而被警惕,更因为它会蚕食新闻的生命力和公信力。作为公众,大家都身处算法的影响之中,批判算法、警惕算法风险,也是公众应有的态度。

  记者:是的,我们期待未来学界能有更多声音回应新闻生产的算法风险问题,在防范和规避风险方面提供更多真知灼见。 

请遵守《互联网电子公告服务管理规定》及中华人民共和国其他有关法律法规。
用户需对自己在使用本站服务过程中的行为承担法律责任。
本站管理员有权保留或删除评论内容。
评论内容只代表网友个人观点,与本网站立场无关。
 匿名发布 验证码 看不清楚,换张图片
0条评论    共1页   当前第1