当前时间:

当前位置: 首页 > 网络传播 > 传播工作 >

国家网信办新规如何规范“算法推荐”?解读来了!

发布时间:2019-12-21

编者按

基于算法的个性化内容推送在为用户提供精准化、个性化服务的同时,也带来了国家安全风险因素增高、不良信息泛滥风险增加以及传统权利保护难度加大等风险和问题。12月20日,国家互联网信息办公室发布了第5号令《网络信息内容生态治理规定》,其中针对当前网络信息内容服务平台采用个性化算法推荐技术推送信息所带来的问题,给出了一套全新的解决方案。这是一套怎样的方案?来看中国信息通信研究院互联网法律研究中心研究员杨婕的解读。

微信图片_20191221100818.jpg

《网络信息内容生态治理规定》(以下简称《规定》)是我国在网络信息内容生态治理方面的一部重要立法,以部门规章的形式全面规定了政府、企业、社会、网民等主体在网络信息内容领域应遵循的要求。尤其是针对当前网络信息内容服务平台采用个性化算法推荐技术推送信息所带来的问题,《规定》给出了一套全新的解决方案,体现了监管部门在逐步探索令新技术从发展走向规范的中国智慧。

个性化内容推送变革了传统信息传播范式

个性化内容推送是指网络信息内容服务平台采用个性化算法推荐技术推送信息,即通过人工智能分析和过滤机制对海量数据进行深度智能分析,完成信息内容与用户的精准匹配。

1994年美国明尼苏达大学研究组推出了第一个自动化推荐系统GroupLens,至今已有二十多年。如今,基于算法的个性化内容推送已经深入各大平台和各类互联网应用中,例如资讯、社交、电商、短视频等平台。

算法在信息传播业的广泛应用,将传统的编辑分发模式转变为个性化内容推送模式,对信息传播业带来了深刻的变革。据不完全统计,2017年年底,基于算法的个性化内容推送已占整个社会信息内容分发的70%左右。

理想的网络信息内容生态,需要具备整体性(社会公众所需要的共同化信息内容)、群体性(群体所需要的分众化信息内容)和个体性(个体所需要的个性化信息内容),同时还需兼顾信息内容的高度和宽度。在传统的编辑分发模式下,编辑人员扮演着“把关人”的角色,由于编辑人员具有一定的主观性、能动性和责任感,他们能够依据自身的经验、态度、价值观对信息内容进行取舍,去满足信息内容的多维度需求。

在大数据时代背景下,个性化内容推送顺应了信息传播业细分化的发展趋势,通过对海量数据的智能化处理,可以满足用户对个性化信息内容的需求。但目前,基于算法的个性化内容推送本质上只是弱人工智能的应用,弱人工智能无法单独承担起“把关人”的角色。算法是自动化、冷漠和无责任感的,无法处理复杂的人类式社会价值判断,而且难以判断推送给每个用户的信息内容的优劣,以及背后可能涉及的价值取向。

微信图片_20191221100822.jpg

规范个性化内容推送的必要性

基于算法的个性化内容推送在为用户提供精准化、个性化服务的同时,也带来了国家安全风险因素增高、不良信息泛滥风险增加以及传统权利保护难度加大等问题。

1国家安全风险因素增高

个性化内容推送能够影响政治进程、加剧政治极化。在选举过程中,通过算法能够识别出潜在的投票人,通过个性化内容推送,诱导投票人支持特定方案或个人,影响公众意见。而且由于个性化内容推送的筛选功能,会将投票人屏蔽于不同意见之外,持续性地强化立场,导致不同群体的意见极化,容易引发极端主义。

案例

剑桥分析公司被多家媒体报道深度参与了2016年美国大选,采用个性化内容推送方式,帮助政客确定不同类型的选民在特定问题上的立场,并辅助政客制定竞选策略,影响美国大选结果。

此外,个性化内容推送可能被具有特定意图的其他国家、极端组织势力、违法犯罪者利用,成为煽动、策划、组织线上线下暴恐及群体性事件的工具。在网络空间中,缺乏辨别力的用户,尤其是未成年人长期接触这些被精准推送的具有舆论动员、情绪煽动、观点引导效果的信息内容,可能成为网络暴民,引发社会动荡,影响国家稳定和谐大局。

2不良信息泛滥风险增加

个性化内容推送依托于用户浏览记录等数据,对用户兴趣爱好、行为习惯进行分析与预测,根据用户偏好推荐信息内容。部分平台不断向用户推荐其关注过的相似内容,不管是否存在低俗媚俗、色情暴力等不良信息,意图实现最大推送量和获得最高点击率,导致违法和不良信息充斥用户界面。

案例

去年多家媒体曝光部分短视频平台推送大量未成年人早孕争当“网红”的视频,平台不但没有及时删除相关视频,反而为博眼球、争流量,对该类视频进行推荐、热捧。

人性的弱点与缺乏价值判断的弱人工智能结合在一起,就形成了部分个性化内容推送平台上信息内容低俗的情形。而这背后的逻辑是用户“想看”即正当,通过最大化满足用户需求,使其产生对平台的依赖,实现流量最大化。

3用户权益保护难度加大

个性化内容推送让用户过滤掉自己不感兴趣的信息内容,沉迷于最初想看的信息内容中,实现“看我想看,听我想听”的体验。这无形间强化了用户的偏好,影响了用户对于信息内容的自主选择,导致用户对于信息内容接触面越来越狭隘、单一和固化,形成“信息茧房”效应。

用户一旦身处“信息茧房”中,就会不自觉地失去社会行动力,而满足于被动的知识积累,从积极地参与事件转变为消极地认识事件,很难再接受不同的观点,甚至在不同群体、代际间竖起阻碍沟通的高墙,极易造成个体与社会的隔离。而且,如果用户沉浸于单一类型的信息内容中,会缺乏对于当下和历史事件的深刻认识和判断,拒绝认真严肃地思考社会重大议题。

微信图片_20191221100824.jpg

解决个性化内容推送问题的中国方案

个性化内容推送本质上是解决大数据时代下海量信息内容分发的一种技术,我们绝对不能对技术嗤之以鼻,而是应当客观、公正地看待技术。算法创新了信息传播业的分发模式,顺应了大数据的时代背景,我们应当充分发挥算法的最大效用,同时也要适时适度规范算法,做到善用算法。

因此,针对基于算法的个性化内容推送所带来的一系列问题,《规定》给出了一套中国方案,即将算法推荐模型+人工干预+用户自主选择三者进行有机结合,旨在构建一个具备整体性、群体性以及个体性的网络信息内容生态,实现信息内容的高度和宽度。

1明确个性化算法技术推送信息的推荐模型

《规定》要求网络信息内容服务平台不得利用个性化算法推荐技术传播违法信息,应当防范和抵制传播不良信息。同时,鼓励网络信息内容服务平台坚持主流价值导向,在使用算法进行个性化内容推荐时优化信息推荐机制,加强版面页面生态管理,在服务类型、位置板块等重点环节积极呈现正能量信息,不得在重点环节呈现不良信息。

2要求建立健全人工干预机制

建立健全人工干预机制,有助于网络信息内容服务平台进行不同类型素材的输入,保证信息内容的多样化,让人工也加入到信息内容分发的过程中,才能将优质的信息内容发布到平台上,同时也能够弥补算法无法判断信息内容所体现的价值倾向的弊端。

3要求建立健全用户自主选择机制

建立健全用户自主选择机制意义重大,人工智能等新技术的发展应当遵循以人为本的原则,基于算法的个性化内容推送也应当维护人类的自由和自主选择等基本权利,确保人机交互时人类的自我决定和主观能动性,防止人类成为算法的“奴隶”。

来源“CAICT互联网法律研究中心”微信公众号

中共河南省委网络安全和信息化委员会办公室 河南省互联网信息办公室  版权所有     联系我们
      邮编:450008   豫ICP备17047339号  技术支持:大河数字
  • 二维码手机站
  • 二维码微信公众号