林维 中国社会科学院大学副校长、教授
近期,韩国“N房间”事件爆发,即发生在2018年下半年至2020年3月间的一系列使用即时通讯软件Telegram进行的性剥削案件,在已知的受害74人中,有16名未成年女生,年龄最小的受害者年仅11岁。也有媒体爆出国内存在不少儿童色情网站,大部分内容为未成年女孩被性侵,还有部分未成年男性遭到猥亵,会员付费即可观看,堪称国内版n房间事件。而由“上市公司高管被指性侵养女案”引发出来的知乎、qq群儿童送养违法犯罪等热点事件爆出,涉及社交平台的未成年人保护议题成为社会舆论热点。
如何构建一套合理的制度架构来强化对隐蔽性极强的社交平台的未成年人保护,对1.69亿未成年网络原住民用户具有重大的意义。社交平台未成年人保护监管目前尚存不足,且社交平台通常会成为向其他网络服务领域进行导流的窗口,嵌入到未成年人行为的各个环节。因此,对社交平台未成年人保护的监管和风险防范,不可仅限于单一环节,而需要建构系统的规制框架,进行全面治理。具体而言,至少需要包括以下制度构成:未成年人用户身份识别、平台内内容的分类监管、隐私和个人信息保护、网络防欺凌、网络防沉迷以及通过强化网络社交监管积极预防涉未成年人网络犯罪六个角度。
一、未成年人用户身份识别
《网络安全法》第24条规定,网络运营者为用户提供信息发布、即时通讯等服务,在与用户签订协议或者确认提供服务时,应当要求用户提供真实身份信息。用户不提供真实身份信息的,网络运营者不得为其提供相关服务。尽管这一规定是网安法下平台对用户真实身份的查验义务,但对于未成年人保护这一特殊的价值取向,平台本应该更主动去识别未成年人用户身份,以在平台后续服务过程中能提供适合未成年人的保护,但目前社交平台的18岁注册门槛都没有采取实质性认证措施,有形同虚设之嫌。
通过媒体对多家社交软件注册过程的调查,尽管这些平台的用户协议中都以突出的方式提示未满18周岁的未成年人不得注册使用,但是对于年龄目前均是采取用户主动申报的方式,平台并没有进行实质性审核,未成年人用户很有可能通过虚报年龄完成注册。平台出于对用户和流量的追求,其缺乏足够的激励去禁止未成年人用户虚报年龄的行为,因此,在网络社交领域进行未成年人保护,亟需强化社交平台对用户的身份识别,如上传身份证、人脸比照、平台与运营商关于手机号年龄信息共享等。由于网络社交软件是目前未成年人接触陌生人的最重要途径之一,因此,需要从注册登陆源头防范未成年人社交风险,身份识别是最关键的启始环节,也是未成年人保护各领域目前来看较为薄弱的环节。
二、平台内容的分类强化监管
我国目前尚未建立统一的内容分类监管制度和落实机制,因此对谣言、低俗、色情等网络内容生态的建设,亦没有建立对成年人和未成年人群区分标准进行分层治理的机制。如网信办在19年12月29日发布的《网络信息内容生态治理规定》,强调了对于不利于未成年人身心健康的不良内容应当作为防治重点,但是,针对成年人和未成年人不同主体设置不同的内容治理规定和保护的具体机制,仍然有待在实践中逐步建立。这一现状导致的现象是,针对成年人的产品功能,有极大可能被未成年人普遍渗透,如媒体曾列举,陌生人社交、QQ扩列等功能,成人主体和未成年人主体共存在一个网络交友空间,为出现儿童色情、诱骗等恶性事件的发生提供了温床。
在对平台内容的分类监管上,探索平台内的产品功能分级监管对保护未成年人具有重大的价值。如在私密性的交互场景下(如陌生人社交、游戏或应用内的私聊功能),要求较强的实人识别机制,既要能够区分未成年人使用者的基本年龄段,也要能够规避未成年人使用成年人账号登陆规避监管的问题,在必要的场景下还需要实现未成年人与其成年监护人之间的关联。在无交互或弱交互的场景下(如社交平台内的网页浏览、自媒体文章、新闻、视频以及其他带有用户评论功能的应用服务等),重点在于对内容制作者与评论者所发布不良信息的监管。
三、未成年人隐私和个人信息的强化保护
研究表明,针对未成年人犯罪行为链条的源头,往往都可以回溯到未成年人隐私和个人信息的泄漏。近期人民网报道的部分不法分子利用疫情冒充老师收取学费等实施诈骗等新闻,究其源头,正是社交群组没有设置进群验证,导致学生及其家长的个人信息泄漏。
在目前未成年人身份缺乏平台实质性审核的前提下,强化社交平台对未成年人的隐私和个人信息的保护具有从源头防范涉及到未成年人的网络犯罪活动的重要意义。在未成年人用户使用陌生人社交产品、通过社交产品关联程序(如使用小程序订外卖)等具体场景下,对未成年人隐私和个人信息的强化保护可以通过如征求监护人同意等机制来发挥安全阀功能。
四、尚未引起重视的网络欺凌
2019年8月,山东临朐县公安局通报微信群传播未成年人欺凌视频一案,视频显示王某、郑某等受害人都是未成年人。社交平台中的网络欺凌现象需要受到舆论、监管和研究各层面的进一步重视。2018年6月,共青团中央、社科院与腾讯公司联合发布《中国青少年互联网使用及网络安全情况调研报告》,报告显示71%的未成年人遭遇过网络欺凌,主要形式包括嘲笑和讽刺、辱骂及侮辱性词汇、恶意图片及动态图、语言或文字恐吓等,其中首当其冲的场所就是社交软件、网络社区、微博等。
网络欺凌的治理离不开良好内容生态的培养。根据国外对于网络欺凌的研究表明,网络行为匿名化、网络内容的易复制性和永久留存性、实施欺凌人与被欺凌人网络话语权不对称以及学校社会等监管的难介入,都导致网络欺凌比传统欺凌更容易造成破坏力。这样,平台在对网络欺凌的治理中可能要承担更大的义务和责任,如要求网络服务运营者提供网络欺凌的举报渠道,受到网络欺凌的未成年人用户在通知平台后,平台应履行立即删除网络欺凌内容的义务等;平台应主动巡弋平台上的网络欺凌内容,采取必要的平台规则或处罚措施治理平台的内容生态。
五、社交平台成多种功能的导流入口,需要设置配套防沉迷措施
随着社交平台向内容平台、小程序购物平台、h5游戏平台、新闻聚合平台、直播平台、社区平台、支付平台等的融合,产品形态丰富带来的显著的网络效应,导致用户消耗在社交软件中的时间也越来越多。这种平台功能的融合使社交成为导流入口,而各种功能平台的流量相互加持形成辐射效应,使更多未成年人淫秽、低俗、欺诈等内容具有天然的动力去聚集,而违法犯罪分子也极有可能趁机去实施犯罪行为。
社交平台的未成年人防沉迷也应称为网络社交领域的未成年人保护制度的一环。2019年12月,南都新业态法治研究中心发布的《未成年人网络防沉迷监管现状与治理报告》指出,网络社交和网络文学两个领域的未成年人防沉迷仍是短板,缺乏监管机制。因此,可以考虑在社交软件内的视频、直播等提供青少年模式,采取有效措施防止未成年人用户出现沉迷现象。
六、通过强化网络社交监管积极预防涉未成年人网络犯罪
2019年12月20日,最高检第九检察厅表示,检察机关将会同相关单位共同协商研究,开展专项治理,推动加强对利用微信、QQ等网络社交软件实施强迫、组织卖淫等侵害未成年人犯罪活动的监管和打击,督促相关互联网企业加强对“涉黄”等敏感、违法信息及相关代号的筛选甄别,严格社交账号和实名制管理,进一步利用大数据完善对不良信息过滤、举报等功能,屏蔽违法犯罪信息流通渠道。
这一专项治理行动以来,对依法打击各种利用社交平台实施的涉及未成年人的违法犯罪活动起到了重要的作用。随着社交平台逐渐向新闻内容、游戏、直播、支付等各种功能平台的演化,加上目前各种涉及到未成年人的恶性犯罪事件频发,强化对社交平台,甚至各种网络平台的未成年人保护主体责任还需要从立法层面上来填补法律漏洞。目前《未成年人保护法》、《预防未成年人犯罪法》正在修订,未保法也首次增加了未成年人保护网络专章,在立法中,针对网络社交领域未成年人保护的上述议题进行探讨,建构体系化的、具有针对性和可操作性的未成年人保护和风险防范机制,可成为立法工作中积极回应现实、面向未来的开放态度的重要体现。
京ICP备13018232号-3 | 互联网新闻信息服务许可证10120230016 | 增值电信业务经营许可证京B2-20203552
信息网络传播视听节目许可证0110425 | 广播电视节目制作经营许可证(京)字第10541号
网络出版服务许可证(京)字第181号 | 出版物经营许可证京零字第220018号 | 京公网安备11010702000076号
网站违法和不良信息举报电话:010-8642 3089