如何守护孩子的信息安全
我们期待,在顶层设计之下,能够切实多方合力,营造健康、文明、有序的网络环境,抵御不良侵害,为未成年人提供更多的成长力量。
常菲
近日,一款名为“小肚皮”的App软件在众多家长之间引起了轩然大波。起因是一名家长发现家教机里这款定位为“超好玩的00后小窝”的社交聊天软件里竟含有不适合孩子观看的“成人内容”。
目前“小肚皮”软件已经紧急下架,开发者表示问题“可能是审查疏忽导致”,受制于机器识别的算法水平,难免有内容的“漏网之鱼”,而人工处理又需要时间。从安卓系统的应用商店显示,该App下载量为657.3万,面对如此庞大的用户群体,“审查疏忽”的解释显得过于苍白无力,针对未成年群体的内容审核,我们更应该破除技术依赖,协同多方力量,打造风清气正的内容生态。
据共青团中央维护青少年权益部、中国互联网络信息中心(CNNIC)联合发布的《2019年全国未成年人互联网使用情况研究报告》显示,2019年我国未成年网民规模为1.75亿,未成年人互联网普及率达到93.1%。互联网对于低龄群体的渗透能力持续增强,32.9%的小学生网民在学龄前就开始使用互联网。
目前市场上针对未成年人的网络信息产品和服务越来越多,包括早教、游戏、社交等等不一而足,此类网络信息范围广、种类多。由于目标群体的特殊性,相关网络内容监督管理和针对性保护机制应具有更高的要求。
杜绝违禁内容的出现是未成年人网络生态治理的首要要求。未成年人正处在探索世界的关键阶段,充满了十足的好奇心,而且辨别能力不足,甚至因为“不禁不为”“愈禁愈为”的逆反心理,对此类违禁内容具有更多的探索欲望。自我约束能力在面对这些信息时,有时较难起到作用。如果在同伴之间传播开来,衍生的话题性和分享感更是会加速传播的进程。只有从根本上斩断违禁内容生产和传播的链条,才能更好保护未成年人免受毒害内容的侵蚀。
人工审核的协同是处理违禁信息的关键。机器识别作为一种更高效、成本更低的审核方式,已经成为互联网内容安全审核的主力。但我们无法否认的是,目前的机器识别水平对于很多内容来说审核难度过大,且识别效果不准确,因此,我们不能对机器算法抱有过高的期待,必须要加强人工审核力度、提高审核标准。
家庭的引导和监督是内容安全防护不可或缺的一环。作为网络原住民的00后一代几乎可以无师自通地学会上网,但他们缺少的是必要的网络风险识别能力。很多父母经常用一部手机来让“熊孩子”们安静下来,但是也很容易让他们暴露于网络空间的危险之中。因此,即使是玩手机,父母的陪伴和引导也同样不可缺席。
正在审议中的未成年人保护法特别提出了针对未成年人的网络保护,专家建议在第六十四条中增加完善针对未成年人的网络信息产品和服务的准入制度,加强对网络信息产品和服务的监管。我们期待,在顶层设计之下,能够切实多方合力,营造健康、文明、有序的网络环境,抵御不良侵害,为未成年人提供更多的成长力量。