防止算法推荐成为窥私“木马”

时间:2022-03-04 09:14:09       来源:中国青年报

陈之琪 来源:中国青年报 ( 2022年03月04日 08 版)

只要“网络一线牵”,“算法”就能运用信息数据为用户“悬丝诊脉”。大数据算法精准智能的“私人定制”,在提供高效率数字服务的同时,也让人产生信息安全的隐忧。近日发布的《中国大安全感知报告(2021)》显示,网络个人隐私是民众当下最为关注的安全问题,有七成受访者感到自己被算法“算计”,近五成受访者在算法束缚下想要远离手机。

大众所言的“网络安全感”与其“自我掌控感”相关,在算法“无处不在”的当下,刚和朋友说了想吃什么,之后打开外卖软件就发现相应商家信息;出于好奇点进一条新闻,软件就一直推送类似消息;人走到哪里,点评软件就能替自己把周围的吃喝玩乐先摸个遍……有网友吐槽说,一些App算法已经延伸到“通讯录、相册,甚至偷偷录音、拍照,上过的网站,搜索记录,人际关系、家庭关系”。

许多用户为求便捷,也只能“任由”算法挖掘个人信息——即使具备网络安全意识、察觉到自己被“算计”,也缺乏重获“自我掌控感”的渠道和手段。软件算法如此“贴心”,却让人不够“放心”。

“整个人会感到一种巨大的羞耻和空虚。”据媒体报道,有用户表示,当自己发现短视频软件不停“投喂”大量纯消遣娱乐信息时,他的确被吸引、忍不住“一刷就是几小时”,但内心一股“耻感”也一直纠缠着他,让他认清自己正在“快餐式”娱乐中消磨时光。这个角度上讲,让用户感到失去“自我掌控感”的不只是个人信息安全,还有那些本能够被适当克制的欲望和想法。

“定制就容易产生滥用”,算法滥用的后果往小了说会损害个人权益,往大了讲则可能危害国家安全。有学者提出,网络安全、数字安全是托起数字文明的底层逻辑。数字时代也必须“以人为本”,算法推荐服务提供者只有坚守“道德准线”,才能为用户信息安全“兜底”;技术应当为用户提供恰当帮助,而不是纵容甚至诱导用户逐渐走向沉迷。如若“道德准线”不存,用户必然流失,数字技术也就如沙上建塔。

目前,网络安全作为一大新型安全领域已经越发引起社会广泛关注,相应的法律监管政策也在持续完善。同时需要认识到,在数据算法的“技术前线”持续“超速”向前推进时,网络安全领域法律政策的出台的确存在一定滞后,亟待完善补足。去年施行的个人信息保护法、明确指出,“自然人的个人信息受法律保护,任何组织、个人不得侵害自然人的个人信息权益”,为身处网络空间的社会大众立下一面盾牌。而今年3月1日起新施行的《互联网信息服务算法推荐管理规定》,则让用户把握住算法推荐技术的“剑柄”,让公众更有网络时代的“自我掌控感”。

算法推荐能为社会大众提供便捷,是大数据时代的一种技术馈赠,而绝不能使之成为肆意窥探个人隐私的“特洛伊木马”。只有社会各方时刻遵守现有的“法律红线”、坚守内心的“道德准线”,我们才能在数字时代的“技术前线”不断寻求发展与突破。

2022年03月04日 08 版

关键词: 网络安全 个人信息