新闻频道首页
首页 > 新闻频道 > 社会 > 正文


算法关闭键上线,我们需要怎样的“个性化服务”

时间:2022-03-18 08:10:49   来源:中国青年报

[导读]如今,算法早已经成为大众耳熟能详的名词。随着网络与生活的融合程度日益深化,无论是社交媒体的广告推送,还是电商平台上的购物推荐,背后...

如今,“算法”早已经成为大众耳熟能详的名词。随着网络与生活的融合程度日益深化,无论是社交媒体的广告推送,还是电商平台上的购物推荐,背后都离不开算法的支持。互联网企业通过抓取用户数据,依照用户画像提供定制化信息、娱乐、消费服务,一方面为用户提供了更加“个性化”的使用体验,另一方面也为企业带来了更多利润,看起来似乎是“双赢”的好事。然而近年来,公众对企业抓取用户隐私的的担忧日渐加深,“大数据杀熟”“信息茧房”等次生问题,也引发舆论关注。

  近日,抖音、微信、淘宝等多款App均已上线算法关闭键,允许用户在后台一键关闭“个性化推荐”的功能。关闭推荐后,App将不再根据用户的浏览记录生成推荐内容或广告。这是《互联网信息服务算法推荐管理规定》正式实施后,互联网企业自查自纠的重大举措之一。政府与社会监管的介入,既能让公众看不见、摸不着的算法“黑箱”透明化,也让算法更好地为大众利益服务。

  互联网的高速发展,为大众带来了前所未有的海量信息,个人如何在不断涌入的庞大信息中收集自己需要的部分,是互联网时代的独特难题。算法推荐能根据用户喜好与需求精准提供服务,为用户节约搜集、筛选信息的时间。从这个角度上看,算法并非洪水猛兽,有其存在的独特价值。

  然而,问题的症结在于,互联网企业的算法推荐机制基本都是“黑箱”。在应用过程中,用户既不能选择是否使用这项服务,也无从得知算法收集了什么个人信息,更不知道算法推荐的逻辑与规则是什么。许多人在不知情的情况下被收集大量隐私,甚至因此被“宰”。此外,算法推荐与互联网服务牢牢绑定,使得在很多情况下,拒绝算法等于拒绝服务,这也剥夺了消费者的自主选择权,让他们只能被迫接受算法对隐私的窥视,坐视自己的合法权益受到损害。

  算法一旦被过度滥用,不仅会侵害个人权益,也可能对公共空间造成负面影响。当社交媒体、新闻平台完全按照个人喜好筛选并推荐信息时,“信息茧房”也会加速形成。用户终日被包裹在同类信息中,与同立场的人抱团而拒斥其他信息,自然会成为一个个“孤岛”,最后导致网络不再是交流沟通的桥梁,而沦为不同群体互相攻讦的空间。

  算法推荐造成的困境,让我们不得不深入思考“个性化”的内涵。今天的“个性化”服务,本质上是一种被动的“个性化”。用户只能被动地接受算法推荐,被动地让算法收集自己的数据,被动地让算法告诉自己什么是自己需要的、喜欢的服务与信息,最终被框在“舒适区”中难以逃脱。在这样的“个性化”之下,算法推荐变成了一种“驯养”用户的手段。而用户真正需要的“个性化”,应该是主动的“个性化”。用户应该能主动选择是否使用算法,在了解算法推荐规则与逻辑的前提下,定制自己需要的服务,并且知道算法推荐筛选掉了什么内容,以此突破“信息茧房”,接触不一样的世界。归根结底,算法推荐应该成为用户的工具,而不是套在用户头上的枷锁。

  1987年9月20日,中国首次成功发送电子邮件,它的内容是“越过长城,走向世界”。互联网科技的进步应该让人更便利、更自主、更自由,让企业在算法上的设置更加透明,赋予用户更充分的选择权和知情权,才能让真正的“个性化”成为互联网的未来。
编辑:zmh

关键字:

声明:网上天津登载此文出于传送更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供网友参考,如有侵权,请与本站客服联系。信息纠错: QQ:9528213;1482795735 E-MAIL:1482795735@qq.com