• 被微博屏蔽
    用户头像

    梵一

    短视频平台(以及其它平台)算法,是一种分配供给流程。它在客观上导致三个方面的趋势:1、你看到的:以流量为中心,倾向推荐高流量内容,而不是高质量内容或多元内容,高流量内容往在操纵人的情绪,尤其在优质内容被大量和谐情况下,这些高流量内容替代了有价值内容空出的位置。所以,谣言极易控制情绪,但澄清的信息由于“无趣”很难传播。2、你不断看到的:当你观看一条高流量极端内容,算法会给你推荐相似内容。由于算法是隐形的分配流程,普通人没有意识去感知算法推荐。在这种情况下,你看到越来越多关于同一件事的讨论,你以为你看到的事到了不可不解决的地步,便会产生激烈情绪,情绪将战胜你的理智。算法会给你制造一座专属于你的信息茧房。3、你和你的同类看到的:越来越多人拥有相似的茧房,再通过分享、留言机制,茧房主人找到彼此,并形成“算法➡️茧房➡️广场”传导链条,你将找到与你持相似情绪的同伙,你们会一起被情绪战胜理智,然后形成极端舆论。所以在这个过程里,也有三个事情必须确认:1、算法不是一种科技,而是一种制度。算法的核心是对信息资源的垄断,对信息资源的分配和供给。每个用户都是目标消费者,是被动的。所以质疑算法并不是捡软柿子捏,算法不是软柿子。科技是工具,但算法不是。2、普通人更多是被动的。舆论是反映人心的,这话不假,所有极端来自于人心,但极端能证明本地普通人心灵不及其他地方的人吗?不可以的。若少了别有用心的挑动,极端很难自发成为潮流。用常识想想吧,谁不愿意生活稳定呢,又是什么让人放弃生活追逐极端?所以极端虽来自人心,但不能反映人心。3、认识房间大象固然重要,但认识大象的鼻子、尾巴和腿同样重要。当你面对一个大象,大象之大可能让你失去行动力,但当你面对一只象腿,某种程度你就知道你该怎么行动(比如躲避它、抱住它、抵制它、割掉它)。如果当你面对象腿时,有人总是提醒你面对的是整个巨大的大象,你将产生恐惧。恐惧是算法制造极端过程中伴生的衍生品,这种衍生品才是一切背后真正发挥作用的东西。收起
    展开全文
    原微博