Serendipity

偶得

2025.12.31

持续不断记录,意义自然浮现。

写作是思考的延伸。当我们把脑海中模糊的想法转化为文字时,我们被迫去厘清逻辑、填补空白、面对矛盾。这个过程本身就是一种深度学习。

「我不知道我在想什么,直到我读到我写的东西。」—— Flannery O’Connor

思考
2025.12.28

可得性偏差

例如,政策研究者就曾注意到,可得性启发式有助于解释为什么某些问题能引起公众的高度关注,而另一些问题却被忽略了。人们往往根据记忆中最易提取的问题来评估事情的重要性,而这在很大程度上取决于媒体的报道热度。媒体上常见的话题占据了我们的思维,其他问题则从我们的意识中溜走了。反过来,媒体追踪公众近期的关注热点,这些热点又成了报道的主题。

在《思考,快与慢》这本书中,丹尼尔·卡曼尼提出了一个认知陷阱:我们用「能不能轻易想起来」来判断重不重要,但这本身就是一个人类认知上的 bug:容易回忆 ≠ 真的重要,而媒体/算法恰好掌握了「什么容易被回忆」的开关。

例如最近男女矛盾议题愈演愈烈,我相信每一个冲浪比较多的男同胞都能不带重样的说出三个以上的"极端女权"案例,从"清华学姐/胖猫/武大 xx"到各种婚恋纠纷中的舆论偏向。这些案例在脑海中如此鲜活,以至于我们很容易形成一个印象:女性群体正在系统性地获得不公平优势,而男性正在成为受害者。

而我当然也相信每一个正常上网的女同胞也能轻易列举出同样多甚至更多的案例:职场/生活性骚扰、家暴致死、"完美受害者"的苛刻审视、彩礼争议中的污名化……这些案例同样鲜活,同样令人愤怒,同样支撑着一个镜像的结论:女性才是真正的弱势方,而男性掌握着话语权却在扮演受害者。

双方都觉得自己在"对抗主流叙事",都觉得对方的声音铺天盖地而自己在夹缝中发声。我们各自的信息茧房精准投喂了各自最容易被回忆的素材,然后我们都用这些素材去推断整个世界的样貌。算法不关心真相,它只关心点击率;而愤怒,恰好是点击率最可靠的燃料。

于是我们陷入了一个诡异的循环:越愤怒,越点击;越点击,算法越推送同类内容;看得越多,可得性越强;可得性越强,越确信自己的判断正确;越确信,越愤怒。

当然这有些扯远了,我只是想说我们对世界的认知正在被一个闭环系统所塑造:媒体/算法决定什么被看见,被看见的东西变得容易回忆,容易回忆的东西被认为重要,被认为重要的东西又反过来引导媒体继续报道。

由此,整个舆论场就进入了一个议题上的正反馈循环:

媒体报道 → 公众记住 → 公众认为重要 → 媒体继续报道 → ...

一旦形成循环,议题就会自我强化;进不了循环的议题则彻底沉默。

但问题在于,这个循环的入口极窄。一个议题要进入公众视野,首先得被媒体选中;而媒体选题的逻辑,往往偏向于那些已经具备「可回忆性」基础的话题——要么足够戏剧化,要么与既有热点挂钩,要么能调动强烈情绪。那些缓慢发生的、复杂的、缺乏冲突感的问题,天然不具备这种优势

于是我们看到一个吊诡的现象:真正影响深远的议题,往往是那些不够「抓眼球」的——地方债务危机、基层医疗资源的长期错配、乡村养老保障体系逐渐完善背景下城市老人的养老难问题……这些结构性的阵痛因为缺乏戏剧性/过于系统性沉重导致它们在认知层面输给了更具冲击力的个案新闻,尽管从后果来看,前者的重要性可能高出几个数量级。

如果「重要性」的判断本身就被污染了,那我们基于这种判断做出的所有决策——无论是个人的还是集体的——又有多可靠?

社会学
2024.12.28

关于 AI 的一点思考

最近在用各种 AI 工具的时候,突然意识到一个问题:我们是在用 AI 来增强自己的思考,还是在用 AI 来替代自己的思考?

这两者的边界其实很模糊。当我让 AI 帮我整理思路的时候,我是在借助工具,还是在偷懒?

也许关键不在于用不用 AI,而在于用完之后,自己有没有真正理解和内化那些内容。

AI思考
2024.12.25

读书的时候发现一个有趣的现象:有些书读完之后会觉得"我早就知道这些",但其实在读之前根本没有系统地想过这些问题。

这大概就是好书的作用——把你模糊的直觉变成清晰的认知。

读书
2024.12.20

冬至。

一年中最长的夜晚,但从明天开始,白天会一点点变长。

很多事情大概都是这样,在最黑暗的时候,转机已经悄悄开始了。

生活