词汇量决定知识量 -#22

分享我近期的收获,包括软件工程、笔记工具、词汇量对于知识量的影响

词汇量决定知识量 -#22
Photo by Amanda Jones / Unsplash

这是 GeekPlux Lab 第二十三期,每期都会同步发布在我博客周刊页面。目前已经有 2587 个同学订阅了本周刊,也欢迎你邮箱订阅,可以第一时间收到更新推送。


这周我来分享我最近的一些收获。

文档先行

这两周的工作异常顺利,因为基本上都在写代码,而前几周则在不停的梳理需求和整理文档。这次的任务我是文档先行,在文档中把技术方案和可能性都列出来后交给小组 review,通过多次讨论、不断整理出各种边界情况后,再逐一列出解决方案。最后觉得几乎能想的都想到之后才开始写代码,编码体验几乎是一马平川。

文档先行还有几个好处是:

  • 在编码结束需要提供文档(包括各种架构图)的时候,直接就有现成的,只需要略微修改措辞和概述
  • 因为经过小组多次讨论,所以全小组都做到了 knowledge share,每个人都知道这个项目怎么回事,为什么要这么设计,上下文很清晰
  • 因为大家都知道项目的上下文,所以 code review 顺畅无比
  • 整个文档的修改过程,就是初版的 CHANGELOG

其实这才是学生时代课本中讲到的软件工程方式,但这么多年鲜有实践的机会。在整个项目做完之后,我把项目概述、文档总结、codebase、项目管理条目、OKR 条目等一并整理发给老板,感觉他很满意。我也是从今年开始着重开始思考一个程序员和一个工程师的区别,可能前者像一个泥瓦匠,而后者更像一个建筑师。为此我最近也在阅读一些相关的书籍以及文章,这里推荐:

其实我读过且认为不错的文章都会在我的 wiki page What I read Daily 中列出,之后不再赘述。

工具原则, second brain, Logseq

我曾在 Twitter 上大放厥词:

也写了第十一期用纯文本作效率软件。其中提到我用 Logseq,但一直以来我除了读过官方文档之外,没有仔细和深入地研究 logseq 的功能,直到这周。

不过我使用工具的原则一直是能用默认配置就用默认配置,因为这样才能做到无论在哪都能开箱即用。不知道是从什么时候开始顿悟,不再折腾,不再浪费时间追求所谓最佳实践,而是转向了“不加雕琢”地使用工具。每次遇到新工具我也不免去尝试,但其默认功能如果不能补齐或超越我现有的工具矩阵,我就不会选择它。比如 Notion,我一直用不起来,它本质上是一个 database,但设计得过于复杂,它默认的功能我用 Excel 可以做到更好,而且 Excel 耕耘多年的交互方式和广泛生态完全是 Notion 无法望其项背的。比如 Google sheet 可以结合 Google Studio, Google Form 直接做一个 dashboard 出来,还可以一键生成很多形式的 APP 等。

我对于 All in one 概念的工具都不看好,因为这是个伪概念,没有相同的人类,没有完美的世界,也就没有完美的工具,你永远需要其他工具来满足个人的行事风格。既然如此,我们何必执着于工具的多寡与优劣,更重要的应该是适合自己,以及它能沉淀出的数据。

扯远了,说回到 Logseq,它们最近官方出了一个 newsletter,主要讲一些新功能的介绍、小技巧以及别人的使用经验。我特地花了一个晚上研读,吸收了一些符合我个人工具原则的经验,比如:

  • template 和 query 这类减少重复劳动的功能
  • backlink 这类性价比很高的技巧(随手添加,自动关联,有利于增强整个 second brain 的 connection)

我认为就很值得熟练掌握,而对于:

  • 复杂的信息采集流程(mark 了的东西不会看,要看就现在看完)
  • 复杂的排版流程(排版不需要用在输出以外的阶段,你脑中的知识有专门排版过吗?)
  • 复杂的结构体系(神经元与突触可没有分层结构,随机且无序的 tag + search 才是最符合人类思维的)

我都嗤之以鼻。所以我目前使用 logseq 的流程很简单:

  • 每天都 journal 写自己读了什么,发现了什么 (提前做了简单的 template)
  • 每个条目加好 backlink 或 tag(没加也无所谓,关键词搜索照样能搜到,搜不到也没有什么心智负担,说明这篇文章没给自己留有很深的印象)

想要查询的时候,通过 search 或 query 来查看。我的 wiki 就是导出之后的效果,之后会尝试多写一些 review,因为在官方 newsletter #6 中提到了一个 GPT-3 plugin,基于 GPT-3 OpenAI 实现…可以帮忙写作…之后希望它能帮我顺便写 newsletter。

词汇量决定知识量

周末晚上临睡前开始看一篇文章 Vocabulary as a Meta Mental Model,看得我有点兴奋。其实我自己也多次说过:“术语是一个领域的入门门槛”,但作者 Neil 更直接,直接把术语拓展成了词汇量,把领域拓展成了“Meta Mental Model”。不过我觉得可能还不止是 Mental Model,而是整个知识量。

整篇文章娓娓道来,引人入胜。 作者先引出当我们不知道一个专有名词时,是不知道如何描述一组行为的。比如我自己在早年知道了很多效应的概念:马太效应、破窗效应、青蛙效应、鸟笼效应、羊群效应等,这些名词可以很简短地描述一类行为。其实很多时候,不是因为你知道这个行为是某个效应而记住那个名词,而是因为你知道了这个名词所以你掌握了这类行为的概念。

因此,知道某个词汇像是知道了一组知识的索引或框架,能大致的让你摸索到知识的抓手,这有点一个模式匹配的过程。知道一个词汇,会帮你把知识从“你不知道你不知道”移到“你知道你不知道”,这是个很大的进步。当你知道的词汇越多,你连点成线的能力就越强。任何语料,包括术语、谚语、成语、网络用语等其实都是对一组行为或知识的抽象,当你掌握的越多,对内这些语料交叉重合的面越多,对外则和别人建立的共同语料越多,从而构建出的整个知识体系就越完善。

推荐你也去读这篇文章,然后分享自己的读后感。

本文一气呵成,不知所云,下期再见。


往期推荐:

声明:本文出自作者,不代表任何机构或公司,亦不构成投资建议。

你可以在这里找到我:微博 - Twitter @GeekPlux

也可以加入 Telegram 群组 聊天讨论。

这里是 GeekPlux 的 newsletter,欢迎订阅,如果觉得这篇文章对你有用,可以分享给好友或请我喝杯咖啡。👇

Subscribe to GeekPlux Letters

Don’t miss out on the latest issues. Sign up now to get access to the library of members-only issues.
jamie@example.com
Subscribe