好资源和短想法
全局 AI Copilot

现在 AI Copilot 越来越舒服,响应也很快,成熟太多了。图示是我使用 Glarity AI 在 RemNotes 中处理一些单词和内容记忆,比起 RN 自带的 AI 舒服很多。记忆的本质在我看来是神经连接,刻录和提取过程,AI 在辅助记忆过程中可以与你对话和提供各种意义连接,更多的触发神经亮区,达到记忆效果。

之前都介绍过,不过这种全局 AI Copilot 目前确实非常实用了。弥补了太多软件没有加持 AI 的不足,尤其常用工具和笔记软件,划取使用体验极好。搜索、解释、翻译、总结,太多工作流程中的轻量 AI 使用场景,而这就是全局副驾驶的功能作用。加上条,目前我阅读系统、记忆系统都可以很好的融入这些,但真正写作和处理文本时,GPT3.5 API 很受限,深度补充/思考发散/溯源求证都需要更好的模型,这个时候直接用 GPT4 和 Perplexity 会好很多,多模型交叉使用和佐证是使用 AI 条例之一。

目前体验最好的个人感觉还是 Glarity,非常干净优雅,以前分享过的 Sider/ Monica 现在也非常强了,功能都非常丰富,比如全局输入框调用(我之前叫做 Notion AI 系插件),现在基本都有,按需使用。

相关链接
0 通用生产流范式(General Workflow Paradigm)
1 AI 影响我阅读文章的方式
2 阅读输入工具的 Combo丨翻译、总结、全局和 AI
3 Chat-GPT 全局网页侧边栏插件丨调用重器

#AI #RSS #SRS #TfT
Readwise Reader + Glarity

目前最舒服的阅读方式,文章、书籍、视频,爆炸好用。信息处理比信息阅读更重要,这是我热爱技术的原因。#TfT
但是,我更擅长处理和培育。

这是我 5 座笔记花园,现在最坚固的核心笔记系统,如同我「通用生产流范式」一样稳固。

更重要的,我现在专注 Intelligence Amplification(智能放大)概念,将 AI 协助「思考」处理为 Synthesis Notes(整合笔记),我更想称它为「综述笔记」,它只辅助建议/补充/综述,而不侵入我的文本表达,即表达方式和润色。当然你现在能学到太多借助 AI 快速写作的方式,只提供想法,AI 侵入文本为你表达。这是去灵魂的写作,不过好的写作本来就少,所以 AI 足以广泛被滥用。

其它几个笔记以及我提到的 Instant Notes 不再介绍,都是被检验过的内容。而这里我新提到基于 AI 的 Synthesis Notes,你需要注意:它是笔记,不是作品,它只是工具,而非思考本身。基于这点,我们才能谈 IA 智能放大方式,谈好的写作。

#PKM
一个软件工程师的 2023 电子 DIY 总结

📜 分享这篇万字长文「一个软件工程师的 2023 电子 DIY 总结」给大家~

🧰 这篇文章是由 JiWei 做的 2023 DIY 综合总结。文章涵盖了他复制和创造的各种项目,提供了他的学习过程和面临的挑战的洞见。这些项目涉及简单到复杂不等,包括硬件编程、电路设计和各种技术集成

频道:@RollerRolling 万字长文,一个软件工程师的 2023 电子 DIY 总结
最近几天都在读这篇文章,作者是大名鼎鼎的 Stephen Wolfram,就是创建数学软件 Wolfram 的那位。

此文从 GPT 开始谈起,实际上回溯了神经网络的主线发展历程,从最基础的权重计算,讲到 n-grams 最终到 transformer 的 attention 机制。
虽然我多年前就学习过神经网络,但是有很多细节更多的是知其然不知其所以然,这篇文章读来让我有醍醐灌顶的感觉,把关键的部分的意义都讲清楚了。

作者还很清晰地阐述了神经网络的几个天然局限,这是人脑能轻松做到而神经网络只能望洋兴叹的:

1. 神经网络不是图灵机,没有计算能力,无法准确地完成任何计算步骤
2. 世界是无穷复杂的(irreducible computation、NP 复杂度),而人类的理论都是简化的近似。AI 只能通过人类的简化理论来学习。

但是这些局限并不是不可逾越的,比如 function calling 就赋予了 AI 图灵机的能力。

关于第二点,涉及到 Polany's Paradox,人类无法描述世界的复杂性。这至少有两个理解方式:

1. 人类的语言没有客观标准,其意义由社会共识所决定
2. 世界的复杂性无法被理论描述

所以,GPT 的成功,实际上并不预示着计算能力的重大进步,而是人类能力的“巨大退步”。GPT 用事实证明了人类的语言能力并不是 irreducible computation,而是背后存在一些简单的规则,而且这个规则被 GPT 学会了。

然而作者也提到,GPT 的技术进步某种程度上只是无数人不断尝试的结果,人们发现通过一些设计能得到更好的结果。但是为什么要这么设计,GPT 是如何理解的?人们仍然一无所知。与其说人们发明了 GPT,也许说人类发现了 GPT 更为合适。

作者还试图构建一个大一统的计算语言,来抽象一切的事物,同时赋予 GPT 可解释性。我直观上觉得,这是否就是当年罗素的分析逻辑?

整理了一篇博客文章: https://blog.laisky.com/p/what-is-gpt/
原文笔记: https://laisky.notion.site/What-Is-ChatGPT-Doing-and-Why-Does-It-Work-6d390e2e44eb40498bd8b7add36bcc94?pvs=4 What is GPT and Why Does It Work?