好资源和短想法
用最低限度的开始,给自己最大的养成空间 [by 北鸮]
https://sspai.com/post/78434
https://sspai.com/post/78434
整理假期拍摄的照片之前,不妨读读这些关于摄影的技巧和理论 [by 少数派编辑部]
https://sspai.com/post/75837
https://sspai.com/post/75837
新年新开始:从为什么到写什么,带你重新认识日记 [by Lars漫步]
https://sspai.com/post/86356
https://sspai.com/post/86356
▶️ 台灣團隊闖入矽谷最強加速器!Heptabase 是如何做出世界級筆記軟體的?ft. 詹雨安 |EP054|強者我朋友|志祺七七Podcast #youtube
https://www.youtube.com/watch?v=BBPAc5Dy9EQ
https://www.youtube.com/watch?v=BBPAc5Dy9EQ
#数据库
我司小伙伴的文章最近频繁上Hacker news热门区,这一次是 https://news.ycombinator.com/item?id=39176797
中文版:《当我谈查询优化器时,我谈些什么 (1)—— IR 设计》
英文版:《What I Talk About When I Talk About Query Optimizer (Part 1): IR Design》
我司小伙伴的文章最近频繁上Hacker news热门区,这一次是 https://news.ycombinator.com/item?id=39176797
中文版:《当我谈查询优化器时,我谈些什么 (1)—— IR 设计》
英文版:《What I Talk About When I Talk About Query Optimizer (Part 1): IR Design》
全局 AI Copilot
现在 AI Copilot 越来越舒服,响应也很快,成熟太多了。图示是我使用 Glarity AI 在 RemNotes 中处理一些单词和内容记忆,比起 RN 自带的 AI 舒服很多。记忆的本质在我看来是神经连接,刻录和提取过程,AI 在辅助记忆过程中可以与你对话和提供各种意义连接,更多的触发神经亮区,达到记忆效果。
之前都介绍过,不过这种全局 AI Copilot 目前确实非常实用了。弥补了太多软件没有加持 AI 的不足,尤其常用工具和笔记软件,划取使用体验极好。搜索、解释、翻译、总结,太多工作流程中的轻量 AI 使用场景,而这就是全局副驾驶的功能作用。加上条,目前我阅读系统、记忆系统都可以很好的融入这些,但真正写作和处理文本时,GPT3.5 API 很受限,深度补充/思考发散/溯源求证都需要更好的模型,这个时候直接用 GPT4 和 Perplexity 会好很多,多模型交叉使用和佐证是使用 AI 条例之一。
目前体验最好的个人感觉还是 Glarity,非常干净优雅,以前分享过的 Sider/ Monica 现在也非常强了,功能都非常丰富,比如全局输入框调用(我之前叫做 Notion AI 系插件),现在基本都有,按需使用。
相关链接
0 通用生产流范式(General Workflow Paradigm)
1 AI 影响我阅读文章的方式
2 阅读输入工具的 Combo丨翻译、总结、全局和 AI
3 Chat-GPT 全局网页侧边栏插件丨调用重器
#AI #RSS #SRS #TfT
现在 AI Copilot 越来越舒服,响应也很快,成熟太多了。图示是我使用 Glarity AI 在 RemNotes 中处理一些单词和内容记忆,比起 RN 自带的 AI 舒服很多。记忆的本质在我看来是神经连接,刻录和提取过程,AI 在辅助记忆过程中可以与你对话和提供各种意义连接,更多的触发神经亮区,达到记忆效果。
之前都介绍过,不过这种全局 AI Copilot 目前确实非常实用了。弥补了太多软件没有加持 AI 的不足,尤其常用工具和笔记软件,划取使用体验极好。搜索、解释、翻译、总结,太多工作流程中的轻量 AI 使用场景,而这就是全局副驾驶的功能作用。加上条,目前我阅读系统、记忆系统都可以很好的融入这些,但真正写作和处理文本时,GPT3.5 API 很受限,深度补充/思考发散/溯源求证都需要更好的模型,这个时候直接用 GPT4 和 Perplexity 会好很多,多模型交叉使用和佐证是使用 AI 条例之一。
目前体验最好的个人感觉还是 Glarity,非常干净优雅,以前分享过的 Sider/ Monica 现在也非常强了,功能都非常丰富,比如全局输入框调用(我之前叫做 Notion AI 系插件),现在基本都有,按需使用。
相关链接
0 通用生产流范式(General Workflow Paradigm)
1 AI 影响我阅读文章的方式
2 阅读输入工具的 Combo丨翻译、总结、全局和 AI
3 Chat-GPT 全局网页侧边栏插件丨调用重器
#AI #RSS #SRS #TfT
但是,我更擅长处理和培育。
这是我 5 座笔记花园,现在最坚固的核心笔记系统,如同我「通用生产流范式」一样稳固。
更重要的,我现在专注 Intelligence Amplification(智能放大)概念,将 AI 协助「思考」处理为 Synthesis Notes(整合笔记),我更想称它为「综述笔记」,它只辅助建议/补充/综述,而不侵入我的文本表达,即表达方式和润色。当然你现在能学到太多借助 AI 快速写作的方式,只提供想法,AI 侵入文本为你表达。这是去灵魂的写作,不过好的写作本来就少,所以 AI 足以广泛被滥用。
其它几个笔记以及我提到的 Instant Notes 不再介绍,都是被检验过的内容。而这里我新提到基于 AI 的 Synthesis Notes,你需要注意:它是笔记,不是作品,它只是工具,而非思考本身。基于这点,我们才能谈 IA 智能放大方式,谈好的写作。
#PKM
这是我 5 座笔记花园,现在最坚固的核心笔记系统,如同我「通用生产流范式」一样稳固。
更重要的,我现在专注 Intelligence Amplification(智能放大)概念,将 AI 协助「思考」处理为 Synthesis Notes(整合笔记),我更想称它为「综述笔记」,它只辅助建议/补充/综述,而不侵入我的文本表达,即表达方式和润色。当然你现在能学到太多借助 AI 快速写作的方式,只提供想法,AI 侵入文本为你表达。这是去灵魂的写作,不过好的写作本来就少,所以 AI 足以广泛被滥用。
其它几个笔记以及我提到的 Instant Notes 不再介绍,都是被检验过的内容。而这里我新提到基于 AI 的 Synthesis Notes,你需要注意:它是笔记,不是作品,它只是工具,而非思考本身。基于这点,我们才能谈 IA 智能放大方式,谈好的写作。
#PKM
仰卧起坐脖子疼?聊聊如何找对健身发力感 [by 阿帅的健康笔记]
https://sspai.com/post/86361
https://sspai.com/post/86361
做好新年计划,你可以先从制定年度预算开始 [by ErMuss]
https://sspai.com/post/86327
https://sspai.com/post/86327
真情侣,不记账:用支付宝荷包 + 飞书多维表格建立消费记录与分析系统 [by 中杯冰拿铁]
https://sspai.com/post/86274
https://sspai.com/post/86274
一个软件工程师的 2023 电子 DIY 总结
📜 分享这篇万字长文「一个软件工程师的 2023 电子 DIY 总结」给大家~
🧰 这篇文章是由 JiWei 做的 2023 DIY 综合总结。文章涵盖了他复制和创造的各种项目,提供了他的学习过程和面临的挑战的洞见。这些项目涉及简单到复杂不等,包括硬件编程、电路设计和各种技术集成
频道:@RollerRolling
📜 分享这篇万字长文「一个软件工程师的 2023 电子 DIY 总结」给大家~
🧰 这篇文章是由 JiWei 做的 2023 DIY 综合总结。文章涵盖了他复制和创造的各种项目,提供了他的学习过程和面临的挑战的洞见。这些项目涉及简单到复杂不等,包括硬件编程、电路设计和各种技术集成
频道:@RollerRolling
最近几天都在读这篇文章,作者是大名鼎鼎的 Stephen Wolfram,就是创建数学软件 Wolfram 的那位。
此文从 GPT 开始谈起,实际上回溯了神经网络的主线发展历程,从最基础的权重计算,讲到 n-grams 最终到 transformer 的 attention 机制。
虽然我多年前就学习过神经网络,但是有很多细节更多的是知其然不知其所以然,这篇文章读来让我有醍醐灌顶的感觉,把关键的部分的意义都讲清楚了。
作者还很清晰地阐述了神经网络的几个天然局限,这是人脑能轻松做到而神经网络只能望洋兴叹的:
1. 神经网络不是图灵机,没有计算能力,无法准确地完成任何计算步骤
2. 世界是无穷复杂的(irreducible computation、NP 复杂度),而人类的理论都是简化的近似。AI 只能通过人类的简化理论来学习。
但是这些局限并不是不可逾越的,比如 function calling 就赋予了 AI 图灵机的能力。
关于第二点,涉及到 Polany's Paradox,人类无法描述世界的复杂性。这至少有两个理解方式:
1. 人类的语言没有客观标准,其意义由社会共识所决定
2. 世界的复杂性无法被理论描述
所以,GPT 的成功,实际上并不预示着计算能力的重大进步,而是人类能力的“巨大退步”。GPT 用事实证明了人类的语言能力并不是 irreducible computation,而是背后存在一些简单的规则,而且这个规则被 GPT 学会了。
然而作者也提到,GPT 的技术进步某种程度上只是无数人不断尝试的结果,人们发现通过一些设计能得到更好的结果。但是为什么要这么设计,GPT 是如何理解的?人们仍然一无所知。与其说人们发明了 GPT,也许说人类发现了 GPT 更为合适。
作者还试图构建一个大一统的计算语言,来抽象一切的事物,同时赋予 GPT 可解释性。我直观上觉得,这是否就是当年罗素的分析逻辑?
整理了一篇博客文章: https://blog.laisky.com/p/what-is-gpt/
原文笔记: https://laisky.notion.site/What-Is-ChatGPT-Doing-and-Why-Does-It-Work-6d390e2e44eb40498bd8b7add36bcc94?pvs=4
此文从 GPT 开始谈起,实际上回溯了神经网络的主线发展历程,从最基础的权重计算,讲到 n-grams 最终到 transformer 的 attention 机制。
虽然我多年前就学习过神经网络,但是有很多细节更多的是知其然不知其所以然,这篇文章读来让我有醍醐灌顶的感觉,把关键的部分的意义都讲清楚了。
作者还很清晰地阐述了神经网络的几个天然局限,这是人脑能轻松做到而神经网络只能望洋兴叹的:
1. 神经网络不是图灵机,没有计算能力,无法准确地完成任何计算步骤
2. 世界是无穷复杂的(irreducible computation、NP 复杂度),而人类的理论都是简化的近似。AI 只能通过人类的简化理论来学习。
但是这些局限并不是不可逾越的,比如 function calling 就赋予了 AI 图灵机的能力。
关于第二点,涉及到 Polany's Paradox,人类无法描述世界的复杂性。这至少有两个理解方式:
1. 人类的语言没有客观标准,其意义由社会共识所决定
2. 世界的复杂性无法被理论描述
所以,GPT 的成功,实际上并不预示着计算能力的重大进步,而是人类能力的“巨大退步”。GPT 用事实证明了人类的语言能力并不是 irreducible computation,而是背后存在一些简单的规则,而且这个规则被 GPT 学会了。
然而作者也提到,GPT 的技术进步某种程度上只是无数人不断尝试的结果,人们发现通过一些设计能得到更好的结果。但是为什么要这么设计,GPT 是如何理解的?人们仍然一无所知。与其说人们发明了 GPT,也许说人类发现了 GPT 更为合适。
作者还试图构建一个大一统的计算语言,来抽象一切的事物,同时赋予 GPT 可解释性。我直观上觉得,这是否就是当年罗素的分析逻辑?
整理了一篇博客文章: https://blog.laisky.com/p/what-is-gpt/
原文笔记: https://laisky.notion.site/What-Is-ChatGPT-Doing-and-Why-Does-It-Work-6d390e2e44eb40498bd8b7add36bcc94?pvs=4
2024 年高峰期火车票购买指南 [by Xenogeneic]
https://sspai.com/post/86328
https://sspai.com/post/86328
早晚用得上的生活指南:我的第一次拔牙经历分享 [by Lars漫步]
https://sspai.com/post/86201
https://sspai.com/post/86201