好资源和短想法
#文章
昨晚阿里云发生大面积故障,今早以前在阿里工作多年的相关人士就写了一篇文章谈系统稳定性,列举了稳定性涉及到的一些思考:《稳定性,难的不是技术,而是》。
大体就是常说的那些:测试边界、降级、减少依赖、灰度。

我非常同意最后的总结:稳定性工作很难出成果,很难被认可,也很难评估投入产出比。这有点像扁鹊三兄弟的故事:能够防病患的老大,才是医术最好的那个,但却又最不为人所知。
#公告

▎ APPDO数字生活指南 新版网站上线啦!

APPDO数字生活指南全新版网站现已正式上线并运行!

新版网站使用基于 NextJS + Notion API 的NotionNext搭建而成,部署在Vercel上,基本上0成本搭建。也欢迎感兴趣的朋友自行搜索该开源项目尝试,安装非常简单。

▎未来的网站构想

- 逐步将以前的网站文章录入进新网站
- 同步本频道的相关内容
- 作为数码评测类等长文的发布平台
- 会尝试发布一些资源类的内容,拓宽内容类型
- 作为未来的线上互动平台

▎欢迎大家访问新版网站!

👉 https://appdo.xyz/

频道 @AppDoDo
DPS 周刊 122 - 渐进式笔记

https://letters.acacess.com/weekly-122/

读 Tiago Forge 的 PARA 和 Building A Second Brain 时,被他的渐进式笔记 (progressive summary) 所吸引,一直想尝试来着。最近正好读完了 Clear Thinking 这本书,于是参考了 Tiago 的建议,用渐进式总结整理了一下笔记。

渐进式总结一共分为四步:

1 阅读时将有用的部分提取出来;

2 将提取出来的内容进一步进行提炼,可以使用加粗的方式把重要部分提炼出来;

3 再次提炼的时候,可以使用高亮对加粗部分再次提炼;

4 如果这些笔记对你来说异常重要,你可以根据自己的理解写出总结

这里的每一步都是对前面一步的浓缩再加工,求精而不求全。最关键的是,当你之后翻看这份笔记时,可以迅速捡起来,可以迅速找到其中有用的部分。就像你为自己准备了一个充满知识的时光宝盒。

如果你的笔记工具没有高亮或者加粗功能,可以替换成其他格式工具。

以下是 Clear Thinking 的渐进式笔记节选: DPS 周刊 122 - 渐进式笔记
#Github

📦 macOS Containers

Github | 官网

Features

- 在 Mac 上启动 Mac 容器
- 支持 HomeBrew 安装
- 兼容 Docker

在 Mac 上启动 Mac 虚拟机的我们见过了不少,比如 UTM。但是在 Mac 上启动 Mac 容器倒是第一次见。macOS Containers 还可以打包成 Docker 镜像,分享给其他人一起使用。

⚙️ rund

macOS Containers 基于 rund。rund 是一个实验性的 containerd Shim,用于在 macOS 上运行 macOS 容器。rund 在九月底发布了第一个预览版本,最新版本为 0..4。

rund 由于 macOS 内核 API 的限制,无法提供其他操作系统上可实现的常规容器隔离水平。

rund 提供的功能包括:

- 通过 chroot (2) 实现文件系统隔离
- 使用进程组清理容器进程
- 与 OCI 运行时规范兼容
- 仅支持宿主网络模式
- 绑定挂载

为什么 macOS 原生容器很重要?

最常见的 Docker 也并不是 macOS 原生的。主要原因是 macOS 和 Linux 操作系统之间存在差异。并且 XNU 内核缺少多种隔离原语,这些原语是实现具有与其他平台相当功能的容器支持所必需的。

在 macOS 上,Docker 运行在一个虚拟机中,这意味着容器操作比在 Linux 上慢。最明显的差别之一是在共享文件系统上。通过 macOS 中的虚拟机访问大文件或大量文件的性能,将始终不如直接访问来得好。

频道:@NewlearnerChannel
Key OpenAI DevDay Announcements:

GPT-4 Turbo, new cheaper model with massive 128K token context, 3× cheaper input, 2× cheaper output than GPT-4

Assistants API: essentially automates part of the vector-based context-management that everyone's been manually coding up to now. Nice, but not the huge upset to AI agent startups that many were expecting. Actually not all that huge at all.

Custom models: OpenAI finally openly admits that fine tuning the last layer is different from, and vastly inferior to having control over full model training, and says they'll be picking the few lucky winners who will be allowed to do the real, full custom training. I.e. fine tuning is vastly inferior to true custom models.

Verdict:

Appears the only startups who got wrecked today are the countless vector-database-as-a-service startups.

Not as bad as many startups expected.

Rest of the AI startups can rest easy, for now.

As far as features, 128k context is massive, potential gamechanger, but the turbo models in the past have been heavily crippled, so let's see how well this new one does.
新买了相机,拍了一些城市照片