猫鱼周刊 vol. 001 新的开始
编辑本刊恢复更新啦!第一期试水后,由于内容产出不稳定加上个人意志力薄弱,没有继续创作。差不多一年过去,能力和见识都有所增长了,所以现在再捡起来尝试一下。
文章
高吞吐低延迟:朴朴基于 Kafka 的延迟队列实践(原文)
文章介绍并对比了几种实现延迟队列的方式:定时任务扫表,RabbitMQ 自带延迟消息特性,Redis zset,并提出了使用 Kafka 创建多个不同等级的延迟队列来实现。
Newsletter 的平台化之路(原文)
各大平台竭尽所能地抢占用户注意力,形成了当今的注意力经济。而从用户角度,用户不停地在一个平台刷屏,刷到的都是十分雷同的内容,收获的信息量几乎为零,只有阵阵空虚。
平台控制创作者与消费者之间的联系、控制创作者的变现能力(恶),但又有更容易获得受众,用户召回的能力,变现能力(善)。
(该部分有改写以适应篇幅)
作者谈到了很多对 Newsletter 的思考,这两点我觉得特别能共鸣。
首先是消息摄入,前几年有个“碎片化阅读”的概念特别火,还有近年短视频等兴起,有一种模式特别上头:通过很短的视频/图片/文字,简单介绍了一个问题,介绍什么内容不重要,重点是让观众感觉到“嘿!我又学到了一个新知识!”,然后孜孜不倦去刷这类型的内容。与之相反,近年 RSS 和 邮箱订阅又开始复兴,有一部分人开始尝试走出算法陷阱,有意识地去精简、优化自己的信息流。
再到平台和创作者关系这一部分,我发现一个现象:在各大平台兴起之前就发展起来的个人博客(或其他独立的创作渠道),才有机会在自己的主站积累足够的用户,对主流平台没有很强的依赖性(例如阮一峰、陈皓);平台兴起之后,很多创作者都是从某个平台发家,被贴上了一定的标签(例如 B 站 up 主、油管 up 主、xx 项目作者),其主要粉丝还是积累在平台。对新创作者来说,平台的流量推荐,成熟的一条龙创作服务,其实都是发家的必要条件。
项目
MerlinKodo/clash-rev
Clash 的续作。
tteck/Proxmox
一系列 PVE 脚本。我个人比较喜欢用这个 Docker LXC 的,一个脚本就能搞定 LXC 的创建和 Docker 的安装。
trungdq88/Awesome-Black-Friday-Cyber-Monday
黑五到啦,快看看有什么想买的吧!
工具
devv - 最懂程序员的新一代 AI 搜索引擎
官网链接:Devv
Devv Search 是一款面向开发者的 AI 搜索引擎,基于文档、代码、实时搜索数据从零到一构建了一套高效、准确的 RAG 系统,底层的模型基于微调后的 Code Llama 和 GPT-3.5。
我实测下来,发现可以使用自然语言搜索(这点比较好,不需要很特意注意搜索的关键词),而且引用的来源是 stackoverflow, medium 等比较优质的平台(而不是 csdn 等恶臭平台)。
想法
写这个 Newsletter 为了什么?
第一期里我曾经说过:
我尝试每一周都消化一下上一周往收藏夹里扔的内容,分享一些有趣的文章、网站,发表一些自己的评论,也会分享一些这周遇到的优秀开源项目。我的周刊只会分享一些我在冲浪中遇到的有趣的内容,不会像一些其他周刊一样照搬 GitHub Trending 或者追时下一些热门的内容。
我觉得有几点需要补充:
- 周刊目前会注重于内容的创作,如果当期内容太少,我不会为了不断更而强行拼凑一些我自己没有认真消化过的内容;如果实在内容太少,那就留到下一周一起再发。
- 不会使用 AI 来辅助创作,包括其实我的整个博客的人类可读内容都不会使用 AI 辅助创作,但可能使用 AI 进行 SEO 优化等。
- 主要还是在自己博客发布。
关于
这是猫鱼周刊的第 2 期,本系列每周日更新,主要内容为每周收集内容的分享,发布在
博客:阿猫的博客-猫鱼周刊
掘金(beta):猫鱼周刊 - 3verest 的专栏 - 掘金
Discord:猫兄的和谐号高铁
- 0
- 1
-
赞助
微信赞赏码 -
分享