npm package discovery and stats viewer.

Discover Tips

  • General search

    [free text search, go nuts!]

  • Package details

    pkg:[package-name]

  • User packages

    @[username]

Sponsor

Optimize Toolset

I’ve always been into building performant and accessible sites, but lately I’ve been taking it extremely seriously. So much so that I’ve been building a tool to help me optimize and monitor the sites that I build to make sure that I’m making an attempt to offer the best experience to those who visit them. If you’re into performant, accessible and SEO friendly sites, you might like it too! You can check it out at Optimize Toolset.

About

Hi, 👋, I’m Ryan Hefner  and I built this site for me, and you! The goal of this site was to provide an easy way for me to check the stats on my npm packages, both for prioritizing issues and updates, and to give me a little kick in the pants to keep up on stuff.

As I was building it, I realized that I was actually using the tool to build the tool, and figured I might as well put this out there and hopefully others will find it to be a fast and useful way to search and browse npm packages as I have.

If you’re interested in other things I’m working on, follow me on Twitter or check out the open source projects I’ve been publishing on GitHub.

I am also working on a Twitter bot for this site to tweet the most popular, newest, random packages from npm. Please follow that account now and it will start sending out packages soon–ish.

Open Software & Tools

This site wouldn’t be possible without the immense generosity and tireless efforts from the people who make contributions to the world and share their work via open source initiatives. Thank you 🙏

© 2026 – Pkg Stats / Ryan Hefner

@ariesfish/feedloom

v0.2.2

Published

Archive long-form web content as clean Markdown with local assets.

Downloads

999

Readme

Feedloom 是一个 Agent 原生的网页剪藏工具。给它一篇文章、一组链接或一个 RSS 订阅,它会为你提取正文、清理页面噪音、下载图片,并生成适合放进个人知识库、Obsidian、离线阅读目录的完整 Markdown 文档。

它适合这些场景:

  • 看到一篇值得收藏的文章,不想只保留一个以后可能失效的链接。
  • 把博客、公众号、知乎、小红书、X、YouTube 等各种网页内容收藏到自己的知识库。
  • 支持批量剪藏,免去一篇篇复制粘贴。
  • 保存文章时同时保留本地图片,方便离线阅读和迁移。

主要能力

  • 把文章保存为带 YAML frontmatter 的 Markdown。
  • 自动下载页面图片,并改写为本地 Markdown 图片引用。
  • 支持直接输入 URL、读取批量链接列表和 RSS 订阅。
  • 支持静态抓取、浏览器渲染抓取、stealth 模式,适应需要 JavaScript 渲染的页面。
  • 内置常见站点规则,例如微信公众号、知乎、小红书、X、YouTube 等。
  • 可选使用本机登录状态,处理需要登录或反爬较强的页面。

安装要求

  • Node.js >= 24
  • npm
  • 使用浏览器抓取时需要 Patchright Chromium;doctor 命令可以自动检查并安装。

直接运行

无需安装,直接用 npx

npx -y @ariesfish/feedloom "https://example.com/article"

也可以全局安装:

npm install -g @ariesfish/feedloom
feedloom "https://example.com/article"

检查并修复浏览器运行环境:

npx -y @ariesfish/feedloom doctor

如果缺少 Patchright Chromium,doctor 会自动执行 npx patchright install chromium

快速开始

保存单篇文章:

npx -y @ariesfish/feedloom "https://example.com/article"

指定输出目录:

npx -y @ariesfish/feedloom --output-dir ./outputs "https://example.com/article"

批量保存 URL 列表:

npx -y @ariesfish/feedloom urls.md --limit 10

urls.md 可以是普通链接列表,也可以是 Markdown checklist:

- [ ] https://example.com/a
- [ ] https://example.com/b

成功处理后,对应项会被标记为完成:

- [x] https://example.com/a

保存 RSS 订阅中的文章:

npx -y @ariesfish/feedloom "https://example.com/feed.xml" --source-kind rss-feed --since 2026-01-01

处理需要 JavaScript 渲染的页面:

npx -y @ariesfish/feedloom "https://example.com/article" --fetch-mode browser --wait-ms 4000 --scroll-to-bottom

普通模式失败时,再尝试 stealth 模式:

npx -y @ariesfish/feedloom "https://example.com/article" --fetch-mode stealth --solve-cloudflare

输出长什么样

Feedloom 默认写入 clippings/。生成的 Markdown 大致如下:

---
source: "https://example.com/article"
author: "Author Name"
created: "2026-04-29"
---

# Article Title

Article content...

抓取模式怎么选

| 模式 | 适合情况 | | --- | --- | | auto | 默认模式。先尝试静态抓取,内容不足时再回退到浏览器/stealth。 | | static | 页面本身已服务端渲染,不需要 JavaScript。速度最快。 | | browser | 页面需要 JavaScript 渲染、等待元素、点击按钮或滚动加载。 | | stealth | 普通浏览器模式仍失败,站点有更强的反爬检测。 |

建议先用默认 auto。只有结果不完整时,再显式选择 browserstealth

自定义规则

Feedloom 内置 TOML 站点规则,用于处理常见的动态页面或结构化站点。你也可以把自己的私有规则放在包外,并在运行时指定:

npx -y @ariesfish/feedloom "https://example.com/article" --site-rules-dir ./site-rules

私有规则适合为自己的常用网站做精准适配。

Agent Skill

Feedloom 随包提供 skills/feedloom,支持 skills CLI 的 Agent 可以直接安装这个网页归档能力:

npx skills add @ariesfish/feedloom --skill feedloom

全局安装到支持的 Agent:

npx skills add @ariesfish/feedloom --skill feedloom --global

使用建议

  • 大批量归档前,先用 --limit 跑几篇确认效果。
  • 静态博客和新闻站通常用默认模式即可;动态站点再尝试 --fetch-mode browser
  • 不要把 Feedloom 当成高并发爬虫。它更适合个人剪藏使用。
  • 遵守 robots.txt、网站服务条款、版权规则和访问频率限制。

致谢

Feedloom 受到这些优秀项目启发:

  • Defuddle:可读正文抽取思路。
  • Patchright:浏览器自动化和更真实的页面访问能力。
  • Scrapling:更稳健的抓取 fallback 思路。

License

MIT License