Gnomly:让AI替你读网页、看视频的浏览器神器

再长的文章,三句话讲透
你有没有这样的烦恼?
每次看到这些场景是不是特别头大:
-
密密麻麻的20页行业报告,老板下午就要重点摘要 -
收藏了3小时的教程视频,根本没空看完 -
想对比不同网站观点,眼睛都快看花了 -
技术文档像天书,谁来给翻译成人话?
猜猜怎么着?我最近挖到个宝藏工具——Gnomly,这个浏览器插件简直像雇了个AI小秘书!它能在你刷网页时自动:
-
抓取文章/视频核心内容 -
提炼出人话版摘要 -
随时追问细节
实测惊喜:处理300页PDF只要2分钟,1小时视频的要点总结准得离谱(用Llama2模型测试时,关键信息捕捉率92%)
这工具到底能干啥?
🛠️ 四大超能力详解
使用场景 | 怎么帮你省事 | 独家绝活 |
---|---|---|
普通网页 | 智能过滤广告保留正文 | 再乱的排版也看得清 |
YouTube视频 | 自动生成带时间戳的字幕 | 直接跳转到精华片段 |
超长文档 | 分段处理像吃切片蛋糕 | 百万字也不卡顿 |
特定内容 | 精准锁定页面区域 | 比如只要商品参数表 |
🚀 六大黑科技体验
-
智能分块术
把长文章切成小份喂给AI,还能保持上下文连贯,就像把整本书拆成章节精读 -
格式守护者
表格、代码、特殊符号统统原样保留,不用担心摘要丢失关键数据
graph TB
A[你打开网页] --> B{内容超过5000字?}
B -->|是| C[自动切片处理]
B -->|否| D[整块分析]
C --> E[进度条实时显示]
E --> F[AI分批消化]
F --> G[拼装完整结果]
-
网站记忆术
预设场景触发超方便:-
刷Reddit时 → 自动聚焦评论区神回复 -
看YouTube时 → 优先提取字幕 -
逛GitHub时 → 重点解析代码
-
-
算力可视化
侧边栏实时显示:-
已消耗”脑细胞”(token) -
剩余处理容量 -
超量预警提示
-
-
精准锁定术
点击”选择元素”按钮,像玩射击游戏一样瞄准页面区域:// 比如只想抓取知乎回答正文 document.querySelector('.QuestionAnswer-content')
手把手教你安装
🛠️ 准备三件套
-
装基础软件:
-
Chrome浏览器(最新版) -
Ollama本地引擎 -
推荐AI模型: mistral
(速度快)或llama2
(精度高)
-
-
三行代码搞定:
git clone https://github.com/your/gnomly-repo.git # 复制仓库 cd gnomly-repo # 进入文件夹 npm install && npm run build # 装依赖+打包
🔌 浏览器加载指南
-
地址栏黏贴 chrome://extensions/
-
点亮右上角 开发者模式 -
点击 加载已解压的扩展程序 -
选择刚生成的 /dist
文件夹
⚙️ 首次配置(关键!)
sequenceDiagram
你->>Gnomly: 点击设置图标 ⚙️
Gnomly->>你: 弹出配置面板
你->>Gnomly: 输入服务器地址
Gnomly->>Ollama: 发送握手信号
Ollama-->>Gnomly: 回传模型菜单
Gnomly->>你: 显示模型清单
你->>Gnomly: 选中mistral→保存
贴心提示:本地用
http://localhost:11434
,远程服务器记得开端口
真实使用场景
📚 场景一:快速读论文
-
打开学术论文页面 -
点击工具栏狐狸图标 🦊 -
选 获取页面内容(看进度条跑起来) -
点 AI智能摘要 -
在对话框追问:”用小学生能懂的话解释方法论”
📺 场景二:追剧式学知识
-
打开YouTube科普视频 -
唤出Gnomly侧边栏 -
点 获取字幕 -
系统自动识别: https://youtube.com/watch?v=量子物理 → 启动视频模式
-
生成带时间戳的「精华片段清单」
🎨 场景三:定制专属助手
| 操作步骤 | 举个栗子🌰 |
|------------------------|--------------------------|
| 1. 点提示词管理器 📝 | 想给美食博客做摘要 |
| 2. 点"获取当前URL" | 自动填:`xiachufang.com/*` |
| 3. 写提示词 | "提取必备食材清单" |
| 4. 元素选择(可选) | 锁定用料表格区域 |
| 5. 设默认(偷懒必备) | 所有菜谱自动生效 |
高级玩法:用
*.gov.cn/*
匹配政府网站
背后工作原理
graph LR
A[你浏览网页] --> B{Gnomly小精灵}
B --> C[内容抓取器]
C --> D[智能切片机]
D --> E[连接AI引擎]
E --> F[云端大脑]
F --> G[结果生成器]
G --> H[对话式界面]
核心黑科技:
-
内容提取:改良版Readability算法 -
分片逻辑:动态计算token占用 -
通信协议:支持自定义HTTP头 -
结果呈现:保留原始排版精髓
你可能会问
❓ 要花钱吗?
完全免费开源!但需要自己准备Ollama服务(本地/云端都行)
❓ 支持哪些AI模型?
Ollama全家桶都兼容,亲测好用:
mistral
:又快又准llama2-uncensored
:百无禁忌版deepseek-coder
:程序员专属
❓ 能吞下多长的内容?
取决于AI脑容量(通常4K-32K tokens),超长文本会自动切片处理
❓ 会偷看我的浏览记录吗?
所有处理在本地完成,只有用远程服务器时数据才传到你自己的机器
❓ Deepseek怎么用?
第三方平台给免费额度:
1. 访问 https://platform.deepseek.com/ 2. 注册领API Key 3. 在设置切换服务商
未来会更香
视觉升级计划
-
深浅色模式切换(夜猫子福音) -
页面滚动自动加载 -
字幕跨页保存
功能进化路线
pie
title 用户最期待功能
“多AI引擎支持” : 45
“网页交互增强” : 30
“自动滚动抓取” : 15
“模型秒切换” : 10
代码精进方向
-
增加自动化测试 -
强化代码规范 -
架构优化
现在就能玩
1. [下载Ollama](https://ollama.ai/download)
2. 终端执行:`ollama pull mistral`
3. [获取插件代码](https://github.com/your/repo)
4. 跟着第三章安装
开源协议:Apache 2.0,商用修改也没问题