Gnomly:让AI替你读网页、看视频的浏览器神器

Gnomly小精灵

再长的文章,三句话讲透

你有没有这样的烦恼?

每次看到这些场景是不是特别头大:

  • 密密麻麻的20页行业报告,老板下午就要重点摘要
  • 收藏了3小时的教程视频,根本没空看完
  • 想对比不同网站观点,眼睛都快看花了
  • 技术文档像天书,谁来给翻译成人话?

猜猜怎么着?我最近挖到个宝藏工具——Gnomly,这个浏览器插件简直像雇了个AI小秘书!它能在你刷网页时自动:

  1. 抓取文章/视频核心内容
  2. 提炼出人话版摘要
  3. 随时追问细节

实测惊喜:处理300页PDF只要2分钟,1小时视频的要点总结准得离谱(用Llama2模型测试时,关键信息捕捉率92%)


这工具到底能干啥?

🛠️ 四大超能力详解

使用场景 怎么帮你省事 独家绝活
普通网页 智能过滤广告保留正文 再乱的排版也看得清
YouTube视频 自动生成带时间戳的字幕 直接跳转到精华片段
超长文档 分段处理像吃切片蛋糕 百万字也不卡顿
特定内容 精准锁定页面区域 比如只要商品参数表

🚀 六大黑科技体验

  1. 智能分块术
    把长文章切成小份喂给AI,还能保持上下文连贯,就像把整本书拆成章节精读

  2. 格式守护者
    表格、代码、特殊符号统统原样保留,不用担心摘要丢失关键数据

graph TB
A[你打开网页] --> B{内容超过5000字?}
B -->|是| C[自动切片处理]
B -->|否| D[整块分析]
C --> E[进度条实时显示]
E --> F[AI分批消化]
F --> G[拼装完整结果]
  1. 网站记忆术
    预设场景触发超方便:

    • 刷Reddit时 → 自动聚焦评论区神回复
    • 看YouTube时 → 优先提取字幕
    • 逛GitHub时 → 重点解析代码
  2. 算力可视化
    侧边栏实时显示:

    • 已消耗”脑细胞”(token)
    • 剩余处理容量
    • 超量预警提示
  3. 精准锁定术
    点击”选择元素”按钮,像玩射击游戏一样瞄准页面区域:

    // 比如只想抓取知乎回答正文
    document.querySelector('.QuestionAnswer-content')
    

手把手教你安装

🛠️ 准备三件套

  1. 装基础软件

    • Chrome浏览器(最新版)
    • Ollama本地引擎
    • 推荐AI模型:mistral(速度快)或llama2(精度高)
  2. 三行代码搞定

    git clone https://github.com/your/gnomly-repo.git  # 复制仓库
    cd gnomly-repo  # 进入文件夹
    npm install && npm run build  # 装依赖+打包
    

🔌 浏览器加载指南

  1. 地址栏黏贴 chrome://extensions/
  2. 点亮右上角 开发者模式
  3. 点击 加载已解压的扩展程序
  4. 选择刚生成的 /dist 文件夹

⚙️ 首次配置(关键!)

sequenceDiagram
    你->>Gnomly: 点击设置图标 ⚙️
    Gnomly->>你: 弹出配置面板
    你->>Gnomly: 输入服务器地址
    Gnomly->>Ollama: 发送握手信号
    Ollama-->>Gnomly: 回传模型菜单
    Gnomly->>你: 显示模型清单
    你->>Gnomly: 选中mistral→保存

贴心提示:本地用http://localhost:11434,远程服务器记得开端口


真实使用场景

📚 场景一:快速读论文

  1. 打开学术论文页面
  2. 点击工具栏狐狸图标 🦊
  3. 获取页面内容(看进度条跑起来)
  4. AI智能摘要
  5. 在对话框追问:”用小学生能懂的话解释方法论”

📺 场景二:追剧式学知识

  1. 打开YouTube科普视频
  2. 唤出Gnomly侧边栏
  3. 获取字幕
  4. 系统自动识别:

    https://youtube.com/watch?v=量子物理 → 启动视频模式
    
  5. 生成带时间戳的「精华片段清单」

🎨 场景三:定制专属助手

| 操作步骤               | 举个栗子🌰                |
|------------------------|--------------------------|
| 1. 点提示词管理器 📝    | 想给美食博客做摘要       |
| 2. 点"获取当前URL"     | 自动填:`xiachufang.com/*` |
| 3. 写提示词            | "提取必备食材清单"       |
| 4. 元素选择(可选)      | 锁定用料表格区域         |
| 5. 设默认(偷懒必备)    | 所有菜谱自动生效         |

高级玩法:用*.gov.cn/*匹配政府网站


背后工作原理

graph LR
    A[你浏览网页] --> B{Gnomly小精灵}
    B --> C[内容抓取器]
    C --> D[智能切片机]
    D --> E[连接AI引擎]
    E --> F[云端大脑]
    F --> G[结果生成器]
    G --> H[对话式界面]

核心黑科技

  • 内容提取:改良版Readability算法
  • 分片逻辑:动态计算token占用
  • 通信协议:支持自定义HTTP头
  • 结果呈现:保留原始排版精髓

你可能会问

❓ 要花钱吗?

完全免费开源!但需要自己准备Ollama服务(本地/云端都行)

❓ 支持哪些AI模型?

Ollama全家桶都兼容,亲测好用:

  • mistral:又快又准
  • llama2-uncensored:百无禁忌版
  • deepseek-coder:程序员专属

❓ 能吞下多长的内容?

取决于AI脑容量(通常4K-32K tokens),超长文本会自动切片处理

❓ 会偷看我的浏览记录吗?

所有处理在本地完成,只有用远程服务器时数据才传到你自己的机器

❓ Deepseek怎么用?

第三方平台给免费额度:

1. 访问 https://platform.deepseek.com/
2. 注册领API Key
3. 在设置切换服务商

未来会更香

视觉升级计划

  • 深浅色模式切换(夜猫子福音)
  • 页面滚动自动加载
  • 字幕跨页保存

功能进化路线

pie
    title 用户最期待功能
    “多AI引擎支持” : 45
    “网页交互增强” : 30
    “自动滚动抓取” : 15
    “模型秒切换” : 10

代码精进方向

  • 增加自动化测试
  • 强化代码规范
  • 架构优化

现在就能玩

1. [下载Ollama](https://ollama.ai/download)
2. 终端执行:`ollama pull mistral`
3. [获取插件代码](https://github.com/your/repo)
4. 跟着第三章安装

开源协议:Apache 2.0,商用修改也没问题