英语轻松读发新版了,欢迎下载、更新

如何使用此免费扩展将本地 LLM 作为基于浏览器的 AI 运行

2025-01-23 18:10:00 英文原文

作者:Written by

How to use Ollama via a Firefox extension so you don't have to use the command line
中电网络

查询远程法学硕士的想法让我感到脊背发麻——而且不是一种好的方式。当我需要通过人工智能进行一些研究时,我会选择当地的法学硕士,例如 Ollama。

如果您还没有安装 Ollama,您可以阅读我的指南 如何在 MacOS 上安装 LLM(以及为什么应该)。您还可以在 Linux 和 Windows 上安装 Ollama,并且考虑到 Firefox 扩展可以在所有三个平台上运行,您可以确信您使用的任何桌面操作系统都可以运行。

另外: 我最喜欢的 5 种网络浏览器 - 以及每种浏览器的理想用途

在终端窗口中使用 Ollama 实际上非常简单,但它并不能让您明显地访问其他功能(例如 LLM/提示选择、图像上传、互联网搜索启用/禁用和设置)。

我会指出这个免费扩展适用于 Firefox、Zen 浏览器(我最喜欢的浏览器之一)和其他浏览器。

让我们来看看这个扩展。

如何在 Firefox 中安装 Page Assist 扩展

你需要什么: 要实现此功能,您需要安装并运行 Ollama 以及 Firefox 浏览器。就是这样。让我们施展一些魔法吧。

首先要做的就是打开 Firefox。如果您通过 Firefox 阅读本文,那么您已经领先了一步。

显示更多

将 Firefox 指向 附加组件商店中的页面辅助条目并点击“添加到 Firefox”。出现提示时,单击“添加”。您会注意到附加组件商店将 Page Assist 列为 Mozilla 未主动监控的安全性。因此,我找到了该扩展的源代码,该扩展托管在 GitHub。由于源代码可以下载和查看,所以我毫不犹豫地安装了它。 

还:如何保护自己免受 Chrome 和 Firefox 中的网络钓鱼攻击

但请记住,没有什么是 100% 安全的。此外,您可以查看评论,发现没有人抱怨该扩展程序的恶意活动。 

最后,您可以查看 开发商网站了解更多。

显示更多

The Page Assist install button on the Firefox Add-Ons market.

与所有浏览器扩展一样,在安装之前进行一些研究。

杰克·沃伦/ZDNET

如何使用页面辅助

在实际使用 Page Assist 之前,您需要确保 Ollama 正在运行。如果您已经安装了它,您可以使用如下命令运行本地 LLM:

llama run llama3.2

如果您看到 >>> 提示,则 LLM 正在运行并准备好接受查询。

还:这个终端应用程序使用人工智能来帮助你理解命令行

1. 固定扩展件

我要做的第一件事是将 Page Assist 扩展固定到 Firefox 工具栏。为此,请单击拼图图标,然后单击与页面辅助关联的齿轮图标。从下拉列表中,单击“固定到工具栏”。您现在应该在 Firefox 工具栏中看到页面辅助图标(它看起来像一个微小的思想气球)。

The Page Assist extension drop-down menu.

我总是将我知道会经常使用的附加组件固定到 Firefox 工具栏上。

杰克·沃伦/ZDNET

2.打开扩展程序

单击页面辅助图标,将打开一个包含 Ollama UI 的新选项卡。

3. 选择您的型号

在运行第一个查询之前,您需要选择一个模型。单击“选择模型”下拉列表并选择您已安装的模型(例如 llama3.2:latest)。

The "Select a Model" drop-down in Page Assist.

如果您安装了多个模型,它们都会显示在此下拉列表中。

杰克·沃伦/ZDNET

4. 输入您的查询

现在,您可以在标有“键入消息”的底部部分中键入查询。按键盘上的 Enter 或单击“提交”,Ollama 就会开始工作。

Page Assist answering the question, "What is Linux?"

Ollama 告诉我 Linux 是什么。

杰克·沃伦/ZDNET

5.添加新模型

您还可以使用 Page Assist 添加新模型。为此,请单击“页面辅助”窗口右上角的齿轮图标。单击左侧边栏中的管理模型,然后单击添加新模型。在弹出窗口中,输入要添加的模型的名称,然后单击“拉取模型”。有关 Ollama 可用型号的完整列表,请查看 本页

The Page Assist model add pop-up.

您可以添加任意数量的模型,但请注意每个模型的文件大小,因为有些模型可能会变得非常大。

杰克·沃伦/ZDNET

我的朋友们,借助简单易用的 Firefox 扩展,您可以更轻松地与 Ollama 进行交互。

编辑标准

关于《如何使用此免费扩展将本地 LLM 作为基于浏览器的 AI 运行》的评论


暂无评论

发表评论

摘要

本文讨论了如何使用本地大型语言模型 (LLM) Ollama 进行研究,并提供有关安装 Page Assist Firefox 扩展以促进与 Ollama 交互的说明。它涵盖通过终端命令下载 Ollama 以及通过 Firefox 附加组件商店或 GitHub 设置 Page Assist 扩展。建议用户在安装前验证安全性。然后,本文详细介绍了如何使用 Page Assist 扩展,包括将其固定到工具栏、选择模型、运行查询和添加新模型。