
中文命名實(shí)體識別(Named Entity Recognition, NER)初探
Ollama 是一款強(qiáng)大的本地運(yùn)行大型語言模型(LLM)的框架,它允許用戶在自己的設(shè)備上直接運(yùn)行各種大型語言模型,包括 Llama 2、Mistral、Dolphin Phi 等多種模型,無需依賴網(wǎng)絡(luò)連接。此外,Ollama 還提供跨平臺的支持,涵蓋了 macOS、Windows、Linux 以及 Docker,幾乎覆蓋所有主流操作系統(tǒng)。Ollama 的設(shè)計初衷是簡化在本地運(yùn)行大語言模型的過程,降低技術(shù)門檻,讓開發(fā)者、研究人員以及愛好者能夠在本地環(huán)境中快速試驗(yàn)和部署最新的大語言模型。
Ollama 的安裝和使用相對簡單,用戶可以訪問 Ollama 官方網(wǎng)站 下載其運(yùn)行框架,并通過命令行啟動本地模型。以下是運(yùn)行 Llama2 模型的簡單命令示例:
ollama run llama2
基于用戶的計算機(jī)配置,不同模型可能表現(xiàn)出不同的性能特征。Ollama 提供了一種高效的方式來管理和運(yùn)行這些模型,從而提升應(yīng)用程序的整體性能。
Ollama 在本地運(yùn)行模型并將所有用戶數(shù)據(jù)存儲在本地,這意味著數(shù)據(jù)不會經(jīng)過網(wǎng)絡(luò)傳輸,從而提高了數(shù)據(jù)的安全性和隱私性。此外,本地運(yùn)行模型還可以提高應(yīng)用程序的效率,因?yàn)樗辉僖蕾囉诰W(wǎng)絡(luò)環(huán)境。對于那些需要保證數(shù)據(jù)安全和隱私的應(yīng)用程序而言,Ollama 是一個理想的選擇。
為了更好地與 AI 模型進(jìn)行交互,Ollama 通常與第三方 WebUI 客戶端結(jié)合使用。以下是五款開源的 Ollama GUI 客戶端推薦,它們可以顯著提升用戶體驗(yàn)。
LobeChat 是一款開源的 LLMs WebUI 框架,支持全球主流的大型語言模型,并提供優(yōu)美的用戶界面及卓越的用戶體驗(yàn)。該框架支持通過本地 Docker 運(yùn)行,可以在多個平臺上部署。用戶通過配置本地 Ollama 接口地址,可以輕松實(shí)現(xiàn) Ollama 以及其他本地模型的集成。詳細(xì)信息可訪問 LobeChat 官方網(wǎng)站。
Open WebUI 是一個功能豐富且用戶友好的開源自托管 AI 界面,旨在完全離線運(yùn)行,并支持各種 LLM 運(yùn)行器,包括 Ollama 和 OpenAI 兼容的 API。其強(qiáng)大的功能使其成為離線環(huán)境下的理想選擇。
Enchanted 是一款專為 MacOS/iOS/iPadOS 平臺開發(fā)的應(yīng)用程序,支持多種私人托管模型。該應(yīng)用致力于提供一個未經(jīng)過濾、安全、保護(hù)隱私以及多模態(tài)的人工智能體驗(yàn)。
Chatbox 是一個老牌的跨平臺開源客戶端應(yīng)用,基于 Tauri 開發(fā),簡潔易用。除了 Ollama 以外,它還能夠通過 API 提供其他幾種流行大模型的支持。
NextJS Ollama LLM UI 是一款專為 Ollama 設(shè)計的極簡主義用戶界面。雖然關(guān)于本地部署的文檔較為有限,但總體上安裝過程并不復(fù)雜。該界面設(shè)計簡潔美觀,非常適合追求簡約風(fēng)格的用戶。
在官網(wǎng)首頁,我們可以直接下載 Ollama 安裝程序(支持 Windows/MacOS/Linux)。Ollama 的安裝過程,與安裝其他普通軟件并沒有什么兩樣,安裝完成之后,有幾個常用的系統(tǒng)環(huán)境變量建議進(jìn)行設(shè)置。
OLLAMA_MODELS
,默認(rèn)目錄為當(dāng)前用戶目錄。建議修改為更大的分區(qū)以避免 C 盤空間吃緊。OLLAMA_HOST
,默認(rèn)為 127.0.0.1
,如果需要允許局域網(wǎng)訪問,建議設(shè)置為 0.0.0.0
。OLLAMA_PORT
,默認(rèn)為 11434
,可根據(jù)需要修改。Mac 和 Linux 的安裝過程與 Windows 類似,都是從官網(wǎng)下載安裝包,然后通過命令行運(yùn)行。唯一的不同在于環(huán)境變量的配置,需要通過修改 shell 配置文件來完成。
Ollama 提供了 generate
和 chat
兩個原始的 API 接口,用戶可以通過這些接口實(shí)現(xiàn)更多的高級應(yīng)用。
在 Python 應(yīng)用中集成 Ollama 只需要安裝相應(yīng)的 Python 包并調(diào)用接口即可。
pip install ollama
使用 Ollama 接口的示例代碼:
import ollama
def api_generate(text:str):
print(f'提問:{text}')
stream = ollama.generate(
stream=True,
model='qwen:7b',
prompt=text,
)
for chunk in stream:
if not chunk['done']:
print(chunk['response'], end='', flush=True)
else:
print('n')
Ollama 也可以集成到 Java 應(yīng)用中,以下是一個簡單的 SpringBoot 應(yīng)用示例。
io.springboot.ai
spring-ai-ollama-spring-boot-starter
1.0.0
在 SpringBoot 配置文件中,增加 Ollama 配置信息:
server.port=8088
spring.application.name=NTopicBootX
spring.ai.ollama.base-url=http://localhost:11434
spring.ai.ollama.chat.options.model=qwen:0.5b
Ollama 是一個開源的 LLM(大型語言模型)服務(wù)工具,用于簡化在本地運(yùn)行大語言模型。
Ollama 支持 macOS、Windows、Linux 以及 Docker,幾乎覆蓋所有主流操作系統(tǒng)。
用戶可以從 Ollama 官網(wǎng)下載其運(yùn)行框架,并通過命令行啟動本地模型。
Ollama 提供了本地運(yùn)行模型的能力,確保數(shù)據(jù)安全和隱私,并且提高了應(yīng)用程序的效率。
Ollama 支持通過 Python 和 Java 等編程語言進(jìn)行交互,提供了相應(yīng)的 API 接口。