自然語言理解 (NLU) 和大型語言模型 (LLM) 可以協同工作,使聊天機器人能夠理解人類語言,然后生成自然的響應,以與人類進行有意義的對話。?
最初,LLM 被用于基于 NLU 的聊天機器人的設計階段,以幫助構建意圖和實體。現在,它們已經走出了 NLU 的陰影,并開始憑借其生成可理解文本的近乎神奇的能力成為焦點。
雖然 NLU 專注于從一個人的信息(意圖)中尋找意義,但 LLM 則利用其龐大的知識庫來生成相關且連貫的回應。
警告
LLM 和生成式 AI 并不完全準確,可能會產生不實的荒誕內容。因此,如果單獨使用,沒有防護措施,它不適合面向客戶的企業用例,尤其是涉及敏感和私人信息的情況。
還有合規問題,不能泄露個人信息。個人信息絕不應泄露出企業范圍,也絕不應用于培養法學碩士。
可以通過針對特定行業對 LLM 進行微調,并實施檢索增強生成 (RAG)(為 LLM 提供來自外部來源的事實數據)來解決幻覺和安全風險。
就其本身而言,LLMS 的速度較慢且運行成本較高。
目前尚無定論,但隨著技術的發展,似乎混合方法是一種好方法。通過結合 NLU 和 LLM,聊天機器人可以更好地理解查詢、提取相關信息并生成不僅符合語境而且語言自然的響應,從而創造更像人類的對話體驗。
以下是聊天機器人中 NLU 和 LLM 之間相互作用的細分:
提取意圖和實體
NLU 組件負責從人類的輸入中提取含義。它涉及意圖識別、實體提取和情緒分析等任務。
NLU 幫助聊天機器人理解用戶詢問或表達的內容。它將文本分解為單個單詞或短語,并用名詞、動詞和形容詞等語法角色標記它們。然后,這些信息用于確定消息的整體意圖,例如提出問題、尋求信息或請求服務。例如,客戶可能會發送消息:“我想支付我的賬戶”,NLU 會將其歸類為付款意圖。
此外,NLU 可以識別實體,即人們對話中提到的特定信息,例如數字、郵政編碼或日期。
例如,如果客戶詢問“我可以償還一百英鎊的債務。” NLU 會將意圖識別為“承諾付款”并提取相關實體,即金額“100 英鎊”。
控制、一致性和可靠性
使用 NLU 來支持對話式 AI 比僅使用 LLM 更可靠、更可預測,因為 LLM 容易產生幻覺,而且不太安全。為了安全起見,許多客戶互動機器人都在使用經過用戶驗證的響應的 NLU。
生成上下文響應
LLM 是功能強大的 AI 模型,就像 OpenAI 的 GPT 一樣,它們經過大量數據訓練,能夠理解和生成類似人類的語言(它們還可以創建圖像、編寫音樂和代碼)。它們對語言的細微差別和上下文有著深刻的理解,并且非常擅長生成語法正確的內容并模擬適合特定上下文的對話。?
幫助理解語言
在上面使用的例子中,客戶說“我想支付我的賬戶”,NLU 將其歸類為付款意向。但是,它必須接受有關人們表達這種意圖的多種方式的訓練。有了 LLM,它可以更全面地理解一個人在說什么,無論他們使用什么術語。他們可能會說“我要還清我的欠款”或“我想還清我的債務”,而 LLM 會將其理解為付款意向。護欄的重要性出于安全原因,LLM 需要使用護欄進行編程,以縮小對所提供數據的響應范圍,并嚴格排除任何不在所需參數范圍內的內容。
互動對話流程
NLU 和 LLM 之間的相互作用有助于聊天機器人保持連貫的對話流程。NLU 在上下文中提供意圖識別,而 LLM 訪問其知識庫并做出適當響應。這種來回交流產生了更具吸引力的對話,模仿了人與人之間的互動。
上下文建立
LLM 發揮作用以維護背景并產生響應。
動態對話
LLM 有助于增強對話的動態性。它們可以生成多樣化且相關的響應,使與聊天機器人的互動更加自然。
學習與適應
一些聊天機器人利用 LLM 的學習能力來適應和不斷改進。它們可以根據用戶交互和反饋進行微調,從而不斷提高其性能。
NLU 和 LLM 相結合,使聊天機器人能夠以更加個性化、知識豐富和準確的方式與人溝通。它們的綜合能力有助于客戶互動聊天機器人履行其在客戶服務、信息檢索和任務自動化方面的作用。