IVR 客服意圖辨識

IVR(互動式語音應答)客服意圖辨識是指結合 AI 人工智慧語音處理技術,讓用戶透過語音指令與客服系統互動,並自動辨識客戶語意以提供相應服務的一種技術應用。在台灣,這樣的系統已廣泛應用於銀行、電信、醫療等領域,提升服務效率與客戶體驗。

核心功能與流程

  1. 接聽語音輸入 客戶致電後,系統會播放自動化語音選單(例如:「請簡單說明您的需求,我們會為您提供協助。」)。客戶不需要按鍵選擇,而是直接用語音表達需求。

  2. 語音辨識(ASR) 系統利用自動語音辨識技術(Automatic Speech Recognition)將語音轉為文字。例如客戶說「我要查詢我的帳單」,系統會將其內容轉為文字輸入。

  3. 語意理解(NLU) 系統透過自然語言理解(Natural Language Understanding)技術,分析語意並判斷用戶的真正需求。例如:

    • 詞彙分析:「查詢」、「帳單」這些關鍵詞表明需求與帳務有關。

    • 意圖識別:判斷客戶的目的是「查帳單」。

  4. 回應與路由 系統根據語意分析結果提供相應服務,可能有以下選項:

    • 直接回應:若需求可自動化處理,例如「您的帳單金額是 1200 元,繳費期限是 12 月 15 日」。

    • 轉接專員:若需求較複雜,系統會自動轉接至對應部門的客服人員,並同時提供語意摘要,減少重複溝通。

技術挑戰與限制

  1. 多樣化表達的理解困難

    • 使用者的語言表達可能不標準,例如:「我的帳單到底怎樣?」或「繳費問題怎麼辦?」這樣的語意有些模糊,BERT 等模型有時無法精準判定具體需求

    • 在台灣,還需面對多語言、多方言(國語、台語、客語)的混用,語言模型對這些語言資料的支持尚不足。

  2. 意圖細分的局限性

    • 現代 NLP 模型雖能處理大量文本資料,但無法完全掌握某些行業的專業知識或特殊意圖。例如:「我想知道上次繳費的具體日期」可能需連結不同系統才能正確回答。

    • 即使 BERT 處理較短對話片段的效果良好,但長句子或複雜語意表達會導致模型混淆。

  3. 數據偏差與語料不完整

    • 訓練語言模型需要龐大的本地化語料,若數據不足或偏向單一表達形式,會導致模型對特殊語境的適應能力不足。例如,台灣特有的語言習慣如「儲值」、「跳號碼」等,模型可能缺乏足夠上下文語料。

  4. 上下文與記憶限制

    • 客戶對話通常有上下文關聯性,例如「剛剛說的繳費,我還有其他問題」這種多輪對話需要系統能記住先前的意圖。現有的 NLP 模型在這方面的應用表現有限。

    • 若意圖判定出錯,用戶可能不得不重新陳述需求,造成挫折。

  5. 錯誤容忍度低

    • 客戶對客服系統的耐心有限,若語音系統判定錯誤,客戶可能感到挫敗,最終直接要求與真人溝通。

產業現況

目前,仍有許多企業的語音客服系統採用傳統的按鍵選擇式流程。以 永豐銀行的語音客服系統 為例,其設計充分考量業務多樣性,提供多層選單的選項來引導用戶。然而,在用戶互動體驗上,仍有許多值得優化與改進的空間。

LLM(大型語言模型)與 RAG(檢索增強生成,Retrieval-Augmented Generation)的出現,對語意辨識以及整體 IVR 系統帶來了革命性的改變,使得語音客服系統更智能、更精準且更具有適應性,克服了過去許多傳統 NLP 技術的局限性。

解決方案

以下將透過 MaiAgent 強大且精準的 LLM、RAG 功能,一步步帶領大家做出超強的語意辨識助理。

操作步驟

1. 資料準備

過往 BERT 對於 NLP 任務(如意圖辨識、情感分析等)需要大量標記的資料來進行訓練。標記資料通常由人工完成,例如為句子標註意圖類別或關鍵詞,這既耗時又昂貴。即使有高質量的標記數據,也會模型的泛化能力不足。當業務需求或使用習慣發生變化時,需要重新標記並訓練模型,周期較長。

LLM 與 RAG 的優勢在於它們能充分結合生成式語言能力與即時檢索的動態性,擺脫對標記數據的依賴,提升語意辨識準確性,降低開發與維護成本,並極大地改善用戶體驗。這種技術組合為智能客服和語音交互設立了新的行業標準,是未來自動化與個性化服務的關鍵推手。

LLM 與 RAG 的引入大幅簡化了標記資料準備的過程。現在,只需將資料整理成 Excel 表格,簡單列出意圖分類,並將此份 銀行客服服務列表 上傳至 MaiAgent AI 助理的知識庫,即可支援智能語意辨識系統的運作。

銀行服務列表(意圖辨識用)

2. 定義角色指令

# 角色
你是 MaiAgent 銀行的語意理解機器人

# 輸出格式
請根據使用者對話,了解客戶想要得到的服務意圖,從知識庫中判斷使用者想要的服務意圖並輸出

意圖很明確時,請輸出一個意圖就好;若有多個相似意圖無法判斷,請列出3個以內最相近的意圖

<example>
-<代碼>:<分類> - <子分類>
</example>

<example>
-<代碼>:<分類> - <子分類>
-<代碼>:<分類> - <子分類>
...
</example>

<example>
N/A
</example>

# 輸出限制
- 請使用繁體中文回覆
- 不在知識庫範圍內的資訊請勿回答
- 請直接輸出 <example> 與 </example> 內的文字,不要包含其他敘述
- 輸出不包含<example>與</example>
- 根據知識庫資料回答,無法判斷意圖時請以下方<example>內的文字回答

3. 開始使用

使用範例

單次對話

意圖辨識案例

多輪對話

LLM 與 RAG 技術解決了多輪對話在 BERT 上難以辨識意圖的貧頸。

意圖辨識多輪對話範例

Last updated

Was this helpful?