<span style=" display: block; font-size: 0.8em; font-weight: 100; color: #A5A3A3;">精華文章</span>金融情資調查如何自動化?AI 輔助選案與情資分析效率與品質

精華文章金融情資調查如何自動化?AI 輔助選案與情資分析效率與品質

金融情資調查如何自動化?
AI 輔助選案與情資分析效率與品質

在金融市場中,每天都有成千上萬筆資金流動;其中,部分交易可能涉及詐騙、非法集資或洗錢等犯罪行為。為掌握潛在風險,調查單位會收到金融機構回報的可疑交易資訊與跨國情資,然而面對日益複雜的犯罪手法,以及龐大且更新頻繁的資料量,若完全依賴人工比對與分析,不僅耗時費力,也可能因資訊分散而降低偵查效率。
為提升選案效率與準確度,意藍協助政府調查單位建構「金融情報整合 AI 分析系統」,強化情資分析與選案能力,使偵查流程更具系統性與一致性。

調查單位背景與需求介紹

在洗錢防制與金融犯罪的偵查工作中,前期的情資蒐集與交易研析是相當重要、且高度仰賴專業判斷的一環。調查單位會收到金融機構依規定回報的大額現金交易(CTR)與可疑交易報告(STR),以及國際情資 ;但金融交易的資料量龐大、來源多樣,且涉及不同交易型態與行為模式,若完全以人工方式進行比對與篩選,往往需要投入大量時間與人力,亦可能因人員的分析角度與經驗差異,造成研析判斷不一或遺漏潛在風險。
因此,如何將相關情資進行有效整合,提升分析的一致性與可追溯性,並在案件成形前,及早辨識潛在高風險交易,成為調查單位希望解決的核心需求。

導入「金融情報整合 AI 分析系統」助力選案及偵查

為協助調查單位提升情資研析與選案判斷的效率,意藍以「AI Search for KM」技術為基礎,建置「金融情報整合 AI 分析系統」。本案採用 RAG(檢索增強生成)架構,結合搜尋引擎、向量資料庫與語意分析技術,讓AI可以理解金融資料間的語意關聯,將潛在的特定犯罪的金融行為表現轉換成查詢條件,進一步尋找與比對資料 ,進而生成有依據、可追溯的分析結果。 在此核心架構上,本案完成以下四大項重點建置:
  1. 資料整合與重建:整合大額現金交易報告(CTR)、可疑交易報告(STR)及國際情資三大來源,為調查單位重建金融情資資料庫,並重新規劃資料欄位與內容格式,使不同來源的資料能以統一標準被檢索與比對,打造高效的金融情資分析基礎。
  2. 自動分析與智慧選案:系統將交易資料依照匯款頻率、金額、來源去向等行為特徵進行比對,再依據常見犯罪手法(如分散交易、層層轉手、短時間高頻率往返等)進行交易模式分析,協助辨識具有較高風險的交易群組與潛藏的特定犯罪行為;此外,系統也能依照不同情境調整篩選與分析條件,具備良好實務應用效率。
  3. 直覺式查詢:提供簡便完整的操作介面,當單位人員輸入多種查詢條件 ,系統便會自動整合既有資料並呈現關聯結果,讓案件背景、交易脈絡與可疑指標一目瞭然,減少在多套系統間反覆切換的作業時間。
  4. 權限控管與資安合規:依據不同使用者的角色控管權限,完整保留操作與查詢紀錄,以符合資安與稽核要求。
整體而言,透過導入「金融情報整合 AI 分析系統」,意藍能為調查單位帶來以下效益:
  1. 優化情資處理流程:藉由將多源金融情資整合至同一平台並建立標準化機制,減少人工蒐整與比對成本,使研析情資流程更加流暢。
  2. 提高情報掌握度:藉由系統提供的自動標註、紀錄與追蹤能力,有助於及早從大量資料中辨識出可疑交易群組,調查單位也能完整掌握可疑資金流向與案件背景。
  3. 強化選案精確度:透過模型輔助分析交易行為特徵,讓研析過程判斷維持一致邏輯,減少因人員經驗產生的影響,提升案件辨識的精確性。
  4. 降低學習成本:標準化的操作介面與使用方式,幫助新進同仁快速接軌,不再需要仰賴資深同仁的教學指導,讓知識能在單位內快速傳承,進而提升工作品質及效率。

透過使用此系統,調查單位能更即時地掌握金融情資流向,快速鎖定異常交易,大幅縮短人工篩選時間,提升辦案效率與精準度,實現資料登錄、查詢、選案與派案的全流程優化。

常見問題 FAQ

Q1:為什麼金融情資調查需要導入 AI 自動化系統?

A:主因是金融交易量龐大且犯罪手法複雜,傳統人工比對已無法應對即時偵測需求。

調查單位每天需處理海量的大額交易(CTR)與可疑交易(STR)報告,資料來源多樣且格式不一。若僅靠人工篩選,容易因人員經驗差異導致判斷標準不一,甚至遺漏潛在風險。AI 能提供統一的邏輯與海量處理能力,確保研析過程的一致性與精確度。

Q2:AI 如何從大量交易中辨識出潛在的洗錢或詐騙案件?

A:AI 透過分析「行為特徵」與「交易模式」來識別高風險群組。

系統會根據匯款頻率、金額大小、資金去向等特徵,比對常見的犯罪手法,例如「分散交易」、「層層轉手」或「短時間高頻往返」等。透過 AI 的模式識別能力,能主動標註出具有異常行為的交易群組,讓調查官能及早鎖定高風險案件。

Q3:什麼是「RAG 架構」?它如何提升金融情資的分析品質?

A:RAG(檢索增強生成)架構能確保 AI 生成的研析結果具備可追溯性與真實依據。

在金融情報整合系統中,RAG 技術會先從資料庫檢索相關的原始交易紀錄,再交由 AI 進行語意分析與統整。這不僅能確保回覆內容精準,更能標註資料來源(如特定的 STR 編號),滿足執法單位對於證據鏈與稽核的高標準要求。

Q4:AI 如何整合來源不同的 CTR、STR 與國際情資?

A:系統透過「資料重建」技術,將多源資料轉化為標準化的統一格式。

意藍的系統會重新規劃不同來源的資料欄位,打破資訊孤島,使原本散落在各處的情資能以統一標準被檢索與交叉比對。這讓調查人員能在單一平台掌握完整的案件背景,不需在多個系統間反覆切換。

Q5:AI 系統如何降低新進調查人員的學習成本與判斷誤差?

A:透過「直覺式查詢介面」與「標準化研析邏輯」,減少對個人經驗的過度依賴。

系統提供簡便的操作介面,新進同仁不需掌握複雜的查詢語言,只要輸入關鍵字即可呈現關聯結果。此外,AI 輔助選案能維持一致的判斷邏輯,讓知識能在單位內快速傳承,不再需要長期仰賴資深同仁的口耳相傳。

Q6:處理敏感的金融交易情資,系統在資安與權限控管上有何保障?

A:意藍「金融情報整合 AI 分析系統」具備嚴格的角色權限控管與完整的查詢紀錄留存。

考慮到金融情資的高度機敏性,系統會依據使用者的職權劃分存取範圍,並完整保留每一筆操作與查詢軌跡。這不僅符合資安合規與內部稽核要求,更能確保偵查過程中的資料完整性與不被濫用。

Q7:導入「金融情報整合 AI 分析系統」後,對辦案流程有何具體提升?

A:系統能實現「資料登錄、查詢、選案到派案」的全流程優化。

透過自動標註與智慧選案,調查單位能及早辨識出高風險交易,大幅縮短人工初步篩選的時間。這讓調查官能將精力集中在深度案件研析與實體調查,全面提升辦案效率與情報掌握度,達到精準打擊犯罪的目標。

想進一步了解意藍更多AI技術嗎?

想即時掌握 AI 實際導入案例與趨勢觀點嗎?

AI Search 電子報 | vol.08 AI 進化進行式:Active RAG 開啟智慧決策新格局

AI Search 電子報 | vol.08 AI 進化進行式:Active RAG 開啟智慧決策新格局

AI Search 電子報|AI 企業應用亮點

AI Search 電子報:洞悉台灣企業 AI 落地真實力

在 AI 浪潮席捲全球的今日,資訊焦慮已成為企業共同的課題。國外最新的模型、最炫的應用,雖令人目不暇給,卻往往與台灣企業的日常營運有著一段不小的距離。我們真正需要的,不只是追逐國際 AI 快訊,而是在地實踐的洞見與智慧。

意藍資訊身為台灣第一家 AI 智能數據上櫃公司,站在產業第一線,深刻理解台灣企業導入 AI 時所面臨的真實挑戰,包括了各種產業應用,例如金融、製造、零售、服務、連鎖、乃至政府及公部門等,提出如何導入生成式 AI,真正滿足企業需求、解決企業問題、符合企業效益的解方。

這份《AI Search 電子報》因此而生。意藍資訊將以 AI 及數據的專業視角,分享生成式 AI 在台灣各行各業的導入故事,透過務實的策略與案例,旨在協助您找到最適合自身企業的 AI 路徑。誠摯邀請您,與意藍資訊一同探索 AI 在台灣企業的各種應用及可能。

意藍資訊總經理 楊立偉 博士

從被動搜尋到主動理解:Active RAG 開啟智能問答新時代

知識是企業組織日常運營不可或缺的一環,也在持續發展與價值創造中扮演關鍵角色。透過有效的知識管理,能夠累積並共享內部專業知識,進而減少重複性工作,促進跨部門合作、優化決策過程並提高運營效率。然而,傳統的知識管理方法往往面臨資訊分散、無法即時更新及搜尋效率低下等挑戰,使得企業在應對快速變化的業務需求時,可能需投入較多時間和資源以達成目標。

而檢索增強技術的出現,逐步突破了這些障礙,它結合了搜尋引擎快速檢索的優勢與大語言模型的生成能力,在生成答案前先檢索最新的相關資訊,以確保結果更可靠精準。意藍進一步開發了進階版本——主動式檢索增強生成技術(eLAND Active RAGᵀᴹ),以多回合查詢與動態優化機制,提升知識檢索的效率與準確性,為知識管理的應用提供新的可能。

主動式檢索增強生成技術如何重塑知識管理

認識eLAND Active RAGᵀᴹ ── 主動式檢索增強生成技術

eLAND Active RAGᵀᴹ(主動式檢索增強生成)是在RAG(檢索增強生成)的基礎上進一步升級的技術,具備以下核心功能特性,使其在知識管理中更具優勢:

  1. 內外部數據動態整合:

    eLAND Active RAGᵀᴹ 能根據問題性質,自動判斷最佳數據來源,從內部系統、資料庫以及外部網站等多元數據庫中進行查詢,並進行綜合分析,讓回覆結果能更多地參考最新資料來源,提升內容的相關性與完整性。

  2. 語義理解與推理:

    與傳統基於靜態關鍵詞的檢索方式不同,eLAND Active RAGᵀᴹ 能夠理解語句的語義,並依據問題的背景進行推理和回應,使結果更相關且精準。例如,對於問題「如何優化員工的工作流程?」,系統會理解問題的核心是提升工作效率,並基於此可協助產出具體建議,如檢視現有工具使用情況、導入自動化流程或改善跨部門協作等。

  3. 多回合查詢與自主優化

    eLAND Active RAGᵀᴹ 能根據已獲得之初步資訊動態調整查詢策略,多回合查詢以逐步完善答案,從而實現更深入的問題解決和分析。例如,對於「如何提升某產品市場佔有率?」的提問,在第一輪查詢時先自內部資料中提取產品的銷售數據,提供概括性分析;接著,再根據已取得的結果,進一步從外部資料庫提取相關細節,如競品的市場策略、消費者對產品的反饋等,於後續查詢中補充數據背景或上下文資訊。

導入主動式檢索增強生成技術對知識管理的影響

綜上所述,導入主動式檢索增強生成技術將對知識管理帶來深遠影響,主要體現在以下幾個方面:

  1. 提升數據整合能力,突破資訊孤島

    支援內外部數據的動態整合,能夠從企業內部資料庫、檔案系統到外部網站、公開數據源中提取所需資訊,並進行綜合分析,有效解決了傳統知識管理中數據分散、無法即時更新的難題。

  2. 增強問題理解與回應的精準性

    理解使用者提問的核心意圖,並結合問題背景進行智能推理,提供更精準且相關的答案,可提升知識檢索的效率,減少因資訊模糊或部相關造成的額外時間成本。

  3. 提升知識應用價值

    透過 eLAND Active RAGᵀᴹ,能將分散的資訊轉化為結構化且易於應用的知識,例如生成與決策相關的報告或建議方案,協助企業組織更有效地識別潛在機會或問題,縮短內部回應時間,並在資源配置上提供決策參考。

eLAND Active RAGᵀᴹ 在知識管理中的應用實例

意藍的新一代 GenAI 知識管理工作平台 – AI Search for KM 便結合了 eLAND Active RAGᵀᴹ 以及搜尋引擎、NLP與大語言模型等技術,協助使用者更有效地完成知識搜尋與問答服務,並可應用於多種情境,對複雜型任務具備一定的處理能力,以下將舉例說明。
當對系統提問「少子女化對社會產生什麼樣的衝擊?」,在 eLAND Active RAGᵀᴹ 的輔助下,系統將依循以下步驟進行運作,確保提供精準且有所依據的回答:

  1. 拆解任務及選用工具

    系統首先會將使用者的提問拆解為可執行的子任務,並根據問題性質選擇合適的工具與資料源。接著,這些子任務會被轉化為模型可處理的輸入參數,例如自動萃取關鍵詞、設定檢索條件(如時間範圍、產業分類)或生成語意提示,確保後續的檢索與分析更具針對性與效率。

  2. 生成輸入參數

    根據問題內容與選定資料庫,系統會再進一步生成適配的查詢參數,即設定一組適合用來搜尋資料的條件,並以設定之參數為基礎,啟動後續資料檢索過程。例如:

    – 關鍵字:少子女化、社會影響、政策、新聞、研究計畫。
    – 時間範圍:過去1年的相關資料。
    – 查詢格式:結構化的API請求或自然語言查詢。

  3. 解析輸出結果

    接著,系統會對檢索到的資料進行整理與分析,例如自少子女化相關的新聞報導中,統計出過去一年該議題的討論成長率,或是從研究資料中,彙整人口統計變化以及對社會經濟的具體影響點。

  4. 進行判斷及回覆

    最後,系統將檢視目前取得的資訊是否足以回答問題。若資訊足夠,系統會根據統計結果與分析,生成針對使用者提問的回答,如「少子女化對社會的衝擊包括勞動力減少、教育資源分配過剩及老齡化社會負擔增加等。」
    若判斷資訊仍不足,系統會自動重新進行檢索,並調整參數(如擴大時間範圍或查詢更多資料庫),透過多輪優化逐步補足所需資料。為了兼顧回答的完整性與運算效率,整個流程預設最多可進行三次迭代,以確保最終回覆的準確性與可靠度。

無論是企業組織或公部門單位,若導入 AI Search for KM 及 eLAND Active RAGᵀᴹ ,皆可望提升資訊處理的效率與精準度,金一步強化知識管理應用價值。

AI 導入授信流程,強化金融風控與決策效率

延續上期電子報,我們介紹了由四大功能模組組成的 AI 智能決策循環,如何透過「整合、推論、生成、檢核」的流程,打造可持續運作且不斷優化的知識系統,協助組織有效解決管理與營運挑戰,並展示了證券業的導入實例。本期則將以金融業為例,解析 AI Agent 如何融入授信業務流程,並在多元任務階段中的發揮價值,強化風險控管與決策效率。

在金融業中,處理大型企業的授信作業時,徵信與授信部門常需核對授信客戶的公司結構、財報異常及法規風險,並撰寫相關風險評估報告,而在這過程中,容易發生資料落差與審查疏漏的情況,因此可透過導入 AI 智能決策循環應對這些挑戰。

▲ 金融業 x AI 導入實務 流程圖

首先,在「動態監控與情報整合」階段,AI 可協助追蹤企業財報異常、主管機關公告以及信用異動,協助團隊更早識別潛在風險;接著,透過「數據推論與關聯分析」模組,AI 能夠自動交叉比對董監事名單、轉投資架構,計算出關聯度,降低授信集中風險,避免風控盲點;在「內容生成與專業論述」上, AI 可協助產出標準化授信草案及風險分析段落,讓核貸人員專注於關鍵判斷上;最後,「品質維持與異常監測」模組則負責檢核公告、報告與財報內容的一致性,協助提升資料的一致性與完整性,進而強化法遵與內控品質,降低合規風險。

▲ 內容生成與專業論述 AI 應用 示意圖

綜上所述,透過四大模組,包含情報蒐集、數據驗證、文件撰寫到品質控管,金融業透過使用 AI 架構,徵授信團隊能將更多時間投入在判斷與決策上,而非耗費在資料整理與比對,在提升工作效率的同時,也強化了整體風險管理能力。

11/5 (三) 意藍 AI Search 新品發布會🔥

意藍資訊將於 11/5 (三) 舉辦新品發布會,
結合資料萃取、智能分析與 AI 技術,推出全新 AI Search 解方,
助力企業升級數據力與決策力,全面掌握 AI 應用價值。
立即前往報名!

AI Search 電子報 | vol.03 掌握檢索增強生成技術

AI Search 電子報 | vol.03 掌握檢索增強生成技術

AI Search 電子報|AI 企業應用焦點

AI Search 電子報:洞悉台灣企業 AI 落地真實力

在 AI 浪潮席捲全球的今日,資訊焦慮已成為企業共同的課題。國外最新的模型、最炫的應用,雖令人目不暇給,卻往往與台灣企業的日常營運有著一段不小的距離。我們真正需要的,不只是追逐國際 AI 快訊,而是在地實踐的洞見與智慧。

意藍資訊身為台灣第一家 AI 智能數據上櫃公司,站在產業第一線,深刻理解台灣企業導入 AI 時所面臨的真實挑戰,包括了各種產業應用,例如金融、製造、零售、服務、連鎖、乃至政府及公部門等,提出如何導入生成式 AI,真正滿足企業需求、解決企業問題、符合企業效益的解方。

這份《AI Search 電子報》因此而生。意藍資訊將以 AI 及數據的專業視角,分享生成式 AI 在台灣各行各業的導入故事,透過務實的策略與案例,旨在協助您找到最適合自身企業的 AI 路徑。誠摯邀請您,與意藍資訊一同探索 AI 在台灣企業的各種應用及可能。

意藍資訊總經理 楊立偉 博士

生成式 AI 回答總不精準?RAG 技術正是企業關鍵解方

AI 技術發展飛速,而檢索增強生成技術 (Retrieval-Augmented Generation, RAG) 則成了讓大型語言模型 (LLM) 更加高效、智能的關鍵技術。RAG 檢索增強生成結合了搜尋引擎與大語言模型,也就是檢索與生成的特點,能有效地先找出精準且相關的內容後,再讓大語言模型依據相關的內容做參考,理解後再生成回答,可以有效解決大語言模型幻想 (hallucination) 的問題,並且能夠提供相關內容的參考出處,增加了可解釋性 (Explainability) 和可驗證性 (Verifiability),並且能夠透過搜尋引擎來快速變換參考的相關資料,不需要對大語言模型進行再訓練,具備了速度和成本效益優勢,其企業應用範圍與情境更是廣泛。本文將深入探討 RAG 檢索增強生成的原理、優勢與應用場景,並說明意藍在此技術下的應用實踐。

認識檢索增強生成 (RAG)

什麼是檢索增強生成?

檢索增強生成 (Retrieval-Augmented Generation, RAG) 是一種結合了檢索 (Retrieval) 和生成 (Generation) 兩種方法的人工智慧技術,從大量的文本資料中搜尋相關的資訊,並基於檢索到的資訊生成更具體、更可信的答案。

檢索增強生成的優勢與挑戰

生成式 AI 在生成內容時,可能會出現杜撰答案或是答非所問等 AI 幻覺 (hallucination) 之情況。而檢索增強生成能解決此問題,增加其可解釋性和可信度,整體而言可歸納為以下優勢:

  1. 依照相關的參考資訊來生成內容,可以提高生成內容的準確性和品質,避免生成虛假、不切實際的誤導性資訊
  2. 增加可信度與可驗證性,確保生成的內容具有可靠的參考依據,而非僅根據過去的學習經驗推測,且生成的內容可被檢查驗證。
  3. 節省訓練成本,更快速地更新知識。由於訓練 (或微調再訓練) 語言模型新知識都需要大量的時間和金錢成本,但 RAG 檢索增強生成能利用現有模型,只要透過搜尋引擎快速更新相關的參考資料,就可以反應在生成結果上,不必進行新一輪的訓練,更新速度快、成本也低。

除了具備以上優勢外,一個好的 RAG 檢索增強生成技術需在實際應用中克服以下挑戰,以發揮其潛力並有效提升效能:

  1. 無檢索結果時的回覆

    當檢索增強生成沒有檢索到得以回答使用者問題的知識時,需判斷並回覆無相關參考資料,不要硬答,避免大語言模型杜撰答案,才不會出現AI幻覺問題。

  2. 生成回覆內容的實用性

    檢索增強生成需確保生成之內容不僅與檢索到的知識相關,且還需具備流暢性、準確性及實用性。

  3. 效率和擴展性

    隨著知識庫不斷擴大,檢索增強生成需維持檢索和生成過程的效率與精準度。

  4. 實際應用彈性

    應用檢索增強生成時須考慮到不同領域的需求,有些領域的知識點敘述較長、有些領域知識較分散,需能彈性調整段落長短、段落數多寡等,真正能夠完整地找出相關的內容,以符合不同的應用場景,這將是關鍵重點。

RAG 檢索增強生成的應用場景

RAG 檢索增強生成適用於需要透過相關的參考資料來輔助回答的問答系統、智能對話系統以及其他自然語言處理應用,來滿足客戶在不同場域的各種需求,如:

  1. 問答系統

    用於需要透過相關的參考資料來輔助回答的問答系統,例如客服人員使用的常見問答集 (Frequently-Asked Questions, FAQ) 或標準作業程序 (Standard Operation Procedures, SOP),特別是在回答專業知識問題時,RAG 檢索增強生成能提供更精準及可靠的解答。

  2. 智能對話系統

    對話系統通常需結合大量知識來回答使用者的問題,RAG 檢索增強生成可協助系統更好地理解用戶的問題並提供具有明確出處和連貫性的回應。

  3. 知識檢索及擴充

    企業或組織通常擁有大量的內部知識資源,包括文件、報告、手冊等。RAG 檢索增強生成可協助使用者快速檢索到所需的知識資訊,同時也可不斷擴充相關知識,提供更全面、深入的內容。

  4. 知識管理

    RAG 檢索增強生成可協助組織更有效地管理和利用大量的知識資源,以提高知識的可用性及共享性,促進團隊合作和創新。

RAG 檢索增強生成的應用實例

而 RAG 檢索增強生成又能應用在哪些場域呢?接著我們進一步說明應用實例如下:

  1. 輿情分析

    針對特定事件、議題,蒐集並觀測社會大眾的意見進行輿情分析,檢索增強生成可透過檢索大量相關的社群網站貼文、討論區評論、新聞文章等資料,找出特定內容作為參考,讓與搜尋引擎高度整合的大語言模型來生成對應的摘要或分析結果。此方式能從大量的資料源找出可用資訊,對輿情進行全面準確的分析,同時也保持生成內容的靈活性和即時性。

  2. 財經分析

    在金融領域,RAG 檢索增強生成可透過檢索過去至今完整相關的重大訊息、公開說明書、市場數據、公司報告、專家評論等資料,生成對於當前市場概況的歸納或未來趨勢的預測推論。此方式可充分利用豐富的歷史資料,同時了解即時的市場資訊,有助於提高分析預測的準確性和可信度。

總結而言,因大語言模型進行預先訓練或微調需要耗費大量時間和資源,無法即時應對快速變動的環境,而 RAG檢索增強生成能藉由結合檢索 (搜尋引擎) 和生成 (大語言模型) 的方法,即時地分析大量的資訊,有效協助使用者更佳理解及應對快速變動的情況。

意藍資訊於檢索增強生成的應用

意藍結合 RAG 檢索增強生成的發展優勢

RAG 檢索增強生成的概念是高度整合搜尋引擎與大語言模型,先透過檢索功能找出完整相關的參考資料,再基於大語言模型的理解和生成能力,讓該模型進行摘要,進而生成即時、精確的答案,因此搜尋引擎的好壞便成為 RAG 檢索增強生成出色與否的重要因素。

而意藍資訊在數據處理及分析領域深耕多年,也 將搜尋技術 (Search) 與自然語言 (NLP) 經驗結合,不僅能兼顧傳統關鍵字檢索的精準快速搜尋,以及向量搜尋可支援自然語言提問的特點,提供使用者更佳的檢索功能與卓越的 RAG 檢索增強生成服務體驗。

此外,擁有 RAG 檢索增強生成的系統就有如口袋中放了百科全書,使得在生成內容時不再受限於過往訓練的資料,而能即時瀏覽大量的專業知識文件,以解決特定領域的複雜問題,進一步提升問題解決的效率。且面對資訊爆炸的今日,新資料推陳出新,有了 RAG 檢索增強生成技術,可讓我們的產品與技術持續從新數據學習及擴展知識庫,使產品在任何情境下都能保持訊息的即時性。

意藍於檢索增強生成的應用

而意藍資訊在 RAG 檢索增強生成主要有以下應用:

  1. 訓練大語言模型

    意藍自行研發並訓練了大語言模型 eLAND GOAT,能夠與搜尋引擎高度整合並進行優化,用以加強 RAG 檢索增強生成中對於參考相關資訊的摘要及回答的能力。

  2. AI Search for KM 新一代 GenAI 知識管理工作平台

    我們將 RAG 檢索增強生成應用在知識管理領域,透過結合搜尋、NLP與大語言模型打造出新一代 GenAI 知識管理工作平台,提供使用者更高效、智能的知識搜尋與問答服務體驗。

  3. AI 輿情應變顧問

    將 RAG 檢索增強生成結合最完整、最即時的網路聲量資料,提供以自然語言口語文字查詢,就可以彙整、生成輿情重點,依照真實內容來提供 AI 應變建議,可以應用在市場研究、行銷趨勢、公關應變,任何需要快速掌握輿情重點的企業場景中。

意藍 AI 技術的未來展望

我們相信, 整合了搜尋引擎與大型語言模型 (LLM) 的 RAG 檢索增強生成技術,能夠轉化為企業的知識和營運數據中心。這意味著企業中的多個重要系統,如知識管理 (KM)、企業資源規劃 (ERP)、客戶關係管理 (CRM) 以及人力資源 (HR) 等,都可透過 RAG 檢索增強生成技術進行整合,不僅能提高數據的利用效率,也能加強企業的資料治理能力,讓企業更加依循正確的資料做出有效決策。展望未來,我們會持續致力於透過 AI 技術讓數據增值,並進一步賦能合作夥伴,協助提升企業營運效能。

民眾聲音太多、處理繁雜?AI 助攻政府即時掌握民意脈動

地方政府經年累月從派工系統、話務系統、人民陳情與市長信箱等來源接獲的陳情資料相當龐雜,無論是市府人員後續欲整理陳情資料進行分析,或是借鑒過往陳情案件的回覆用於新案件,皆費時費力。因此,意藍運用 AI 技術,提供市府陳情儀表板與陳情問答輔助解決方案,協助地方政府得以更有效分析資料輔助陳情回覆

陳情問答知識檢索問答平台服務流程說明

政府單位肩負服務民眾和執行公共政策的重責,其運作效率將直接關係到社會的發展與民眾福祉,而知識管理可透過以下多個面向提升政府效能:

  1. 收集各來源資料並進行語意分析

    集合來自派工系統、話務系統、市長信箱等各來源之陳情資料,透過 DeepNLP 技術進行情緒分析和特徵擷取,填補陳情資料中資訊欄位的缺失值,使整體陳情資料更為完整。

  2. 跨來源資料檢索,快速產製報表

    利用強大的搜尋引擎技術,提供市府同仁簡單、快速的陳情資料全文檢索服務,並進一步建置視覺化儀表板,以利單位人員透過檢視圖表,從中挖掘出陳情資料比例、變化、趨勢等資訊。

  3. 生成式 AI 陳情問答輔助

    利用 AI 技術,將過往市民陳情類型資料、機關的答覆內容,以及常見市政問答 (FAQ) 文本等資料,進行個資去除後,再使用大語言模型預先進行訓練和學習,最後結合生成式 AI,產出最合適的陳情回覆內容。

技術特色與優勢

為了協助專案單位自動化完成陳情資料分類與視覺化,並結合生成式 AI 提供陳情回覆作為參考,意藍規劃之 AI 智能搜尋解決方案,首先收集目標單位之1999陳情資料,再將各來源數據透過 DeepNLP 技術,分析民眾陳情情緒、擷取陳情內容特徵資訊等,整理成結構化資訊。接著,採用意藍搜尋引擎技術,讓使用者可以藉由彈性的檢索條件快速查詢到想了解的特定陳情案件,再串接 Google Looker Studio 整合成儀表板,提供視覺化圖表供使用者可以快速、清晰地了解案件概況與量化數值。最後我們使用 AI 技術,對歷史陳情問答資料進行個資去除與大語言模型預先訓練,建構新型態生成式 AI 陳情問答知識平台,並以 Web Service 形式提供自動生成式陳情回覆 API 服務,以利市府同仁得以更清楚且有效率地分析資料、加速陳情資料分類,並提升回覆效率。

導入成果展示

陳情資料結構化

結構化應用:加速資料處理流程,可用於各種統計分析(地點、時間、車牌、店家等)

陳情資料結構化

陳情問答輔助解決方案可除去個資使其更安心,並協助客服人員快速回覆民眾客訴內容,以提升效率、減輕人力負擔,以下為陳情資料回覆流程:

  1. 民眾客訴內容

    對原始資料進行去除個資處理,避免留存過多不必要的個資。

  2. 查詢不同資料源

    QA 問答紀錄、FAQ 常見問答集、規格說明書及疑難雜症技術文件。

  3. 大語言模型生成回覆信

    LLM 參考各種相關內容作為回覆依據,產出適合的回覆內容。

陳情資料回覆助理

協助客服人員快速回覆民眾陳情內容,提升客服效率、減輕客服人力負擔

陳情資料自動回覆助理

陳情資料回覆特點

陳情資料自動回覆特點

<span style=" display: block; font-size: 0.8em; font-weight: 100; color: #A5A3A3;">精華文章</span>Fine-tuning微調是什麼?打造企業專屬AI大語言模型的關鍵一步

精華文章Fine-tuning微調是什麼?打造企業專屬AI大語言模型的關鍵一步

Fine-tuning(微調)是什麼?
打造企業專屬AI大語言模型的關鍵一步

隨著 AI 技術的蓬勃發展,AI 大語言模型的應用也日益廣泛,從企業決策到內容生成,各行各業都在探索其潛力。然而,AI 模型有時無法準確回應特定需求,或因對特殊領域的知識有限而產生錯誤資訊,此時除了檢索增強生成(Retrieval-Augmented Generation,RAG)技術外,就需要透過 Fine-tuning(微調)技術來進一步優化、提升模型準確度。本文將帶您了解Fine-tuning的運作原理,並介紹其多元的應用與商業價值。

認識 Fine-tuning(微調)

什麼是 Fine-tuning?

Fine-tuning,也就是微調,是一種針對既有 AI 大語言模型進行優化的機器學習技術,透過調整模型權重,使其在特定應用場景下的輸出結果更準確、符合預期。Fine-tuning 保留基礎模型的能力,同時針對特定領域強化應答準確性,相比從零開始訓練一個新模型,大幅節省了開發所需的成本與時間。

為什麼需要 Fine-tuning?

現成通用的 AI 大語言模型雖然功能強大,但在特定領域如法律、醫療、金融、科技製造等產業中,可能無法精確理解專業術語或規則,甚至可能產生錯誤資訊,無法直接應對每個組織或企業的獨特需求。而透過 Fine-tuning,可以讓模型深度學習特定領域的知識、更準確地理解特定語境,進而提升整體專業性與應用價值,成為企業AI部署的重要步驟。

Fine-tuning 運作流程

Fine-tuning 的作業流程通常包括以下幾個步驟:

  1. 選擇預訓練(pre-train)模型

    根據企業組織的需求,選擇合適的 AI 大語言模型,如OpenAI GPT系列、Meta Llama系列、 國科會TAIDE模型、聯發科Breeze模型,或是eLAND GOAT模型等。

  2. 準備微調數據

    提供與任務或應用場景相關的資料作為模型的學習素材,如客服對話紀錄、法律文件、產品規格或研發文件、企業內部資料等,使模型能更準確地理解專業內容並優化回應品質。

  3. 調整模型參數

    透過微調數據對模型進行訓練,更新部分或全部數據資料的權重參數,使其更貼近企業應用場景的需求。

  4. 評估與優化

    藉由準確率(Accuracy)、召回率(Recall)、F1分數(F1 Score)等指標來衡量微調效果,並根據測試結果不斷進行調整與優化,確保模型輸出更符合使用者需求。

經過微調的AI模型,能夠更有效地應對高度定制化的需求,對於企業而言,無論在提升業務效率、改善客戶服務,或者優化內部決策過程中,都能發揮重要作用。

Fine-tuning 於企業中的應用

如前段所述,Fine-tuning 不僅是提升模型準確度的工具,更成為幫助企業提升營運效率、降低成本和創造競爭優勢的關鍵,以下進一步彙整 Fine-tuning 在企業中的三大應用價值:

  1. 增強企業專屬化服務

    透過 Fine-tuning,企業能夠調整 AI 模型的回應語氣、風格與內容,從而提供更具個性化的服務體驗。例如,在客服領域,企業可以根據不同客戶群體的特性、偏好或文化背景,調整模型的回應方式,進一步提升顧客滿意度;在科技製造業,許多特殊的產品規格、專業的用字及術語,都可以透過微調模型,讓研發人員在使用上更順暢。

  2. 提升專業知識掌握度

    Fine-tuning 可強化 AI 在特定領域的知識理解與應用能力,特別適用於法律、醫療、金融等高度專業的行業。例如,透過 Fine-tuning,使 AI 更熟悉特定的專利法條文與案例,不僅能幫助法律人員更快地檢索相關判例,還能協助草擬專業的法律文書,從而提高工作效率並確保法律建議的精準性。

  3. 提升業務流程的自動化與效率

    Fine-tuning 可根據企業的運營需求進行調整,使 AI 更精準地理解並執行特定任務,進而提升業務流程的自動化程度與運營效率,並降低人為錯誤。例如,在銷售自動化方面,一家電子商務公司可透過 Fine-tuning 優化 AI 銷售助理,使其根據顧客的購物歷史與個人偏好,自動生成量身定制的促銷訊息或產品推薦。如此一來,AI 不僅能更準確地預測顧客需求,還能主動推送適合的產品與折扣資訊,提高銷售轉化率,同時減輕銷售人員的工作負擔。

Fine-tuning 的優勢與挑戰

綜合來說,Fine-tuning 的核心價值在於 將 AI 從「通用」變成「專屬」,「標準化」變成「個人化」,讓企業能更有效地利用 AI 工具滿足需求。運用微調技術,企業可以大幅減少每次與 AI 互動所需的 Token 數量,從而降低運行成本。此外,企業可在內部環境中訓練 AI,既能確保敏感資料不外流,也能強化資料安全性,而經內部數據微調後的 AI ,能更快速生成精確回應,提升互動流暢度並減少錯誤資訊的風險。

而雖然 Fine-tuning 具有諸多好處,但是也具備一定的技術難度。一般而言,Fine-tuning 需克服的挑戰如下:

  1. 選擇合適的預訓練(pre-train)模型及微調方法

    在技術層面, Fine-tuning 微調可採用多種不同的方法,如何在保留模型原有能力(capability)的同時,又獲得最好的學習效果,需仰賴有經驗的專家給予指導,並進行系統化的實驗。

  2. 準備適當的訓練資料集

    微調數據的數量、品質以及形式都將直接影響最終成果。大量但品質低劣或格式不佳的數據,未必能得到好的微調結果;而具備高品質、形式佳的數據,即便數量有限,仍可透過數據合成(data synthesis)或強化等技術的輔助,也可能有利於微調的成功。

  3. 確保適當的運算資源

    在 Fine-tuning 微調模型時,通常需要比模型推論(inference)更多的資源,如算力和記憶體等,而有時不一定一次就能微調成功,可能需要多回合地嘗試。因此,如何有效地運用算力及資源、提高微調成功率,也是必須克服的挑戰之一。

綜前所述, Fine-tuning 是企業打造專屬 AI 模型的重要技術,能協助企業更靈活應對市場變化、拓展創新應用,無論是提升客戶服務、優化內部流程,或創造新的商業價值,都將成為數位轉型與業務成長的關鍵。若企業希望充分發揮 Fine-tuning 的效益,則可選擇與具備經驗的廠商合作,以降低試錯成本與時間,提高成功率並加速導入。

常見問題 FAQ

Q1:什麼是 Fine-tuning (微調)?它與一般 AI 訓練有什麼不同?

A: Fine-tuning (微調) 是一種針對既有 AI 大語言模型進行優化的機器學習技術。

透過調整模型權重,使其在特定應用場景下的輸出結果更準確、符合預期。相對於從零開始訓練新模型,微調保留了基礎模型(如 eLAND GOAT)的原有能力,同時強化其對特定領域專業知識的掌握,能大幅節省開發所需的成本與時間。

Q2:為什麼企業需要 Fine-tuning(微調),而非直接使用通用模型?

A:因為通用模型在法律、醫療或製造等專業領域中,常因缺乏特定領域知識而產生錯誤資訊。

現成模型往往無法精確理解產業術語或企業內部規則,透過微調技術,可以讓模型深度學習特定語境,將 AI 從「通用」轉變為「專屬」,不僅提升了應答的準確性,還能使模型回應風格符合企業品牌形象。

Q3:Fine-tuning(微調)的作業流程?

A:微調流程通常包括模型選擇、數據準備、參數調整與評估優化四個階段。

首先需挑選預訓練模型,並提供與場景相關的高品質資料(如客服紀錄、專業文件)作為學習素材。接著更新模型數據的權重參數,使其貼近企業需求。最後透過準確率、召回率(Recall)等指標衡量微調效果,並持續優化至符合使用需求。

Q4:企業導入 Fine-tuning (微調) 技術會面臨哪些挑戰?

A:微調技術的主要挑戰在於微調方法選擇、數據集品質以及運算資源的配置。

企業需仰賴專家經驗來選擇合適的微調方法,以保留模型原有能力。此外,微調數據的品質與格式對成果有直接影響,且微調過程通常比模型推論需要更多的算力(GPU)與記憶體資源,往往需多回合嘗試方能成功。

Q5: Fine-tuning (微調) 能為企業創造哪些具體的商業價值?

A:微調技術能幫助企業增強專屬化服務、提升專業知識掌握度,並實現業務流程自動化。

透過微調,企業可優化 AI 助理以精準執行特定任務,如自動生成個性化行銷內容或檢索專業法律文書,進而提升運營效率並降低人為錯誤。此外,微調還能降低每次互動所需的 Token 成本,並確保敏感資料在內部環境中處理的安全性。

想進一步了解更多意藍AI技術嗎?

想即時掌握 AI 實際導入案例與趨勢觀點嗎?

<span style=" display: block; font-size: 0.8em; font-weight: 100; color: #A5A3A3;">精華文章</span>從 RAG 到 eLAND Active RAGᵀᴹ:主動式檢索如何讓企業知識管理更精準?

精華文章從 RAG 到 eLAND Active RAGᵀᴹ:主動式檢索如何讓企業知識管理更精準?

從 RAG 到 eLAND Active RAGᵀᴹ:
主動式檢索如何讓企業知識管理更精準?

在數位化時代,資訊量爆炸式增長,如何有效地蒐集、整理、儲存並運用知識,無疑是各企業組織提升競爭力的關鍵之一,良好的知識管理不僅能縮短決策時間,還能提高員工效率、促進創新,以在快速變化的環境中保持彈性與活力。檢索增強生成技術(Retrieval-Augmented Generation, RAG)的出現,為知識管理帶來了全新突破,而透過引入多輪次資料整合與更高效的檢索能力,意藍進而將RAG 技術發展為獨家專門的eLAND Active RAGTM(主動式檢索增強生成技術),大幅提高知識管理的效率與精準度,使各部門單位能更靈活應對多變的市場需求。

本期 AI 知識庫亮點

主動式檢索增強生成技術如何重塑知識管理
  1. 認識eLAND Active RAGᵀᴹ ── 主動式檢索增強生成技術
  2. 導入主動式檢索增強生成技術對知識管理的影響
eLAND Active RAGᵀᴹ 在知識管理中的應用實例
常見問題 FAQ

主動式檢索增強生成技術如何重塑知識管理

知識不僅是企業組織日常運營的基礎,更是其持續發展和創造價值的核心驅動力,透過有效的知識管理,能夠累積並共享內部專業知識,進而減少重複性工作,促進跨部門合作、優化決策過程並提高運營效率。然而,傳統的知識管理方法往往面臨資訊分散、無法即時更新及搜尋效率低下等挑戰,使得企業在應對快速變化的業務需求時,可能需投入較多時間和資源以達成目標。 而檢索增強技術的出現,逐步突破了這些障礙,它結合了搜尋引擎快速檢索的優勢與大語言模型的生成能力,在生成答案前先檢索最新的相關資訊,以確保結果更可靠精準。特別是意藍所獨家發展之進階版本——主動式檢索增強生成技術(eLAND Active RAGᵀᴹ),更是在此基礎上實現突破,能針對複雜的問題進行多回合查詢,逐步完善答案,大幅提升知識檢索效率,為知識管理帶來嶄新的轉機。
認識eLAND Active RAGᵀᴹ ── 主動式檢索增強生成技術
eLAND Active RAGᵀᴹ(主動式檢索增強生成)是在RAG(檢索增強生成)的基礎上進一步升級的技術,具備以下核心功能特性,使其在知識管理中更具優勢:
  1. 內外部數據動態整合:
    eLAND Active RAGᵀᴹ 能根據問題性質,自動判斷最佳數據來源,從內部系統、資料庫以及外部網站等多元數據庫中進行查詢,並進行綜合分析,使生成之回覆不再僅依賴過時數據,而是根據最新資料產出精確、全面的結果。
  2. 語義理解與推理:
    與傳統基於靜態關鍵詞的檢索方式不同,eLAND Active RAGᵀᴹ 能夠理解語句的語義,並依據問題的背景進行推理和回應,使結果更相關且精準。例如,對於問題「如何優化員工的工作流程?」,系統會理解問題的核心是提升工作效率,並基於此提供具體的建議,如檢視現有工具的使用情況、引入自動化流程或改善跨部門協作等。
  3. 多回合查詢與自主優化
    eLAND Active RAGᵀᴹ 能根據已獲得之初步資訊動態調整查詢策略,多回合查詢以逐步完善答案,從而實現更深入的問題解決和分析。例如,對於「如何提升某產品市場佔有率?」的提問,在第一輪查詢時先自內部資料中提取產品的銷售數據,提供概括性分析;接著,再根據已取得的結果,進一步從外部資料庫提取相關細節,如競品的市場策略、消費者對產品的反饋等,於後續查詢中補充數據背景或上下文資訊。
導入主動式檢索增強生成技術對知識管理的影響
綜上所述,導入主動式檢索增強生成技術將對知識管理帶來深遠影響,主要體現在以下幾個方面:
  1. 提升數據整合能力,突破資訊孤島
    支援內外部數據的動態整合,能夠從企業內部資料庫、檔案系統到外部網站、公開數據源中提取所需資訊,並進行綜合分析,有效解決了傳統知識管理中數據分散、無法即時更新的難題。
  2. 增強問題理解與回應的精準性
    理解使用者提問的核心意圖,並結合問題背景進行智能推理,提供更精準且相關的答案,大幅提升知識檢索的有效性,避免使用者因模糊或不相關的資訊浪費時間。
  3. 提升知識應用價值
    透過 eLAND Active RAGᵀᴹ,能將分散的資訊轉化為結構化且易於應用的知識,例如生成與決策相關的報告或建議方案,協助企業組織快速識別業務機會或解決問題,抑或縮短內部問題回應時間、提升市場預測準確度,進而實現更高效的資源配置。

eLAND Active RAGᵀᴹ 在知識管理中的應用實例

意藍的新一代生成式AI知識管理系統 AI Search for KM 便結合了 eLAND Active RAGᵀᴹ 以及搜尋引擎、NLP與大語言模型等技術,提供使用者更高效、智能的知識搜尋與問答服務體驗,其應用情境相當多元,對複合型知識任務具備強大處理能力,能夠主動拆解複雜問題並完成知識任務,以下將舉例說明。 當對系統提問「少子女化對社會產生什麼樣的衝擊?」,在 eLAND Active RAGᵀᴹ 的輔助下,系統將依循以下步驟進行運作,確保提供精準且有所依據的回答:
  1. 拆解任務及選用工具
    系統首先分析問題,識別核心關鍵字(如「少子女化」、「社會衝擊」),並將問題拆解為可操作的子任務。接著,系統檢視可用的資料來源,如政策資料庫、最新的媒體報導、少子女化相關的學術研究與報告等,並選定最符合此問題的資料來源作為後續查詢的基礎。
  2. 生成輸入參數
    根據問題內容與選定資料庫,系統會再進一步生成適配的查詢參數,即設定一組適合用來搜尋資料的條件,並以設定之參數為基礎,啟動後續資料檢索過程。例如: – 關鍵字:少子女化、社會影響、政策、新聞、研究計畫。 – 時間範圍:過去1年的相關資料。 – 查詢格式:結構化的API請求或自然語言查詢。
  3. 解析輸出結果
    接著,系統會對檢索到的資料進行整理與分析,例如自少子女化相關的新聞報導中,統計出過去一年該議題的討論成長率,或是從研究資料中,彙整人口統計變化以及對社會經濟的具體影響點。
  4. 進行判斷及回覆
    最後,系統將檢視目前取得的資訊是否足以回答問題。若資訊足夠,則系統便會根據統計之結果與分析,生成針對使用者提問的回答,如「少子女化對社會的衝擊包括勞動力減少、教育資源分配過剩及老齡化社會負擔增加等。」 而若判斷資訊仍不足,系統則會重新進行檢索、調整參數(如擴大時間範圍或查詢更多資料庫),最多重複三次,以確保回答的完整性與準確性。
無論是企業組織或公部門單位,在 AI Search for KM 及 eLAND Active RAGᵀᴹ 的助力下,將能夠實現更高效、更精準的資訊處理與應用,發揮知識管理的最大價值。

常見問題 FAQ

Q1:一般 RAG 跟 eLAND Active RAGᵀᴹ (主動式檢索) 有什麼差別?

A:最大的差別在於「主動性」與「多回合推理」。

傳統 RAG 通常只進行一次性檢索,回答簡單問題還可以,但遇到複雜問題時容易資訊不足。eLAND Active RAGᵀᴹ 則會主動拆解任務,根據初步結果動態調整查詢策略,並進行多回合查詢。這就像是一個會思考的助理,在回覆前會反覆確認資料是否充足,確保答案更深、更準。

Q2:我的資料分散在公司內部與網路上,Active RAG 找得到嗎?

A:可以,eLAND Active RAGᵀᴹ 具備「內外部數據動態整合」的能力。

它能自動判斷問題的性質,同時從企業內部的資料庫(如研發文件、內部規章)以及外部的公開網站、研究報告中提取資訊。這解決了傳統 KM 無法即時更新或資訊孤島的難題,讓 AI 產出的回覆能結合最新的內外部數據。

Q3:Active RAG 如何處理「比較複雜」或「範圍很大」的問題?

A:系統會透過「任務拆解」與「自主優化」來應對複雜任務。

例如提問「少子女化的社會衝擊」,系統不會直接給出笼統回答,而是先拆解關鍵字,同步檢視政策庫、學術研究與最新報導,甚至會根據統計結果生成輸入參數。若系統判斷目前資訊不足以完整回答,還會重新檢索並調整搜尋範圍,直到答案完整為止。

Q4:導入主動式檢索增強生成技術,對企業有什麼幫助?

A:它能打破資訊孤島,將分散的數據轉化為結構化的共享知識。

透過 eLAND Active RAGᵀᴹ,原本散落在各部門、不同格式的檔案能被智能整合並推理。這能縮短跨部門諮詢的時間,協助管理層快速生成決策報告或建議方案,提升整體資源配置的效率。

Q5:為什麼 Active RAG 能讓 AI 回答得更「聰明」且更有邏輯?

A:因為其具備語義理解與智能推理能力。

不同於過去只能比對關鍵字,Active RAG 能理解問題背後的「背景」。例如詢問優化流程,系統會推理出核心目的是提升效率,並基於此背景從知識庫中找出如「引入自動化」或「改善協作」等具體建議,而不只是死板地回傳包含標題的文件。

Q6:意藍 AI Search for KM 系統如何結合 Active RAG 技術?

A:AI Search for KM 將其作為核心引擎,提供高效的智能問答服務。

該系統整合了 eLAND Active RAGᵀᴹ、搜尋引擎與大語言模型。當使用者提問後,系統會自動進行任務拆解、參數設定、結果解析及判斷回覆等步驟。目前已廣泛應用於企業與公部門,協助處理複合型的知識管理任務。

Q7:如果 AI 第一次檢索出的資料不夠完整,Active RAG 會怎麼做?

A:系統會啟動多回合查詢機制,最多重複三次進行自我修正。

在解析初步輸出結果後,若系統判斷目前的資訊不足以完全解答使用者的問題,它會自動重新生成查詢條件(例如擴大時間範圍或檢索更多資料來源),直到達到高準確度的回覆標準,這就是其「自主優化」的展現。

想進一步了解「新一代生成式 AI 知識管理系統(AI Search for KM)」?

想即時掌握 AI 實際導入案例與趨勢觀點嗎?

<span style=" display: block; font-size: 0.8em; font-weight: 100; color: #A5A3A3;">精華文章</span>如何利用 AI 掌握即時災情?看災防中心如何透過 AI Search for KM 落實循證決策

精華文章如何利用 AI 掌握即時災情?看災防中心如何透過 AI Search for KM 落實循證決策

如何利用 AI 掌握即時災情?
看災防中心如何透過 AI Search for KM 落實循證決策

近年來, AI 技術的持續創新突破,推動了政府和企業內的數位變革,如何導入並善用AI以提升服務的效率和品質,成為各單位組織的重要課題。
國家災害防救科技中心(National Science & Technology Center for Disaster Reduction,以下簡稱災防中心或NCDR)為政府於2003年設立的專業機構,多年來專注於災害風險管理防救科技的研究;為了能在災害發生時更即時地掌握災情、強化危機事件處理能力,災防中心與意藍資訊合作,導入意藍「AI Search For KM」系統,運用生成式AI與自然語言模型建構「災害防救知識問答平台」,大幅提升災情資訊處理效率,並以數據支持決策判斷,為智慧城市發展奠定穩固基礎。

災防中心背景與需求介紹

國家災害防救科技中心成立於2003年,主要任務在於提升台灣在面對各種自然災害時的應變能力與減災效果、確保民眾生命財產安全。面對台灣頻繁發生的地震、颱風、土石流等天然災害,災防中心不僅需在災前做好準備,也必須在災害發生後迅速掌握最新狀況,整合、分析各類災情資訊以協助政府及相關單位作出精確的應對決策,並提供必要的預警或通報。

隨著大量災情資訊不斷累積,災防中心在知識管理升級方面的需求日益增強;另一方面,數位化時代下社群媒體和網路社群亦成為災情資訊快速傳播的主要來源,這些公開管道中的資訊量龐大且更新頻繁,如何高效蒐集、結構化、分析並運用這些來自各地的災情回饋,也是災防中心需面對的重要課題之一。

以AI Search for KM 建構「災害防救知識問答平台」

為了更快速、準確地掌握災情資訊以提升災害應變效率,災防中心選擇與意藍資訊合作,導入意藍新一代生成式AI知識管理系統「AI Search for KM」,運用人工智慧與自然語言模型技術,並結合社群輿情資料和專屬的歷史數據庫,打造「災害防救知識問答平台」,解決資訊來源分散、數據處理繁複等痛點,協助單位提升資訊處理效率,以利更好地應對和管理災害風險。 意藍協助災防中心建構災害防救知識問答平台的流程如下:
  1. 資料蒐整與預處理:蒐集歷年來既有的災害事件情資研判報告、即時觀測數據(如雨量、河川水位等),以及各大公開媒體、Facebook粉絲團、Dcard、巴哈姆特、Mobile01及Ptt等公開討論區的地區版等資料,經過清整、結構化與預處理,將結構化與非結構化資料均轉換為模型可理解的格式。
  2. 語意分析與標記:透過語意分析技術,讓AI自動判別每一篇災情文章內容中提及的地理資訊、災害事件以及災情程度等,將這些重要詞彙辨識出來並自動標記,以利後續的索引和檢索。
  3. 大語言模型選擇:評估各個大語言模型在災害防救領域問答的真實性、回覆速度、正確性、可讀性、理解上下文與統整能力等效果,選擇最適用的自然語言模型。
  4. 建立資料向量索引、設定參數:提高檢索與問答時的效率及準確性,確保AI模型對災害知識有精準的搜尋能力與答覆效果。

透過AI Search for KM 所提供的知識平台,災防中心便能夠針對歷年災害事件、抑或即時災情進行問答,系統會逐步拆解使用者所輸入的問題,再透過大語言模型(Large Language Model, LLM)及檢索增強生成技術(Retrieval-Augmented Generation, RAG)生成完整回覆。

以颱風相關的問題為例,使用者可對系統以口語文字方式提問,如「哪個地方災情最嚴重」、「哪些鄉鎮的河川水位超過一級警戒」等等,AI Search for KM便會即時調用內部知識庫及外部即時數據,找出與使用者提問最相關的多個參考內容,從中綜合歸納出答覆。AI Search for KM具備簡便、容易使用的介面,能快速統整內部及外部、文字及數值的各類數據,在分秒必爭的防災與救災時刻,提升作業效率。

▲ 問答情境1 – 分析災情嚴重區域

▲ 問答情境2 – 調用即時數據,掌握全面性災情

透過與意藍合作導入AI Search for KM系統,災防中心能夠更高效地整合歷史與即時災害數據,在災害發生前後做出精確的災情管理判斷,及時釐清災情狀況並調度人力與資源,落實循證決策、全面提升災害應變能力;未來意藍也將持續與災防中心攜手,逐步實踐智慧城市願景。

常見問題 FAQ

Q1:災害防救科技中心為何需要導入 AI 知識管理系統?

A:為了在分秒必爭的災害發生時,能快速整合、結構化並分析海量的分散情資。

災防中心面對頻繁的地震、颱風等災害,需處理包括歷年情資報告、即時觀測數據,以及來自社群媒體(FB, PTT, Dcard 等)的龐大非結構化資訊。導入 AI Search for KM 能自動清整並標記這些資料,大幅提升災情處理效率,支撐政府作出精確的應對決策。

Q2:AI Search for KM 如何協助災防單位蒐集散落在網路上的民眾災情回饋?

A:系統透過 ETL 數據處理技術,能自動爬取並結構化各大社群媒體與討論區的資訊。

面對 PTT 地區版、Dcard 或媒體新聞中破碎的災情訊息,系統會先進行清整與預處理,將文字轉換為模型可理解的格式。這解決了社群資訊量龐大且更新頻繁,人工難以即時過濾與彙整的難題。

Q3:當災害發生,AI 如何透過一篇社群文章自動判斷嚴重程度?

A:透過深度語意分析技術,AI 能自動辨識並標記文章中的地理資訊、事件類型與災情程度。

系統能自動識別文章中提及的「路段」、「水位」或「倒塌情況」,並進行關鍵標記。這有助於後續的索引與檢索,讓災防單位能第一時間篩選出最緊急的求援或損害回報,減少資訊遺漏。

Q4:災防中心的問答平台如何確保 AI 產出的回覆是真實且準確的?

A:結合了檢索增強生成(RAG)技術,要求 AI 必須根據內部知識庫與即時數據來回答。

系統不只依賴模型既有的知識,而是會調用災防中心專屬的歷史數據庫與即時觀測數據。當使用者提問時,AI 會找出多個參考段落進行綜合歸納,並註明出處,確保生成的內容具備高度的可驗證性,避免「AI 幻想」。

Q5:人員可以用多口語的方式對系統提問?系統聽得懂複雜的災情問題嗎?

A:使用者可以用非常直覺、口語化的自然語言進行提問。

例如直接詢問「哪個地方災情最嚴重?」或「哪些鄉鎮河川水位超過一級警戒?」。AI Search for KM 會逐步拆解問題中的核心關鍵字,自動串接雨量或水位等數值數據,並將複雜的數據轉化為白話的總結回覆,大幅降低系統操作難度。

Q6:面對多樣化的災害任務,如何選擇最適合的大語言模型 (LLM)?

A:意藍會針對模型的真實性、回覆速度與上下文統整能力進行全面評估。

在建構「災害防救知識問答平台」時,會針對災害防救領域的特殊語境,測試不同模型(如 OpenAI, Llama 或在地模型)的正確性與理解力,最終選擇能平衡「效能」與「成本」的最優模型,確保在救災關鍵時刻不卡頓。

Q7:導入 AI Search for KM 後,對於政府的「循證決策」有什麼具體貢獻?

A:系統能實現歷史經驗與即時數據的整合,提供科學化的判斷依據。

災防中心能快速比對歷年災害事件的應對經驗,並對比當下即時災情,協助決策者在釐清狀況後,精確地調度人力與資源。這不僅提升了災害應變能力,也落實了數據驅動的智慧城市治理願景。

想進一步了解「新一代生成式 AI 知識管理系統(AI Search for KM)」?

想即時掌握 AI 實際導入案例與趨勢觀點嗎?

<span style=" display: block; font-size: 0.8em; font-weight: 100; color: #A5A3A3;">下載報告</span>生成式 AI 產業趨勢報告

下載報告生成式 AI 產業趨勢報告

生成式AI產業趨勢報告

從整體生成式AI產業應用趨勢,了解AI智能搜尋解決方案如何落地應用。

報告亮點

Part 1. 生成式 AI 話題趨勢探索
  • 1-1 生成式 AI 話題趨勢
  • 1-2 生成式 AI 的商業機會與挑戰
Part 2. 生成式 AI 的機會與應用場域
  • 2-1 生成式 AI 的應用趨勢
  • 2-2 核心技術—AI大語言模型
  • 2-3 關鍵應用—檢索增強生成(RAG)
Part 3. 以 AI Search 技術打造 AI 知識代理人
  • 3-1 本土生成式 AI 大語言模型—eLAND GOAT
  • 3-2 AI Search for KM 新一代生成式 AI 知識管理
  • 3-3 AI 驅動的多元未來:案例展示

生成式 AI 是基於深度學習,透過擁有大參數量的神經網絡來記憶學習大量的資料,並且在沒有明確標籤或指導之下,自行學習資料的分佈,來生成更多類似的資料。
而隨著近年來 AI 技術的持續創新與突破,百工百業都迎來了前所未有的數位變革。在這個數位轉型的關鍵時刻,AI 的導入與應用已成為各行各業提升競爭力和效率的重要策略。企業在應對市場挑戰與客戶需求時,數位化的布局顯得尤為重要。AI 技術不僅有助於提升運營效率,還能加強決策的準確性與靈活性,為企業的未來發展提供強大支撐。

完整報告下載

歡迎填寫下列表單,我們將寄送完整簡報至您的電子信箱。

想進一步了解「新一代生成式AI知識管理系統(AI Search for KM)」?

想即時掌握 AI 實際導入案例與趨勢觀點嗎?

<span style=" display: block; font-size: 0.8em; font-weight: 100; color: #A5A3A3;">下載報告</span>AI 智能搜尋解決方案:智慧政府應用趨勢報告

下載報告AI 智能搜尋解決方案:智慧政府應用趨勢報告

AI 智能搜尋解決方案:智慧政府應用趨勢報告

隨著近年來 AI 技術的持續創新與突破,政府及企業都迎來前所未有的數位變革,無論是政府組織還是各行各業,皆面臨數位轉型的重要轉折點,而本報告將為各位說明生成式 AI 於智慧政府之應用趨勢,並以實際公部門單位導入案例展示智慧治理的落地應用。

報告亮點

Part 1. 生成式 AI 於智慧政府之應用趨勢
Part 2. 意藍 AI Search for KM 服務優勢
Part 3. 政府單位導入應用展示
  • 3-1 智慧城市災防應變數據分析
  • 3-2 智慧循證治理與質詢擬答
  • 3-3 智慧政府民意及民眾陳情資訊分析
Part 4. 意藍 AI Search for KM 服務導入方式
Part 5. 如何申請 AI Search for KM 服務體驗

隨著近年來 AI 技術的持續創新與突破,政府及企業都迎來前所未有的數位變革,無論是政府組織還是各行各業,皆面臨數位轉型的重要轉折點。AI 的導入與應用已勢無法擋,公部門在應對科技挑戰與回應民眾需求時,數位化佈局顯得尤為重要。 而智慧政府的核心目標,就是利用先進科技來提升公共服務的效率與品質,並使行政作業更具透明度與精準度

完整報告下載

歡迎填寫下列表單,我們將寄送完整簡報至您的電子信箱。

想進一步了解「新一代生成式AI知識管理系統(AI Search for KM)」?

想即時掌握 AI 實際導入案例與趨勢觀點嗎?

<span style=" display: block; font-size: 0.8em; font-weight: 100; color: #A5A3A3;">精華文章</span>大語言模型特色是什麼?企業導入的 3 大關鍵要素

精華文章大語言模型特色是什麼?企業導入的 3 大關鍵要素

大語言模型特色是什麼?
企業導入的 3 大關鍵要素

大語言模型(Large Language Model,LLM)是生成式AI領域中十分重要的一項技術與應用,它通過大規模文本數據的訓練,學習語言文字中的上下文結構和語意關係,並能生成自然流暢的回應,與使用者的提問做互動。本文將帶您了解大語言模型的原理與特點,探討企業如何有效運用大語言模型、使其在工作場域中發揮價值,並介紹意藍自行研發之大語言模型eLAND GOAT的具體應用。

認識大語言模型

什麼是大語言模型?
大語言模型(Large Language Model,LLM) 是一種基於大量資料訓練而成的深度學習模型,其特色在於模型參數量大、學習訓練資料廣泛,且在模型的訓練過程中,能夠識別及理解大量資料中每個詞句間的上下文關係,以及在語意空間中背後的意義,再根據使用者的提問或指令(Prompt),提供符合邏輯的自然語言回應。大語言模型的運作邏輯就好比文字接龍遊戲──根據使用者所輸入的詞句,模型會基於已學習、訓練過的資料與上下文,來評估哪些字詞最有可能出現在使用者的輸入之後,並生成相對應的文字回應。  
大語言模型的核心特點?
綜前所述,大型語言模型的核心特點包含以下幾點:
  1. 上下文理解:大型語言模型能更好地理解和處理文意,生成連貫、有邏輯的流暢回應。
  2. 多任務適用:大型語言模型能夠應付多種自然語言處理任務,無需單獨為每種任務設計特定模型,也因此能夠廣泛應用於多種不同場景。
  3. 大數據訓練:大型語言模型通常基於數千萬、甚至數億的文本資料進行訓練,龐大的數據量使得模型掌握了豐富的知識,從而能夠做出更準確的判斷與回覆。
不過也需要注意的是,大語言模型是根據過往數據資料訓練而成的,若遇到訓練資料中缺乏、無法回應的提問、或參考資料本身有所偏誤,可能就會出現AI杜撰、AI幻覺 (Hallucination)等現象,生成出錯誤甚至不存在的回應。

大語言模型的商業應用可能性

企業的大語言模型應用場域
而基於大語言模型具有的核心特點,可以被運用在以下幾個商業場域當中,來協助企業提升營運效率,輔助企業達成不同的目標:
  1. 市場行銷:大語言模型可以生成文案、分析市場趨勢以及顧客偏好,甚至優化廣告投放策略。它可以幫助撰寫社群媒體文章、電子郵件行銷內容,並根據市場數據預測消費者需求。
  2. 內部管理:大語言模型也可以成為內部知識管理的助力,幫助員工快速找到需要的資料,或者自動生成報告、會議記錄。此外,在客戶服務方面,也可以24小時即時回應客戶問題,減少人工客服負擔,並提供可驗證的參考內容出處。
  3. 輔助決策:透過分析企業數據,大語言模型還可以協助管理層做出更準確的市場預測,從而提升整體營運決策的效率和準確性。
 
企業如何善用大語言模型提升營運效率?
那企業究竟又該如何將大語言模型的優勢發揮出來?關鍵在於企業如何對模型下達準確的指令(Prompt)。對大語言模型提問時,語句及用詞要盡可能地具體、包含上下文訊息,才能讓大語言模型提供有效的回應,例如當想了解有關國內知名金融業者新光金控的相關資訊時,應避免簡化問句為「總資產?」,而是「請問新光金在今年第二季結束時的資產總額是多少?」,通過更精確的提問,大語言模型能提供更完整的回應。 除了應避免模糊不清的提問內容,提問的技巧也同樣重要,使用者應逐步引導模型進行推理,如欲詢問「新光金在大陸投資有賺錢嗎?」,可先調整提問為「請問新光金在大陸的投資項目為何?」,根據模型的回應,再進一步提問「投資損益為多少?」;藉由調整指令,讓模型能夠不斷學習並一次性回答多個相關問題,從而提升營運效率。  
企業導入大語言模型的關鍵要素​
隨著大語言模型的發展愈發成熟,企業導入大語言模型已是時下趨勢。而企業在導入大語言模型時則需考量多個關鍵要素:
  1. 數據隱私與資安控管:對於許多企業來說,使用大語言模型等相關服務時,除了須確保符合相關法律規範外,還需要對數據採取必要的保護,避免數據外洩或資安方面的風險。
  2. 模型與系統的相容性:在導入大語言模型時,需注意模型本身與企業現有系統的相容性,這涉及了技術、成本等多方面的考量,若企業缺乏相關經驗,便會使導入時的成本與難度增加。
  3. 企業基礎部署條件:不同企業在選擇大語言模型時,需根據自身具備的基礎條件,選擇雲端、地端或是混合部署。另外也須有足夠的計算資源與維運人力,確保模型運行並在必要時針對模型進行微調(fine-tune)。

意藍於大語言模型的應用

意藍深知大語言模型對企業營運的重要性與無限可能性,然而因目前主流的大語言模型多是使用英文語料進行訓練,中文語料的佔比相對較低,大部分資料又都是以簡體中文為主,與繁體、台灣所慣用的用字遣詞有一定差距。意藍挑選出台灣常用的語料,在兼顧適法性及合理使用的條件下,整理出AI的學習材料,開發出台灣本土的大語言模型eLAND GOAT,目標讓大語言模型可以更加在地化,並兼顧效能及成本之考量,符合企業特定目的用途。 而意藍在發展出的台灣本土在地化大語言模型eLAND GOAT後,也將其運用在企業知識管理領域中,推出新一代生成式AI知識管理系統-AI Search for KM,不僅提供使用者可以以自然語言的形式進行問答,還結合檢索增強生成(Retrieval-Augmented Generation, RAG)技術,能夠有效地找出精準且相關的內容,藉此提高大語言模型在生成內容的準確性和可靠性,並能夠在每次回應時附上參考內容出處以供驗證,有效避免AI幻覺的可能性。 除此之外,AI Search for KM還可以串接企業知識庫,不需要大量的人力和機器資源重新訓練或微調模型,並且可選擇在雲端、地端或混合部署大語言模型,免除機敏資訊外洩的疑慮的同時,也能快速的從大量的檔案文件中找出所需內容,大幅縮減企業在知識內化的時間成本與負擔,使其能夠更有效地管理和運用知識資源、提升營運效率。

常見問題 FAQ

Q1:什麼是大語言模型 (LLM)?它的運作原理是什麼?

A:大語言模型 (LLM) 是一種模擬人類語言能力的深度學習技術,其運作原理類似於「高階文字接龍」。

LLM 透過分析數億計的文本資料,學習字詞間的上下文結構與語意關係。當使用者輸入指令(Prompt)時,模型會根據已學習的知識,評估並預測下一個字詞出現的機率,進而生成符合邏輯且自然流暢的語言回應。

Q2:大語言模型的核心特點有哪些?為什麼適合企業應用?

A:大語言模型具備上下文理解、多任務適用與大數據訓練三大核心特點。

  1. 上下文理解:能處理複雜文意,生成具備邏輯的長篇回應。

  2. 多任務適用:單一模型即可處理翻譯、摘要、文案生成等多種任務,減少開發成本。

  3. 大數據訓練:掌握豐富知識背景。 這些特點讓企業能將其應用於行銷輔助、決策支持及自動化行政,有效降低人力重複勞動。

Q3:企業如何避免大語言模型產生「AI 幻覺」或亂編答案?

A:關鍵在於優化提問技巧 (Prompt Engineering) 並結合檢索增強生成 (RAG) 技術。

在提問時應盡可能具體並包含上下文訊息,採「逐步引導」方式讓模型推理。此外,導入如意藍 AI Search for KM 這類結合 RAG 技術的系統,強制模型根據企業既有文件回答並附上來源出處,能有效消除 AI 幻覺,確保回覆的真實性。

Q4:企業導入 LLM 時需考慮哪些要素?

A:企業應評估數據隱私控管、系統相容性及部署環境(雲端/地端)。

由於企業資料涉及機敏資訊,需確保模型服務符合資安法規。技術面則需考量現有系統能否無縫介接,以及企業是否具備足夠的計算資源與維運人力。意藍提供的解決方案支援地端部署,能協助企業在不外洩機敏資料的前提下,享有 LLM 的便利性。

Q5:台灣企業如何選擇適合的在地化 AI 模型?

A:建議優先選擇專為繁體中文語境優化、且具備在地語料訓練的模型。

主流國際模型多以英文或簡體中文語料為主,對於台灣特有的商務術語或法規用語掌握度較低。而譬如意藍自研的 eLAND GOAT 專為繁體中文語境優化,能精準理解繁體中文細微的語意差異。此外,結合 RAG 技術與支援地端部署的特性,能確保企業在符合資安規範的前提下,獲得更準確、無偏誤的中文回覆。

想進一步了解更多意藍AI技術嗎?

想即時掌握 AI 實際導入案例與趨勢觀點嗎?

<span style=" display: block; font-size: 0.8em; font-weight: 100; color: #A5A3A3;">精華文章</span>生成式AI是什麼?可以怎麼應用?

精華文章生成式AI是什麼?可以怎麼應用?

生成式AI是什麼?可以怎麼應用?

生成式AI是人工智慧技術中一個重要的分支,現已廣泛應用於各行各業,無論是在智能客服、內容創作,或者資料分析中,其都扮演了日益重要的角色;然而,隨著生成式AI的普及,相應的挑戰與危機也浮上檯面。本文將帶您瞭解生成式AI的基本概念及其背後的大語言模型技術,並分析其在發展過程中面臨的痛點與挑戰,最後透過實際案例,展示生成式AI在不同領域中如何實現高效應用。

生成式AI與人工智慧技術簡介

生成式AI是一種人工智慧技術,主要特點是能夠生成新的內容,例如文字、圖像或音訊,不僅限於對現有資料進行分類或預測,還能夠用於解決問題或滿足多樣的需求。而人工智慧技術有很多種類型,常見的包含監督式學習、非監督式學習、增強式學習等,三者處理、學習數據的方式如下:
  1. 監督式學習:我們告訴模型一些範例資料和答案,模型學到資料和答案之間具有鑑別力的特徵後,就可以依樣畫葫蘆去進行分類或預測。
  2. 非監督式學習:給模型一批資料但不告訴它答案,讓模型自己找到資料當中重要的特徵進行分群。
  3. 增強式學習:不給模型訓練資料,但告訴它目標及獎勵機制是什麼(怎麼做會得分、怎麼做會扣分),讓模型自行嘗試找出達到高分的方法。
生成式AI則強調用更大量的資料,在沒有明確標籤或指導下,學習這些資料的分佈,生成更多類似的資料。

生成式AI背後的技術原理:大語言模型

生成式AI所依靠的其中一個技術便是「大型語言模型」(Large Language Model, LLM),其特色在於訓練過程中,模型可以自大量資料中自行學習和理解每個詞、每個句子之間的關係與背後的意義,最後根據指令,提供符合邏輯的自然語言回應。好比文字接龍,參與者需要根據已知的詞語來生成符合規則的新詞語,大型語言模型在接收問題後,會基於訓練數據和上下文,來評估問題背後最高機率會出現的字詞是什麼,然後一字一字生成出來,最終形成完整且符合邏輯的回答。 而相較於傳統的自然語言處理技術,大型語言模型的優勢有三:
  1. 上下文理解:大型語言模型能更好地理解和處理文意,生成的回應更連貫且有邏輯。
  2. 多任務適用:大型語言模型能夠應付多種自然語言處理的任務,不需要單獨為每種任務來設計特定模型,也因此應用更多更廣。
  3. 大規模資料:大型語言模型用以訓練的文本資料通常十分龐大,可能是幾千萬甚至幾億的語料,讓模型能夠掌握豐富的知識,做出更準確的理解與回覆。
這些特點使得大型語言模型在生成式AI中的應用廣泛而有效,例如智能客服、文案生成創作、資料自動化解讀分析等等,皆是藉由大型語言模型來達成作業自動化,並提高工作效率。

生成式AI的痛點、挑戰與解方

不過,從2023年劍橋字典選出的年度代表字:Hallucination,幻想,其實就反應了AI的可信賴性是一大挑戰,因為生成式AI對於沒看過的資訊會想辦法拼湊出答案。模型生成的內容可能表面上看起來合理,實際上卻缺乏真實的參考來源,這種現象在回答專業知識問題時更為明顯,因為模型可能傾向根據在訓練數據中學到的資料來生成答案,而非真正理解問題及實際參考文章來進行答覆。 面對上述問題,檢索增強生成(Retrieval-Augmented Generation, RAG)技術是一個良好的解決方案。RAG是2020年由Patrick Lewis提出,其結合了檢索和生成式AI的優勢,首先檢索外部資料庫中的相關資訊,再基於這些資訊生成回答,藉此減少憑空杜撰的可能性、增強回覆的相關性和真實性,進一步提升問答效果,確保符合實際應用需求。

▲檢索增強生成技術(Lewis, P., 2020)

除了RAG, 2022年1月Google研究員Jason Wei提出的思維鏈(Chain-of-Thought, CoT)概念,則是在大型語言模型的輸入中,加入額外的例子和描述作為上下文,以此幫助模型在進行任務時引入更多的思考過程,並引導模型進行更深入的推理,透過預測「思維過程」來提高模型的性能,讓大型語言模型能夠更好地理解並回答複雜的問題。

▲思維鏈(Wei, J., 2022)

生成式AI的應用實例

檢索增強生成技術與思維鏈的概念提升了生成式AI的性能,也拓展了大型語言模型在多個領域的應用範疇。下文將著重說明大型語言模型如何應用於「政策評估」:

  1. 透過大型語言模型對文本進行摘要,找出重點

在進行政策評估時,會需要針對如會議記錄、訪談內容、問卷中的開放式問題或網路輿情等資料進行質性分析,以歸納出多元利害關係人的相關意見或質疑。此時,結合自然語言處理(Natural Language Processing, NLP)技術與大型語言模型(Large Language Model, LLM),便能夠讓分析更有效率,避免過去逐篇檢視文本後才能找出重點的耗時過程。

首先,為瞭解民眾對於議題有哪些重要的意見面向,可藉由AI語意模型對民眾言論文本進行「重要關鍵字提取」與「語意相似度計算」,並輔以分群演算法將相似討論進行歸類,拆解出不同的討論面向,作為政策評估時的參考。下圖是「晚婚 / 不婚議題」在社群討論當中的分群結果,圓圈大小代表討論的顯著(集中)程度,而圓圈彼此之間的距離則代表討論的相似程度。

▲「晚婚 / 不婚議題」社群討論分群結果
根據分群結果,再透過其他來源如相關文獻或訪談內容,進一步辨識出可進行分析研究的意見,接著提取重點關鍵字、並以布林邏輯篩選資料,統計關鍵字的出現頻率。完成各個討論面向的資料篩選後,藉由以大型語言模型(LLM)為基礎的生成式AI進行解讀與分析,自原始留言、發文內容中歸納出白話的討論面向與重點摘要。下表是以晚婚不婚議題經過辨識後,其中兩個討論面向的摘要內容:
▲「晚婚 / 不婚議題」討論面向摘要
  1. RAG:搜尋引擎結合大型語言模型,提升研究效率

針對政策評估時所蒐集的大量質性資料,過去往往需要花費大量時間解讀,才能從中找出關鍵課題。透過檢索增強生成(Retrieval-Augmented Generation, RAG)技術,將搜尋引擎與生成式AI優勢相融合,便能快速將文本資料中的重點知識內容,轉化成淺顯易懂的重點說明。

首先,搜尋引擎能夠直接對多種格式的文件進行文本上的解析,在搜尋時也能夠進行跨檔案的比對;生成式AI演算法則可以探索和分析複雜的資料。在針對某個議題、概念進行研究時,「搜尋引擎 + 生成式AI」能夠即時從龐大的資料庫中搜尋相關命中段落,並將這些內容快速摘要呈現;透過理解語言的結構和語境,也能確保命中段落的展示是精確且相關的。

簡言之,RAG是在檢索讀取(Retrieve-Read)的框架下進行搜尋(Yunfan, G. ,et al, 2023),能夠識別並找尋給定的相關資訊需求(Zhao, P. , et al, 2024),基於對命中段落的理解,使生成式AI能夠進一步生成摘要,協助使用者在短時間內獲得專業且易理解的回覆,避免在研究、搜集過程中浪費時間在無關或不確切的資訊上。例如,面對大量的訪談逐字稿文件,透過RAG技術進行知識搜尋與知識問答,分析者不僅能彙整並凸顯資料中的重要發現,還能驗證對特定解釋的認知是否正確。此外,它也提供了深入洞察,如識別特定發言者在資料中的關鍵觀點,或對比不同發言者對同議題的立場。

下圖呈現RAG技術如何在資料中發現重點,針對公正轉型研討會講座文字記錄文件進行提問,試問「女性在公正轉型中會受到什麼影響」,RAG迅速對該文件進行搜索,並以條列式回覆重點摘要,同時將參考段落的位置標示出來。

▲以RAG技術彙整資料重點;意藍「AI Search for KM新一代生成式AI知識管理系統」問答畫面
下圖則是詢問某發言者在會議中的發言重點,RAG能夠快速歸納文件中的相關內容,亦標記參考段落之位置,方便搜尋者在文件中找到關鍵資訊。
以RAG技術歸納發言者發言重點;意藍「AI Search for KM新一代生成式AI知識管理系統」問答畫面
▲以RAG技術歸納發言者發言重點;意藍「AI Search for KM新一代生成式AI知識管理系統」問答畫面

生成式AI技術的運用,使得從龐大資料中提取有價值的訊息變得更加高效和精確,從而增強了循證決策的整體效能。

常見問題 FAQ

Q1:生成式 AI 與傳統的人工智慧有什麼不同?

A:傳統人工智慧主要側重於資料的「分類或預測」,而生成式 AI 則強調「生成新內容」的能力。

傳統的人工智慧技術(如監督式學習)通常是透過學習範例資料與答案之間的特徵,進而「依樣畫葫蘆」地對既有資料進行分類或預測結果。相比之下,生成式 AI 則是利用更龐大的資料量,在沒有明確標籤或指導的情況下,自行學習資料的分佈規律。這使其不僅能處理分類任務,更能主動創造出文字、圖像或音訊等全新內容,以解決問題或滿足多樣化的使用者需求。

Q2:為什麼大語言模型 (LLM) 被稱為生成式 AI 的核心技術?

A:因為大語言模型具備優異的上下文理解、多任務適用性及大規模知識儲存能力。

透過幾千萬甚至幾億筆的文本訓練,LLM 就像是在進行「高階文字接龍」,能評估上下文並預測機率最高的字詞。這讓模型不再需要為單一任務重新設計,就能同時處理摘要、創作、翻譯與資料分析等多樣化工作。

Q3:常聽到的「AI 幻想 (Hallucination)」是什麼?為什麼 AI 會亂編答案?

A:AI 幻想是指生成式 AI 針對沒看過的資訊,會利用既有資料拼湊出看似合理、實則缺乏事實根據的內容。

這是因為模型傾向於根據訓練數據中的「機率」來生成答案,而非真正理解問題或檢索真實來源。這種現象在處理專業知識時尤為危險,因此需要額外的技術手段(如 RAG)來確保資訊的可信度。

Q4:檢索增強生成 (RAG) 技術是如何解決 AI 幻想問題的?

A:RAG 透過「先檢索、後生成」的機制,確保 AI 回答內容具備真實參考來源。

RAG 會先從外部可信任的資料庫中搜尋相關資訊,再讓生成式 AI 基於這些檢索到的資料進行整理。這能減少 AI 憑空杜撰的可能性,顯著提升回覆的真實性與相關性,確保符合企業級的專業問答需求。

Q5:在政策評估或質性研究中,生成式 AI 具體能提供什麼協助?

A:AI 能自動提取關鍵字、進行語意分群,並將龐雜文本轉化為淺顯易懂的摘要。

面對會議記錄、訪談逐字稿或網路輿情,結合 NLP 與 LLM 技術可以自動歸納多元利害關係人的意見,省去逐篇檢視的人力。例如透過 RAG 系統,研究者能快速識別特定發言者的觀點,或對比不同對象對同一議題的立場。

本文引用、改寫自【循證決策協作平台】上112年度計畫團隊技術組之文章,歡迎前往閱讀原文:

想即時掌握 AI 實際導入案例與趨勢觀點嗎?

Copyright eLAND Information Co., Ltd.