前言
現在很多企業都在使用 Retrieval Augmented Generation(RAG),
先把各個文件先切一段一段(例如 利用各種 Library 將文件讀進來,再將 200 個字,每段又 overlap 50 個字)轉成 embeddings 再放到 embeddings 資料庫,
這裡會使用到 LLM 的 embeddings model ,例如 text-embedding-ada-002
。
當使用者輸入問題後,同時也將這個問題轉成 embeddings ,再與 embeddings 資料庫找相似度,例如使用 BM25 來比較。
取得相似度高的內容後,再呼叫 GPT-3.5 Turbo
轉成較口語化的回答內容。
這麼多的 Task ,現在可以透過 kernel-memory 來達成,
以下就來看看它有多簡單 ^_^