財經理財
2023.08.27 16:03 臺北時間

【Google AI戰略2】Google搜尋引擎打底 Bard AI生成內容消除幻覺

Google用搜尋引擎的能力打底,為旗下對話式AI平台Bard提升內容正確性與可追溯性。但Google傑出科學家紀懷新說,Google用既有搜尋引擎的基礎,打擊這些不存在資訊的「幻覺」。
Google用搜尋引擎的能力打底,為旗下對話式AI平台Bard提升內容正確性與可追溯性。但Google傑出科學家紀懷新說,Google用既有搜尋引擎的基礎,打擊這些不存在資訊的「幻覺」。
有別於現在普遍應用的ChatGPT,Google推出的對話式AI平台Bard特色就在於能夠借助既有搜尋引擎的能力,為Bard提供的生成式內容標註每筆資料來源,讓「幻影」(不存在的資訊)消失於無形。
「大型語言模型的回應可能未必準確,尤其當詢問複雜或講求事實的主題時」Google傑出科學家紀懷新肯定地說到。他表示,機器學習偶爾會產生一些看似「幻覺」的不存在的資訊,或者是產生偏差性回應,而這些問題可能是因為在訓練(AI)的資料中,有一些美中不足的地方,導致回答問題有些偏差,又或者因為內容由不同人寫出來,回應的時候可能因為這些個人意見,模擬出一套特定的觀點。
「大多數的學者很難判斷真假,因此若是針對某件事、某個回覆有明確的來源,他的可信性就會高一點」,紀懷新說道。以此論點為基礎,Google用既有搜尋引擎的基礎,將Bard提供的回覆,都附帶資料來源,來讓使用者可以有資料可循,打擊這些不存在資訊的「幻覺」。
紀懷新進一步舉例,在大型語言模型中,針對一個提問如果已經在其中輸入事實A、事實B這兩項資料,經過一段的運算處理,將事實A與B答案整合在一起,會產生最終的事實C答案。這個最終解答的正確與否,其實就與邏輯、數學息息相關,若這套大語言模型能產生一套編碼(Code)去推理相關的問題,能將原本看似幻覺的事情,更有邏輯、規律的解釋,進而產生新的知識力。
紀懷新坦言,大型語言模型發展還屬於早期階段,除了上述針對內容的準確性、偏差性等問題外,仍存在一些可能不知道怎麼回答,或者看不懂提問內容的門檻;而在模型本身,也很常遇到來自各方的惡意提示的刻意攻擊,這些都是目前亟欲克服的挑戰,是整體產業積極尋求改善的重要指標。
Google現階段做法,是用搜尋引擎強化資料正確性的同時,更加上一套人工審查員機制,用以優化內容的正確性。紀懷新表示,這個審查員有兩項任務,第一是讓研究員知道模型的成長演化狀況;其次,是用來回饋訓練模型,以人為的方式告訴模型那些是好的回應,將這些參考資料輸入到模型中強化能力。
除了針對模型本身的修正外,紀懷新透露,Google也開始嘗試縮小Bard語言模型,讓其更加精簡、加深模型本身的可靠度。這個概念有點像是培養特定領域的專家,讓它在某個議題或專業能成為該領域的達人,不受其他複雜因素、內容所干擾。
更新時間|2023.09.12 20:47 臺北時間

支持鏡週刊

小心意大意義
小額贊助鏡週刊!

每月 $79 元全站看到飽
暢享無廣告閱讀體驗

延伸閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀