C114通信網(wǎng)  |  通信人家園

人工智能
2024/12/18 13:50

谷歌發(fā)布 FACTS Grounding 基準(zhǔn):Gemini、GPT-4o、Claude 當(dāng)評委,成 AI 大語言模型“幻覺照妖鏡”

IT之家  故淵

谷歌 DeepMind 團隊于 12 月 17 日發(fā)布博文,宣布推出 FACTS Grounding 基準(zhǔn)測試,評估大型語言模型(LLMs)根據(jù)給定材料是否準(zhǔn)確作答,并避免“幻覺”(即捏造信息)的能力,從而提升 LLMs 的事實準(zhǔn)確性,增強用戶信任度,并拓展其應(yīng)用范圍。

數(shù)據(jù)集

在數(shù)據(jù)集方面,ACTS Grounding 數(shù)據(jù)集包含 1719 個示例,涵蓋金融、科技、零售、醫(yī)療和法律等多個領(lǐng)域,每個示例包含一篇文檔、一條要求 LLM 基于文檔的系統(tǒng)指令和隨附的提示詞。

示例文檔長度不一,最長可達 32000 個 token(約 20000 字)。用戶請求涵蓋摘要、問答生成和改寫等任務(wù),但不包含需要創(chuàng)造力、數(shù)學(xué)或復(fù)雜推理的任務(wù)。IT之家附上演示圖片如下:

數(shù)據(jù)集分為 860 個“公共”示例和 859 個“私有”示例,目前已發(fā)布公共數(shù)據(jù)集供評估使用,私有數(shù)據(jù)集用于排行榜評分,以防止基準(zhǔn)污染和排行榜作弊。

評估方案

在評估方案上,F(xiàn)ACTS Grounding 采用 Gemini 1.5 Pro、GPT-4o 和 Claude 3.5 Sonnet 3 款模型作為評委,評估答案的充分性、事實準(zhǔn)確性和文檔支持性。

評估分為兩個階段:首先評估響應(yīng)是否符合資格,即是否充分回答了用戶請求;然后評估響應(yīng)的事實準(zhǔn)確性,即是否完全基于所提供的文檔,有沒有出現(xiàn)“幻覺”,然后基于該模型在所有示例上的平均得分,最終計算得出。

在 FACTS Grounding Benchmark 中,谷歌的 Gemini 模型在事實準(zhǔn)確的文本生成方面取得了最高分。

給作者點贊
0 VS 0
寫得不太好

免責(zé)聲明:本文僅代表作者個人觀點,與C114通信網(wǎng)無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關(guān)內(nèi)容。

熱門文章
    最新視頻
    為您推薦

      C114簡介 | 聯(lián)系我們 | 網(wǎng)站地圖 | 手機版

      Copyright©1999-2025 c114 All Rights Reserved | 滬ICP備12002291號

      C114 通信網(wǎng) 版權(quán)所有 舉報電話:021-54451141