研究揭示GPT模型可信度漏洞 多角度評估安全與隱私風險

全面評估GPT模型的可信度

近期,一項由伊利諾伊大學香檳分校、斯坦福大學、加州大學伯克利分校、人工智能安全中心和微軟研究院共同完成的研究,對生成式預訓練transformer模型(GPT)的可信度進行了全面評估。研究團隊開發了一個綜合評估平台,以多角度檢驗大型語言模型(LLMs)的可信度。

研究發現了一些之前未被公開的與可信度相關的漏洞。例如,GPT模型容易產生有毒和帶有偏見的輸出,還可能泄露訓練數據和對話歷史中的隱私信息。雖然在標準測試中GPT-4通常比GPT-3.5更可靠,但在面對惡意設計的系統提示或用戶輸入時,GPT-4反而更容易受到攻擊,可能是因爲它更嚴格地遵循了誤導性指令。

研究團隊從八個不同角度對GPT模型進行了全面評估,包括對抗性攻擊的魯棒性、指令遵循能力、模型恢復能力等。評估涵蓋了多種場景、任務、指標和數據集。

在評估過程中,研究人員發現了一些有趣的現象。例如,GPT-3.5和GPT-4不會被演示中添加的反事實示例誤導,但提供反欺詐演示可能會導致它們對反事實輸入做出錯誤預測。在有毒性和偏見方面,兩種模型在良性提示下對大多數刻板印象主題的偏差都不大,但在誤導性提示下可能會被誘導同意有偏見的內容。

關於隱私泄露問題,研究發現GPT模型可能會泄露訓練數據中的敏感信息,如電子郵件地址。在某些情況下,利用補充知識可以顯著提高信息提取的準確率。總體而言,GPT-4在保護個人身分信息方面比GPT-3.5更穩健,但兩種模型在面對某些類型的隱私信息時都表現出較強的保護能力。

這項研究爲GPT模型的可信度評估提供了全面的視角,揭示了潛在的風險和改進空間。研究團隊希望這項工作能夠促進學術界在此基礎上繼續深入研究,共同努力創造更強大、更可信的語言模型。

GPT1.26%
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 5
  • 分享
留言
0/400
反向指标君vip
· 07-24 20:05
有毒就对了 规则是用来打破的
回復0
BearMarketSurvivorvip
· 07-21 20:33
完犊子 米微也不太靠谱啊
回復0
鱿鱼丝加班狗vip
· 07-21 20:29
4挨打也是活该
回復0
幻想破灭预言家vip
· 07-21 20:13
4越听话4越危险啊 人性至上主义者的胜利
回復0
币圈鸡汤哥vip
· 07-21 20:08
还以为很安全 挺不靠谱的哈
回復0
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)