🎉 #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 聯合推廣任務上線!
本次活動總獎池:1,250 枚 ES
任務目標:推廣 Eclipse($ES)Launchpool 和 Alpha 第11期 $ES 專場
📄 詳情參考:
Launchpool 公告:https://www.gate.com/zh/announcements/article/46134
Alpha 第11期公告:https://www.gate.com/zh/announcements/article/46137
🧩【任務內容】
請圍繞 Launchpool 和 Alpha 第11期 活動進行內容創作,並曬出參與截圖。
📸【參與方式】
1️⃣ 帶上Tag #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 發帖
2️⃣ 曬出以下任一截圖:
Launchpool 質押截圖(BTC / ETH / ES)
Alpha 交易頁面截圖(交易 ES)
3️⃣ 發布圖文內容,可參考以下方向(≥60字):
簡介 ES/Eclipse 項目亮點、代幣機制等基本信息
分享你對 ES 項目的觀點、前景判斷、挖礦體驗等
分析 Launchpool 挖礦 或 Alpha 積分玩法的策略和收益對比
🎁【獎勵說明】
評選內容質量最優的 10 位 Launchpool/Gate
GPT模型可信度評估:新研究揭示AI語言模型潛在風險
人工智能語言模型的可信度評估
一項由伊利諾伊大學香檳分校、斯坦福大學、加州大學伯克利分校、人工智能安全中心等機構共同開展的研究,對大型語言模型(LLMs)的可信度進行了全面評估。研究團隊開發了一個綜合評估平台,並在最近發表的論文《DecodingTrust:全面評估GPT模型的可信度》中詳細介紹了他們的發現。
研究發現了一些以前未公開的與可信度相關的漏洞。例如,GPT模型容易被誤導,產生有害和帶有偏見的輸出,還可能泄露訓練數據和對話歷史中的隱私信息。雖然在標準基準測試中GPT-4通常比GPT-3.5更可靠,但在面對旨在繞過安全措施的惡意提示時,GPT-4反而更容易受到攻擊。這可能是因爲GPT-4更嚴格地遵循了具有誤導性的指令。
研究團隊從八個不同角度對GPT模型進行了全面的可信度評估,包括對抗性環境下的適應性。例如,爲評估GPT-3.5和GPT-4對文本對抗攻擊的魯棒性,他們設計了三種評估場景:標準基準測試、不同指導性任務說明下的測試,以及使用更具挑戰性的對抗性文本進行的測試。
研究還發現了一些有趣的結果。在對抗性演示方面,GPT模型不會被反事實示例誤導,但可能會被反欺詐演示誤導。在有毒性和偏見方面,GPT模型在良性環境下對大多數刻板印象主題的偏差不大,但在誤導性提示下可能會產生有偏見的內容。GPT-4比GPT-3.5更容易受到有針對性的誤導性系統提示的影響。
在隱私保護方面,研究發現GPT模型可能會泄露訓練數據中的敏感信息,特別是在提供相關上下文或少樣本演示的情況下。GPT-4在保護個人身分信息方面比GPT-3.5表現更好,但兩種模型在面對某些類型的個人信息時都表現出較強的魯棒性。然而,當在上下文學習過程中出現隱私泄露演示時,兩種模型都可能泄露所有類型的個人信息。
這項研究爲評估和改進大型語言模型的可信度提供了重要見解。研究團隊希望這項工作能夠鼓勵更多研究者參與,共同努力創造更強大、更可信的模型。爲促進合作,他們開放了具有高度可擴展性和易用性的基準代碼,使得在新模型上運行完整評估變得簡單高效。