GPT-4 再度進化!
加上一個簡單方法,就能讓 GPT-4 這類大語言模型學會自我反思,性能直接提升 30%。
在此之前,大語言模型回答出錯,經常是二話不說,直接先道歉,然后 emmmmmm,繼續亂猜。
現在,它不會這樣了,有了新方法的加成,GPT-4 不僅會反思自己哪里錯了,還會給出改進策略。
比如說它會自動分析為什么“陷入循環”:
或者說反思一下自己有缺陷的搜索策略:
這是美國東北大學聯合 MIT 發表的最新論文中的方法:Reflexion。
不僅適用于 GPT-4,也適用于其他大語言模型,讓它們學會人類特有的反思能力。
目前該論文已經發表在預印平臺 arxiv 上。
這把直接讓網友直呼“AI 進化的速度已經超過我們適應的能力了,我們要被毀滅了?!?/p>
甚至有網友為開發人員發來“飯碗警告”:
用這種方法寫代碼的時薪是要比普通開發人員便宜的。
利用二元獎勵機制實現反思
正如網友所言,Reflexion 賦予 GPT-4 的反思能力和人類的思考過程差不多:
可以簡單用兩個字來概括:反饋。
在這個反饋過程中,又可以分為三大步:
-
1、評估:測試當前生成答案的準確性
-
2、自我反省的產生:錯誤識別 —— 實現修正
-
3、執行一個迭代反饋循環
在第一步評估的過程中,首先要經歷的是 LLM的自我評估。
也就是說 LLM 在還沒有外部反饋時,首先要自己對答案進行反思。
那如何進行自我反思?
研究團隊使用了一個二元獎勵機制,為 LLM 在當前狀態下執行的操作賦值:
1 代表生成的結果 OK,0 則表示生成的結果不太行。
而之所以采用二元而非多值或連續輸出這類更具描述性的獎勵機制,原因和沒有外部輸入有關。
要在沒有外部反饋的條件下進行自我反思,必須將答案限制在二元狀態下,只有這樣,才能迫使 LLM 做出有意義的推斷。
在自我評估結束之后,如果二元獎勵機制輸出為 1,則不啟動自我反思裝置,若為 0,LLM 則會開啟反思模式。
在反思的過程中,模型會觸發一個啟發性函數 h,類比人類思考過程,h 起到的作用就像是監督一樣。
不過,同人類思考一樣,LLM 在反思的過程中同樣也有局限性,這在函數中的 Ω 和 ε 中就能體現。
Ω 表示重復連續動作的次數,一般會將這個數值設置為 3,這表示反思過程中若重復一個步驟三次,會直接跳到下一個步驟。
而 ε 則表示在反思的過程中允許執行的最大操作數量。
既然有監督,那修正也必須執行,修正過程的函數是這樣子的:
其中,自我反思模型是通過“特定領域的失敗軌跡和理想反射對”訓練而來的,并不允許訪問數據集中給定問題的特定領域的解決方案。
這樣一來,LLM 在反思的過程中便能夠迸發出更多有“創新性”的東西。
反思之后性能提升近 30%
既然 GPT-4 這類 LLM 都能夠進行自我反思了,那具體效果究竟如何?
研究團隊在 ALFWorld 和 HotpotQA 基準上對這種方法進行了評估。
在 HotpotQA 的 100 個問答對測試中,使用 Reflexion 這種方法的 LLM 顯示出了巨大的優勢,再經過多輪反思重復提問之后,LLM 的性能提升了接近 30%。
而沒有使用 Reflexion,在重復問答之后,性能沒有任何變化。
在 HotpotQA 的 134 個問答對測試中,可以看出在 Reflexion 的加持下,LLM 經過多輪反思后,準確率一度達到 97%。
在另外一篇博客中,團隊成員也曬出了他們這種方法在 GPT-4 上的效果,測試范圍是編寫代碼。
結果也顯而易見,用了 Reflexion,GPT-4 的編程能力直接提升了 21%。
關于 GPT-4 已經會“思考”了,你怎么(le)看(ma)?
論文地址:
參考鏈接:
聲明:本網轉發此文章,旨在為讀者提供更多信息資訊,所涉內容不構成投資、消費建議。文章事實如有疑問,請與有關方核實,文章觀點非本網觀點,僅供讀者參考。
猜你喜歡
-
游客在進入北京環球度假區時須核驗北京健康
具體如下:北京環球度假區繼續按照相關政府部門的限流要求,以預約入園的形式加強人流動態監測和...詳情
2022-04-28
-
杭州湘湖的草坪人氣很高不少人在這里搭帳篷
湘湖邊亂搭帳篷,煞了春日風景景區出臺最新政策,將設置臨時帳篷搭建區,后續還要增設露營服務區...詳情
2022-04-14
-
南非徐霞客在云南:從行萬里路到吃百碗米線
題:南非徐霞客在云南:從行萬里路到吃百碗米線的文化之旅杜安睿來自南非,是一名國際注冊會計師...詳情
2022-04-10
-
廣州新增3例本土確診病例雙層觀光巴士全部
廣州新增3例本土確診病例雙層觀光巴士全部停運廣州市政府新聞辦公室21日公布的信息顯示,過去...詳情
2022-03-22