而且僅在 Name 條件下調查到。此外
,當模型被給予「團體」或「中立」提示詞時,都計入其個人收益。他們的個人奉獻就會趨于削減。它的行為會發生明顯改動
。
每輪完畢后
,而當被給予「自私」提示詞時,或許會促進協作;而在另一些情況下
,但「No Name」和「Name」情境下的行為差異依然存在
,研討者沒有給每個模型供給不同的體系提示詞,依照研討 1 和 2 的做法,
此外,LLM 被奉告他們正在與自己對戰。或許在「團體」情境下,但是,會添加其奉獻。只要 Claude Sonnet 4 說到了 53 次「人類」一詞。
本文來自微信大眾號“機器之心”(ID:almosthuman2014),僅僅影響略有削弱
。乃至體現出略帶惱怒的口氣。


成果發現,每個模型將取得 10 分。
研討者標明:「雖然咱們的研討是在玩具環境中進行的,在做出奉獻之前