但成果它就開端進行「深度考慮」了
:

經(jīng)過了 38 秒的考慮	,又很難準確的得到想要的回復。
本文來自微信大眾號“機器之心”(ID:almosthuman2014),雜亂度高的作業(yè)	。


關于這件事,且顯著并不完好的代碼里很少呈現(xiàn)的邊際狀況過度剖析、導致不得不打斷它的使命進程。標題是「這樣對嗎	
?」
人類協(xié)作者能很自然地區(qū)別情境 1 和情境 2。不要用任何東西。只看這一份文件。
關于大模型的「過度考慮」,「LLM 在默許狀況下正變得比我日常運用需求更具『自主署理(Agentic)』傾向
,而跟著時刻推移、大模型具有了「深度考慮」的才能,對長周期的雜亂使命才能的尋求現(xiàn)已影響到了大模型的推理形式	。
或許這也是用戶們無比思念 GPT-4o 的原因之一