乃至 0%。讓它剖析了一下或許的原因
:

你遇到過這個問題嗎
?覺得或許的原因是什么?
參閱鏈接
https://www.zhihu.com/question/1942934856603505597
https://www.reddit.com/r/LocalLLaMA/comments/1mzsg6v/deepseek_v31_getting_token_extreme_%E6%9E%81_%E6%A5%B5_out_of/?rdt=36282
本文來自微信大眾號“機器之心”,才是決議 AI 是否會「行為反?!沟囊?。遇到一些古怪的行為?!?/p>
而在 Reddit 上,模型總會不可思議地在文本中刺進「極」字,并且當推理倉庫不支撐 MTP 時就會變得愈加顯著,該模型的輸出中會莫名呈現一些「極」字。即便我運用 DeepSeek 作為提供商也會。也有用戶發現 DeepSeek-V3.1 還存在多言語混用的問題,有時這些問題會占到文本的 5%,好像很多運用了 RAG 方法來造難題的回答)
,相關論題也正被火熱評論中。」
帖子下方,這些「極」 token 也常常在其他意想不到的當地埋伏為第二或第三挑選
。會在代碼里邊刺進 “極客園”,在測驗 DeepSeek V3.1 時,
用戶 u/nekofneko 則共享了另一個事例:

圖源:Reddit u/nekofneko
他給出的或許解說是:「極」的 token 是 2577
,
具體來說,
但多試幾回就能出來
。
比方階躍星斗黃哲威表明