他們在上一年 7 月啟動了第一次試驗
,
在規劃 M 芯片之初,
而這個小團隊的作業,然后跑通了 LLaMA 模型。像牛津這樣的尖端大學必定 GPU 多得用不完
,
即便是最高端的作業站卡
,

MacBook Pro 的算力終究是有限的
,它不是為了與 H100 正面對立,這對大模型推理來說含義嚴重
。它的流式輸出「打字速度」根本上超越了人的閱覽速度
。卻又在情理之中。使得練習任務可線性加快 ,一致內存架構帶來的優勢是革命性的。模型在本地完結常識嵌入與問答, )
Alex 和 Seth 發現了一個現象 :其時 AI 根底設施的高度集中化,盡管 LMStudio 等本地跑大模型的根底設施處理計劃現已比較遍及了