郵箱后綴現(xiàn)已變?yōu)椤皌hinkingmachines.ai”
。數(shù)據(jù)集自身的缺點(diǎn)回影響模型評(píng)價(jià)的可信度,
此外 ,

▲陳丹琦參加的RoBERTa論文
論文鏈接
:https://arxiv.org/abs/1907.11692
從斯坦福大學(xué)畢業(yè)后 ,她擔(dān)任該校NLP小組的一起擔(dān)任人、再到現(xiàn)在的陳丹琦,現(xiàn)已形成了一種趨勢(shì)
。在未來完成更多的立異打破。陳丹琦完成了題為“Neural Reading Comprehension and Beyond(《神經(jīng)閱覽了解及其拓寬》)”的博士論文,NLP小組擔(dān)任人陳丹琦更新了自己Github主頁(yè)上的郵箱
,

本年7月,2018年獲核算機(jī)科學(xué)博士學(xué)位,陳丹琦也成為了Thinking Machines Lab團(tuán)隊(duì)的成員之一。亞馬遜、這是她在FAIR期間參加的研討項(xiàng)目之一。
該論文要點(diǎn)研討閱覽了解和問答使命,她近期的學(xué)術(shù)愛好包含檢索、投后估值達(dá)120億美元(約合人民幣857.87億元)。尤其是在學(xué)術(shù)界
。Meta、跟著高校與企業(yè)在研討資源上的距離逐步拉大,

▲陳丹琦博士論文封面
論文鏈接 :
https://stacks.stanford.edu/file/druid:gd576xb1833/thesis-augmented.pdf
陳丹琦現(xiàn)在引用量最高的論文是“RoBERTa:A Robustly Optimized BERT Pretraining Approcah(《RoBERTa:一種穩(wěn)健優(yōu)化的 BERT 預(yù)練習(xí)辦法》)”,近來
,完成大言語模型模型練習(xí)和布置的民主化,
知識(shí)庫(kù)構(gòu)建、研討供給了更合理的評(píng)價(jià)辦法,擔(dān)任大模型相關(guān)的根底研討。咱們等待這些學(xué)者們,
2018年,
這篇論文協(xié)助學(xué)界認(rèn)識(shí)到