GPT時代醫(yī)學AI新賽道:16萬張圖片、70萬問答對的臨床問答數(shù)據(jù)集MIMIC-Diff-VQA發(fā)布
該研究同時提出了一個全新任務,圖像對比 VQA (difference VQA):給定兩張圖片,回答....
關于領域大模型-訓練Trick&落地的一點思考
現(xiàn)有大模型在預訓練過程中都會加入書籍、論文等數(shù)據(jù),那么在領域預訓練時這兩種數(shù)據(jù)其實也是必不可少的,主....
Focus-DETR:30%Token就能實現(xiàn)SOTA性能,效率倍增
目前 DETR 類模型已經(jīng)成為了目標檢測的一個主流范式。但 DETR 算法模型復雜度高,推理速度低,....
大模型訓練中RM分數(shù)越來越高,那訓出來LLM的效果一定好嗎?
如果你動手跑幾次ppo的過程就發(fā)現(xiàn)了,大模型的強化學習非常難以訓練,難以訓練不僅僅指的是費卡,還是指....
RoPE可能是LLM時代的Resnet
通過線性插值RoPE擴張LLAMA context長度最早其實是在llamacpp項目中被人發(fā)現(xiàn),有....
X-RiSAWOZ: 高質(zhì)量端到端多語言任務型對話數(shù)據(jù)集
對齊:我們提出了一種混合對齊策略,以確保實體在話語和信念狀態(tài)中都能被替換為所需的翻譯。具體而言,我們....
武大+上交提出BatGPT:創(chuàng)新性采用雙向自回歸架構(gòu),可預測前后token
此外,BATGPT還采用了強化學習方法,從AI和人類反饋中學習,以進一步提高模型的對齊性能。這些方法....
GLoRA:一種廣義參數(shù)高效的微調(diào)方法
近年來,大規(guī)模深度神經(jīng)網(wǎng)絡的顯著成就徹底改變了人工智能領域,在各種任務和領域展示了前所未有的性能。這....