近日,騰訊科技(深圳)有限公司在大語言模型訓練領域取得了新的技術突破,并成功申請了一項名為“大語言模型的訓練方法、裝置、計算機設備及存儲介質”的專利。
據天眼查App顯示,該專利摘要詳細介紹了騰訊在大語言模型訓練過程中的創新方法。具體而言,騰訊引入了第一摘要文本和第二摘要文本,為模型訓練提供了更為豐富的學習信息。這兩個摘要文本所包含的信息量不同,且第一摘要文本中既包含正確語句也包含錯誤語句。
在訓練過程中,騰訊通過對比學習同一樣本文本的兩個不同摘要文本,并區分學習第一摘要文本中的正確語句和錯誤語句,從而避免了由于摘要文本單一而導致的模型過擬合和生成不準確等問題。這種創新性的訓練方法不僅有助于提升模型的泛化性能,還能顯著提高模型的準確性。
騰訊的這一新專利無疑為其在大語言模型訓練領域樹立了新的技術標桿。通過不斷優化和升級訓練技術,騰訊有望為用戶提供更加智能、準確的大語言模型服務。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
騰訊
+關注
關注
7文章
1678瀏覽量
50138 -
語言模型
+關注
關注
0文章
558瀏覽量
10670
發布評論請先 登錄
相關推薦
熱點推薦
小白學大模型:訓練大語言模型的深度指南
在當今人工智能飛速發展的時代,大型語言模型(LLMs)正以其強大的語言理解和生成能力,改變著我們的生活和工作方式。在最近的一項研究中,科學家們為了深入了解如何高效地

騰訊公布大語言模型訓練新專利
近日,騰訊科技(深圳)有限公司公布了一項名為“大語言模型的訓練方法、裝置、計算機設備及存儲介質”的新專利。該專利的公布,標志著騰訊
騰訊混元Large模型及云TI平臺全新上線
近日,騰訊混元團隊最新推出的MoE模型“混元Large”已正式開源上線。這一里程碑式的進展標志著騰訊在大模型技術
騰訊發布開源MoE大語言模型Hunyuan-Large
的性能,標志著騰訊在自然語言處理領域邁出了重要的一步。 據了解,Hunyuan-Large的總參數量高達389B(即3890億),這一數字遠超當前許多主流的大
如何訓練自己的AI大模型
訓練自己的AI大模型是一個復雜且耗時的過程,涉及多個關鍵步驟。以下是一個詳細的訓練流程: 一、明確需求和目標 首先,需要明確自己的需求和目標。不同的任務和應用領域需要不同類型的AI
端到端InfiniBand網絡解決LLM訓練瓶頸
ChatGPT對技術的影響引發了對人工智能未來的預測,尤其是多模態技術的關注。OpenAI推出了具有突破性的多模態模型GPT-4,使各個領域取得了顯著的發展。 這些AI進步是通過大規模

摩爾線程與羽人科技完成大語言模型訓練測試
近日,摩爾線程與羽人科技攜手宣布,雙方已成功實現夸娥(KUAE)千卡智算集群與羽人系列模型解決方案的訓練兼容適配。在本次測試中,羽人科技通過摩爾線程夸娥千卡智算集群,高效完成了70億參數羽人7B
【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習
、機器翻譯、文本生成等領域具有廣泛應用。它們能夠基于用戶的提問或描述生成相關的答案或執行指令,極大地提升了信息檢索和利用的效率。
2. 局限性
盡管大語言模型在自然
發表于 08-02 11:03
預訓練模型的基本原理和應用
預訓練模型(Pre-trained Model)是深度學習和機器學習領域中的一個重要概念,尤其是在自然語言處理(NLP)和計算機視覺(CV)
評論