Mybridge對(duì)8月250個(gè)機(jī)器學(xué)習(xí)開源項(xiàng)目進(jìn)行了排行,并列出了前10位,Github星的平均數(shù)量:1355
月度開源項(xiàng)目排行榜又來(lái)了!
這次,由Mybridge AI根據(jù)包括GitHub簽星數(shù)量在內(nèi)的各種評(píng)判因素,對(duì)8月份將近250個(gè)開源項(xiàng)目進(jìn)行了比較,做出了一個(gè)《8月機(jī)器學(xué)習(xí)開源項(xiàng)目排行榜》,下面列出了其中的TOP 10。10個(gè)項(xiàng)目的平均星數(shù)達(dá)到了1355。
1. UGATIT(超3500星)
U-GAT-IT的官方Tensorflow實(shí)施:具有自適應(yīng)層實(shí)例規(guī)范化的無(wú)監(jiān)督生成注意網(wǎng)絡(luò),用于圖像到圖像的轉(zhuǎn)換。
https://github.com/taki0112/UGATIT?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more
2. Dlrm(超1300星)
深度學(xué)習(xí)推薦模型(Deep Learning Recommendation Model)的實(shí)現(xiàn)模型輸入由密集和稀疏特征組成。 前者是浮點(diǎn)值的向量。 后者是嵌入表的稀疏索引列表,嵌入表由浮點(diǎn)值向量組成。 所選擇的矢量被傳遞到由三角形表示的mlp網(wǎng)絡(luò),在一些情況下,矢量通過操作符(Ops)進(jìn)行交互。
https://github.com/facebookresearch/dlrm?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more
3. Real-Time-Voice-Cloning(超6200星)
該倉(cāng)庫(kù)是一種從說話人驗(yàn)證到多語(yǔ)言文本到語(yǔ)音合成(SV2TTS)的遷移學(xué)習(xí)的實(shí)現(xiàn),其中有一個(gè)實(shí)時(shí)工作的聲碼器。SV2TTS是一個(gè)三階段深度學(xué)習(xí)框架,允許從幾秒鐘的音頻創(chuàng)建一個(gè)語(yǔ)音的數(shù)字表示,并使用它來(lái)調(diào)節(jié)訓(xùn)練的文本到語(yǔ)音模型以推廣到新的聲音。
https://github.com/CorentinJ/Real-Time-Voice-Cloning?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more
4. RAdam(超1200星)
Adam是一種對(duì)隨機(jī)目標(biāo)函數(shù)執(zhí)行一階梯度優(yōu)化的算法,該算法基于適應(yīng)性低階矩估計(jì),但基本機(jī)制在很大程度上是未知的,雖然收斂速度很快,但容易掉入局部最優(yōu)解的“陷阱”。
來(lái)自UIUC的中國(guó)博士生Liyuan Liu提出了一個(gè)新的優(yōu)化器RAdam,結(jié)合了Adam和SGD兩者的優(yōu)點(diǎn),在保證收斂速度的前提下避免掉入局部最優(yōu)解陷阱。同時(shí),收斂結(jié)果對(duì)學(xué)習(xí)率的初始值比較麻木。在較大學(xué)習(xí)率的情況下,RAdam效果甚至還優(yōu)于SGD。
https://github.com/LiyuanLucasLiu/RAdam?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more
TensorNetwork是谷歌為了提高張量計(jì)算效率,和加拿大圓周理論物理研究所(Perimeter Institute for Theoretical Physics)、谷歌 X 公司一起開發(fā)的開源庫(kù)。它使用TensorFlow 作為后端,針對(duì)GPU進(jìn)行了優(yōu)化,與在 CPU 上的運(yùn)行速度相比實(shí)現(xiàn)了 100 倍的加速。
https://github.com/google/tensornetwork?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more
6. Megatron-LM(超900星)
英偉達(dá)一舉創(chuàng)造了 2 個(gè)壯舉!訓(xùn)練出了世界上最大的語(yǔ)言模型 ——MegatronLM,包含 83 億參數(shù),比 BERT 大 24 倍,比 GPT-2 大 5.6 倍;還打破了實(shí)時(shí)對(duì)話 AI 的記錄,僅耗時(shí) 53 分鐘即可訓(xùn)練出行業(yè)標(biāo)準(zhǔn) BERT 模型、2 毫秒就能對(duì)答案做出推斷!
https://github.com/NVIDIA/Megatron-LM?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more
7. Python_autocomplete(超600星)
這個(gè)好玩的項(xiàng)目是一個(gè)簡(jiǎn)單的LSTM模型,可以自動(dòng)完成python代碼,可以進(jìn)行波束搜索以找到預(yù)測(cè),最多可達(dá)10個(gè)字符。
https://github.com/vpj/python_autocomplete?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more
8. Realistic-Neural-Talking-Head-Models(超190星)
Few-Shot Adversarial Learning of Realistic Neural Talking Head Models論文的代碼實(shí)現(xiàn)。
https://github.com/vincent-thevenin/Realistic-Neural-Talking-Head-Models?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more
9. TecoGAN(超980星)
TecoGAN被用來(lái)實(shí)現(xiàn)視頻超分辨率,該技術(shù)可以生成非常精致的細(xì)節(jié),甚至連背上的斑點(diǎn)都清晰可見,同時(shí)還能保持視頻的連貫性,由慕尼黑工業(yè)大學(xué)研究人員開發(fā)。
https://github.com/thunil/TecoGAN?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more
10. Buffalo(超230星)
TOROS Buffalo:一個(gè)快速,可擴(kuò)展的生產(chǎn)就緒型開源項(xiàng)目,適用于推薦系統(tǒng)。
-
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8441瀏覽量
133097 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5516瀏覽量
121572 -
GitHub
+關(guān)注
關(guān)注
3文章
473瀏覽量
16584
原文標(biāo)題:8月機(jī)器學(xué)習(xí)開源項(xiàng)目排行榜TOP 10:UGATIT、RAdam上榜
文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論