在前幾節中,僅考慮了明確的反饋,并根據觀察到的評分對模型進行了訓練和測試。這種方法有兩個缺點:首先,大多數反饋在現實世界場景中不是顯式的而是隱式的,收集顯式反饋的成本更高。其次,完全忽略了可能預測用戶興趣的未觀察到的用戶-項目對,使得這些方法不適用于評級不是隨機丟失而是由于用戶偏好而丟失的情況。未觀察到的用戶-項目對是真實負反饋(用戶對項目不感興趣)和缺失值(用戶將來可能與項目交互)的混合體。我們簡單地忽略矩陣分解和 AutoRec 中未觀察到的對。清楚地,
為此,一類旨在從隱式反饋生成排名推薦列表的推薦模型得到了普及。一般而言,個性化排名模型可以通過逐點、成對或列表方法進行優化。Pointwise 方法一次考慮單一交互,并訓練分類器或回歸器來預測個人偏好。矩陣分解和 AutoRec 使用逐點目標進行了優化。成對方法為每個用戶考慮一對項目,并旨在為該對近似優化排序。通常,成對方法更適合排序任務,因為預測相對順序讓人聯想到排序的本質。Listwise 方法近似于整個項目列表的順序,例如,NDCG)。然而,listwise 方法比 pointwise 或 pairwise 方法更復雜,計算量更大。在本節中,我們將介紹兩個成對目標/損失,貝葉斯個性化排名損失和鉸鏈損失,以及它們各自的實現。
21.5.1。貝葉斯個性化排序損失及其實現
貝葉斯個性化排名 (BPR) (Rendle等人,2009 年)是一種成對的個性化排名損失,源自最大后驗估計。它已被廣泛應用于許多現有的推薦模型中。BPR 的訓練數據由正負對(缺失值)組成。它假設用戶比所有其他未觀察到的項目更喜歡正面項目。
在形式上,訓練數據由元組構成,形式為 (u,i,j), 代表用戶u喜歡這個項目i在項目上j. 下面給出了旨在最大化后驗概率的 BPR 的貝葉斯公式:
在哪里Θ表示任意推薦模型的參數,>u表示用戶期望的所有項目的個性化總排名u. 我們可以制定最大后驗估計來推導出個性化排名任務的通用優化標準。
在哪里 D=def{(u,i,j)∣i∈Iu+∧j∈I?Iu+} 是訓練集,有Iu+表示用戶的項目 u喜歡,I表示所有項目,并且 I?Iu+指示除用戶喜歡的項目之外的所有其他項目。y^ui和y^uj是用戶的預測分數u到項目i和j, 分別。先驗的
評論