隨著開發人員急于開發諸如聯系人跟蹤軟件之類的軟件,COVID-19流行病使人們越來越關注人工智能(“ AI”),該軟件可以幫助企業降低員工重返工作崗位的風險。在企業獲得AI技術之前,所有者和人力資源專業人員必須考慮如何在主動與保護員工隱私之間取得平衡。他們應將許多條款納入與軟件開發人員的合同中。其中一些規定包括:
綜合測試
與AI簽約時,客戶應特別關注記錄要提供的測試級別。通常,對測試的描述越健壯,就越好。至少,此描述應包括:測試輪次,測試過程,每輪測試的最小樣本量是多少,以及創建測試環境的人員。另外,如果測試不能產生足夠的工作產品,客戶應要求供應商按照合同約定描述補救措施。各方需要準確定義什么構成接受,以及正在進行的測試是否必要或適當,特別是當AI適應并從中學習時。
安全
安全是當前信息技術法律發展最快的領域之一。簽約AI時,重要的一點是要有能夠適應這個不斷變化的環境的標準。為此,合并供應商遵守行業安全標準(例如,ISO-27001和OWASP-Top 10(用于Web應用程序))的要求很有幫助。企業還應說明與保護客戶的IT環境所必需的安全性相關的任何特定技術要求,以及與員工及其客戶位置相關的行蹤和其他數據。最后,明智的是要求有足夠的網絡保險來滿足環境風險水平。
資料私隱
客戶應警惕AI可能會將曾經匿名的數據轉換為可解密的數據。同樣,在美國,甚至在全球范圍內,還有一套復雜的數據隱私法律正在生效。所有供應商應在合同上同意遵守任何此類適用法律。客戶還應該考慮限制供應商如何使用數據,尤其是在向簽約客戶提供服務之外。
降低風險
大多數供應商都要求對間接損失進行限制,但是在AI合同中,這給其他挑戰帶來了挑戰,因為對客戶而言,大部分風險都來自通常被視為間接損失的物品。有幾種方法可以解決此問題。一種方法是重新定義什么是直接損害。第二種方法是協商特定項目的上限例外情況,例如:違反隱私/數據安全性,未遵守閾值要求以及因使用算法數據而導致的偏見指控。
-
人工智能
+關注
關注
1799文章
47965瀏覽量
241309 -
應用程序
+關注
關注
38文章
3301瀏覽量
58062
發布評論請先 登錄
相關推薦
生成式人工智能模型的安全可信評測

評論