什麼是 公平性(Fairness)?
公平性要求 AI 模型對不同人口族群的決策結果無系統性歧視,需透過資料與演算法設計確保
公平性是什麼?
在人工智慧(AI)領域,公平性指的是確保 AI 系統在做出決策時,不會對不同群體(例如性別、種族、年齡、宗教等)產生不合理的歧視或偏見。換句話說,公平性旨在消除因演算法設計、訓練資料或應用環境等因素所導致的,對特定群體的不利影響。它不僅僅是準確率的問題,更關乎 AI 系統是否能以公正、客觀的方式對待所有人,避免加劇社會不平等。目標是設計出既準確又公平的 AI 系統,讓所有人都能平等地受益。
公平性的運作原理
公平性的運作並非一蹴可幾,而是一個涉及多個階段的流程。首先,需要識別潛在的偏見來源,例如訓練資料中可能存在的偏差。接著,量化這些偏見,可以使用各種指標來衡量不同群體之間的決策差異,例如統計均等差異、機會均等差異等。然後,採用相應的 mitigation 策略來減輕或消除這些偏見。這些策略包括:
- 重新採樣(Resampling): 調整訓練資料的比例,使得不同群體的樣本數量更加平衡,減少因樣本不平衡而產生的偏見。
- 重新加權(Reweighting): 為訓練資料中的不同樣本賦予不同的權重,使得模型在訓練時更加關注少數群體的樣本。
- 對抗性訓練(Adversarial Training): 訓練一個對抗模型,用於識別 AI 系統中的偏見,並訓練 AI 系統抵抗這些偏見。
- 後處理(Post-processing): 在 AI 系統做出決策後,對決策結果進行調整,以確保不同群體之間的公平性。
最終,持續監控 AI 系統的表現,定期評估其公平性,並根據評估結果進行調整,以確保其始終保持公平。
公平性的應用場景
- 貸款審核: 銀行和其他金融機構使用 AI 系統來評估貸款申請人的信用風險。公平性在此至關重要,因為 AI 系統不應基於申請人的種族、性別或其他受保護的屬性來做出歧視性決策。例如,Capital One 使用 AI 模型來預測信用風險,同時致力於確保模型不會產生對特定群體的偏見。
- 招聘流程: 許多公司使用 AI 系統來篩選履歷、評估候選人技能。AI 系統的公平性直接影響到求職者的機會均等。HireVue 等公司提供基於 AI 的招聘解決方案,並強調其系統的公平性,力求消除招聘流程中的偏見。
- 刑事司法: 美國一些法院使用 AI 系統來評估被告的再犯風險。COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) 系統曾因被指責對黑人被告存在偏見而備受爭議,凸顯了 AI 公平性在刑事司法領域的重要性。
- 醫療保健: AI 系統可用於診斷疾病、制定治療方案。公平性在此意味著確保 AI 系統對所有患者,無論其種族、性別或其他背景,都能提供相同水準的醫療服務。例如,Google 的醫療 AI 團隊正在研究如何利用 AI 來改善醫療保健的公平性,特別是針對弱勢群體。
公平性的重要性與限制
公平性至關重要,因為它直接關係到社會公正和機會均等。如果 AI 系統存在偏見,可能會加劇社會不平等,損害特定群體的利益。例如,如果一個 AI 招聘系統對女性求職者存在偏見,可能會導致女性在職場上受到歧視。
然而,實現 AI 公平性也存在許多挑戰和限制。首先,定義公平本身就是一個複雜的問題,不同的公平指標之間可能存在衝突。其次,即使 AI 系統在統計上是公平的,也可能存在其他形式的不公平,例如,在某些情況下,為了提高公平性,可能會犧牲一定的準確率。此外,資料偏差是 AI 公平性的一大挑戰,如果訓練資料本身就存在偏見,那麼即使使用最先進的 mitigation 策略,也難以完全消除 AI 系統中的偏見。
公平性在 iPAS 考試中的重點
在 iPAS AI 應用規劃師考試中,公平性是一個重要的考點。考試可能會涉及以下幾個方面:
- 公平性的概念和重要性: 理解公平性的定義、不同類型的偏見,以及 AI 公平性對社會的影響。
- 公平性指標: 掌握常用的公平性指標,例如統計均等差異、機會均等差異、預測均等差異等,並能夠根據具體場景選擇合適的指標。
- 公平性 mitigation 策略: 了解常用的 mitigation 策略,例如重新採樣、重新加權、對抗性訓練等,並能夠根據具體場景選擇合適的策略。
- 案例分析: 分析實際案例,判斷 AI 系統是否存在偏見,並提出相應的 mitigation 建議。例如,在一個貸款審核案例中,考生需要判斷 AI 系統是否對特定種族的申請人存在偏見,並提出如何調整模型以提高公平性。考試也可能要求考生了解 COMPAS 系統的爭議,並分析其背後的公平性問題。
常見問題
公平性和準確率有什麼不同?
公平性關注的是 AI 系統對不同群體的決策是否公正,而準確率關注的是 AI 系統的整體預測能力。一個高準確率的 AI 系統可能仍然存在偏見,對某些群體不公平。例如,一個診斷疾病的 AI 系統可能對男性患者的診斷準確率為 95%,但對女性患者的診斷準確率只有 85%。雖然整體準確率很高,但對女性患者是不公平的。
什麼時候應該使用公平性?
當 AI 系統的決策會對人們的生活產生重大影響時,就應該考慮公平性。具體來說,在以下情況下,公平性尤其重要:
- AI 系統用於貸款審核、招聘、刑事司法、醫療保健等領域。
- AI 系統的決策可能會影響到特定群體的機會均等。
- AI 系統的決策可能會加劇社會不平等。
如果 AI 系統的決策只是用於一些無關緊要的事情,例如推薦餐廳或電影,那麼公平性的重要性相對較低。
初學者學習公平性最常見的誤解是什麼?
初學者最常見的誤解是認為只要提高資料的品質,就能自動解決公平性問題。雖然高品質的資料對於構建公平的 AI 系統至關重要,但僅僅提高資料品質是不夠的。即使使用高品質的資料,AI 系統仍然可能存在偏見,因為演算法本身也可能存在偏見。因此,除了關注資料品質外,還需要使用公平性指標來評估 AI 系統的公平性,並採用相應的 mitigation 策略來減輕或消除偏見。
公平性 在 iPAS 考試中的重點
根據歷年統計,公平性 相關題目 平均佔 AI 技術類考題 2%, 屬於未分類考範圍。
相關術語
常見問題
公平性和隱私保護有什麼關係?
公平性和隱私保護都是 AI 倫理的重要組成部分。有時為了提高公平性,可能需要收集更多關於個體的敏感資訊(例如種族、性別),但這可能會侵犯個體的隱私。因此,需要在公平性和隱私保護之間取得平衡。例如,差分隱私技術可以在保護隱私的同時,用於分析不同群體之間的差異,從而提高公平性。
如何衡量 AI 系統的公平性?
衡量 AI 系統的公平性可以使用多種指標,例如統計均等差異(Statistical Parity Difference)、機會均等差異(Equal Opportunity Difference)、預測均等差異(Predictive Equality Difference)等。選擇哪種指標取決於具體的應用場景和所關注的公平性問題。沒有一個通用的指標適用於所有情況。
誰應該負責確保 AI 系統的公平性?
確保 AI 系統的公平性是所有參與 AI 系統開發和部署的人的共同責任,包括資料科學家、工程師、產品經理、決策者等。資料科學家負責構建公平的模型,工程師負責部署公平的系統,產品經理負責定義公平的產品,決策者負責制定公平的政策。
資料來源
- iPAS AI 應用規劃師評鑑內容範圍參考(115.02) — 經濟部產業人才能力鑑定