AI的學習偏差
在人工智能高速發展的世界,AI善於收集、處理和模仿網絡的資訊,簡單地說,機器學習(模仿)人類。
既是模仿,便會有機會發生偏差。「模仿偏差」逐漸成為隱藏但關鍵的問題。AI學習的路線受限於訓練數據,若人類資料本身存在偏見,AI便會無覺地加以複製與強化。
AI並非真正理解現實,而是透過模式識別和模仿行為來預測結果。這種做法,往往缺乏批判和情感深度,只會按現有資料和算法作出反應,辨識系統容易對某些群體產生系統性偏見,變成「群體盲點」。
隨波逐流
「群體盲點」的意思是,演算法傾向放棄少數資料、選擇主流特徵,最終讓某些群體受到不公平對待。如果模型只用單一族群資料來訓練,便會忽略其他聲音,導致判斷失準。
有時即使算法完美,偏差也可能因量測錯誤或重要資訊被排除而積聚。例如現今對於女性美麗的標準在網絡上的數據都集中於西方白人社會和文化,AI給你的答案可能會傾向西方。
在多元社會下,AI如果長期依賴單一來源或視角,偏差就會不斷累積,最終影響決策公平、資訊準確,所以我們不可盲信AI的答案,更要警覺它的「模仿」可能綁架現實。
唯有不斷提醒技術背後需要人的參與、多元資料和倫理監督,才能減少偏差,讓AI成為沿途輔助而非唯一主導。AI簡化了生活,但不可將思考變得簡陋。
撰文:伍詠光
心理、婚姻及家庭治療師,前突破輔導中心總監。著有《無朋友,似乎也很好?》、《攰了,躺躺吧》、《愛,要勇敢》、《勇敢做自己》、《現實,我受夠了》以及《嘴巴失控了》、《邊個想返工》(合著)
電郵地址:[email protected]
Posted on 17 Mar 2026.
在多元社會下,AI如果長期依賴單一來源或視角,偏差就會不斷累積,最終影響決策公平、資訊準確。