專業傳承 在地記錄

香港將有近半機構使用 AI  私隱公署指生成式 AI較多私隱風險

分享:

近半本地機構使用 鍾麗玲:AI 或帶來私隱風險

個人資料私隱專員鍾麗玲引用生產力局數據,預計將今年有近一半(49%)香港機構使用,比2023數字(30%)近升兩成。她提醒 AI 的認用可能帶來私隱風險,包括收集過量資料、AI使用資料未必完整或準確、及重新識別身份等,她解釋,AI能透過收集和核對不同來源資料,識別資料所屬何人,會構成更大程度的風險。

在眾多 AI 技術中,鍾麗玲指出生成式 AI,比其他新興技術如雲端計算、物聯網等存在較多私隱風險,但都要視乎AI系統規模和使用目的、及機構數據安全措施。她又指,現時市民使用AI時較常見涉及私隱的風險,包括外洩用戶姓名、電郵、信用卡號碼等個人資料;訓練AI模型用到大量資料,資料可能涉及個人資料,提醒機構在制定和實行 AI 需遵從《私隱條例》規定,收集適量適度的個人資料;員工使用聊天機器人時,將公司機密、客戶資料輸入予機器人,而機器人有機會保存其資料,並用於回應其他使用者的問題。

《框架》建議機構做好風險評估

《框架》建議機構在制定AI策略時,可為員工提供 AI 相關的培訓;成立 AI 管治委員會(或類似組織),至於委員會大小可視乎機構本身規模及員工人數而制定,引入AI前,評估涉及的個人資料數量,及出現私隱風險的可能性等,從而採取相稱的風險管理措施,作出適當程度的「人為監督」。《框架》亦指出機構在定製或使用 AI模型時,要制定AI事故應變計劃以確保 AI 的系統安全及數據安全,並對 AI系統進行管理及持續監察,非「做完一次就算」。

被問到會否於未來強制 AI 使用機構跟從框架,她未有正面回應,只在審查機構方面作補充,指公署在去年8月至今年2月間,審查了 28 間本地公司使用 AI 工具情況,當中10間機構使用人工智能收集個人資料,均有採取相應的保安措施,沒有違規情況。公署亦會在往後將繼續擴大審查使用AI的機構。