Microsoft says bug causes Copilot to summarize confidential emails
Hacker News
A Microsoft 365 Copilot bug has been bypassing data loss prevention policies since late January, incorrectly allowing the AI assistant to read and summarize confidential emails in users' Sent and Drafts folders.
微軟證實程式錯誤導致 Copilot 摘要機密郵件
Hacker News
10 天前
AI 生成摘要
微軟表示自一月底以來,Microsoft 365 Copilot 的一項程式錯誤導致該 AI 助手繞過組織依賴的資料外洩防護政策,錯誤地讀取並摘要使用者寄件備份與草稿資料夾中受機密標籤保護的郵件。
微軟近期證實其 Microsoft 365 Copilot 存在一項技術漏洞,導致該 AI 助手在處理電子郵件時,會無視組織設定的資料遺失防護(DLP)政策與機密標籤,進而摘要受保護的機密郵件。此問題主要影響 Copilot Chat 的「工作分頁」功能,該功能會錯誤地讀取並處理使用者「寄件備份」與「草稿」資料夾中帶有機密標籤的內容,引發企業對資料隱私與合規性的高度疑慮。
社群觀點
在 Hacker News 的討論中,社群對此事件展現出強烈的質疑與不安。許多開發者與資深技術人員認為,這不僅是一個簡單的程式碼錯誤,更反映了 AI 助手在權限管理上的根本性挑戰。有觀點指出,AI 助手若要發揮效用,往往需要極廣泛的存取權限,但這種需求與傳統的權限控制模型存在天然的衝突。我們正試圖將原本為人類設計的權限模型強行套用在運作邏輯完全不同的 AI 代理人身上,這種「硬湊」的作法註定會不斷產生類似的漏洞。
更深層的擔憂則指向 AI 模型的訓練機制。留言者質疑,既然 Copilot 已經讀取並摘要了這些機密郵件,那麼這些敏感資訊是否已經進入了模型的訓練集?即便微軟修復了程式碼漏洞,已經被「吸收」的數據該如何徹底剝離與刪除,目前仍缺乏透明的交代。此外,社群也對微軟近年來「將 AI 撒在所有產品上」的策略感到疲勞,認為在缺乏健全安全架構的前提下,這種激進的推廣方式讓所有企業的數據都暴露在風險之中,只要一次提示詞注入攻擊或權限邏輯錯誤,所謂的機密標籤便形同虛設。
最後,有討論提到這反映了當前軟體開發品質的下滑。部分評論者諷刺地表示,這類漏洞可能是由未經充分測試的 AI 生成程式碼所造成的,形成了一種「AI 產生的錯誤程式碼導致 AI 洩漏機密」的惡性循環。對於企業管理層而言,這再次提醒了在引入自動化工具時,人類監督與嚴格審查的重要性,因為 AI 產生的低品質輸出若缺乏有效過濾,最終產生的後果仍需由人類承擔。