微軟3萬5千9百條內部訊息外洩!人工智能「被賦予過多權限」所引發的風機致命風險

微軟3萬5千9百條內部訊息外洩!人工智能「被賦予過多權限」所引發的風機致命風險

微軟Github平台意外資料洩露:人工智能的雙面刃

數據洩漏事件概述

經濟通訊社於19日獨家報道,微軟的人工智能研究團隊在軟件開發平台GitHub上意外洩漏大量數據。該事故發生負責人為該研究團隊的一名成員,當時他正在共享開源AI學習模型,然而由於配置設定中的錯誤,導致用戶被授予更多權限,無意之中導致此次數據洩露事件。

資料洩漏的重大影響

根據目前所能確認的資訊,洩漏的資料包括微軟員工的個人電腦備份,其中有存儲微軟服務的密碼、金鑰,以及來自359名微軟員工的3萬多條內部Microsoft Teams訊息。即使微軟公司發言人已經確認沒有客戶資訊被洩露,仍舊無法掩蓋這項數據洩漏事件對於微軟公司組織內部資安與訊息安全所帶來的重大威脅。

專家評論:分析存在的風險

對此次事件深入分析的是雲端安全公司Wiz的研究團隊,他們指出,儘管開放資料共享在AI訓練世界裡是至關重要的,但如果共享配置出現錯誤,則容易導致公司資訊安全面臨風險。這種風險存在於所有使用開放資料共享的AI訓練模型中,不僅僅是微軟,任何高度依賴AI技術的公司都可能陷入這樣的風險。

微軟對此次事件的回應

對於此次事件,微軟公司表示,目前已確認到沒有客戶數據被洩漏,也沒有其他內部服務出現問題。微軟公司應該會深入調查此次事件,並采取所有必要的措施,以避免未來出現類似的數據洩漏事故。然而,這次的洩漏事件絕對給所有依賴著開放資料共享的AI訓練模型的公司敲了警鐘。

結語:警惕AI未來可能的風險

這次微軟在GitHub平台上的資訊洩露事件,讓我們看到了AI存在的風險。AI,這個在許多領域引領著創新和進步的驅動力,其背後也伴隨著相對的風險。當企業在探索新技術的可能性時,也需要時刻警覺並建立良好的風險管理機制,才能確保公司的穩定發展。對於這類事件,希望所有公司都能吸取教訓,加強自身的資訊安全保護,並針對共享資料設置更完善的權限管理。

  • 2023 年 9 月 19 日