AI 雖好,但你的資料真的安全嗎?
- Atlassian

- 8月20日
- 讀畢需時 3 分鐘

人工智慧正以前所未有的速度改變著團隊的協作方式。從快速尋找資訊到加速決策,AI 的力量顯而易見。據統計,未來三年,高達 92% 的公司計畫增加對 AI 的投資。
然而,一個靈魂拷問隨之而來:當團隊擁抱 AI 時,如何確保我們的核心資料是安全的? 🤔
AI 的快速普及,意味著企業必須主動應對安全與合規的挑戰。今天,我們就以 Atlassian 的 AI 產品 Rovo 為例,深入解讀一個值得信賴的 AI 解決方案,是如何從設計之初就將“信任”刻進基因裡的。
第一招:看得見,才管得住!AI 使用情況全透明 💡
正所謂“你看不到的,就保d護不了”。要有效管理 AI 帶來的風險,第一步就是讓一切都透明化。
Atlassian 深知這一點,並為管理員和安全團隊提供了強大的可視化工具:
組織洞察儀表盤 (Organization Insights):在這裡,你可以清晰地看到 Jira、Confluence 等產品中日活和月活使用者數,對整體使用情況心中有數。
AI 洞察標籤 (AI insights tab):這個專門的標籤頁,讓你能更直觀地追蹤 AI 功能 (如 Rovo) 的使用情況。你甚至可以利用這些資料發現哪些團隊還沒用上 AI,從而更好地賦能他們。
在啟用 AI 之前,我們強烈建議你先梳理好內部資料:資料在哪裡、誰有權訪問、敏感等級如何。這是確保 AI 安全、有效運行的基礎。
第二招:安全為本,隱私至上!刻在基因裡的設計哲學 🛡️
一個可信的 AI 解決方案,必須遵循與核心雲產品同等等級的嚴苛安全、隱私和合規標準。
Atlassian 的 AI 實踐植根於其《負責任技術原則》,並承諾:
嚴格的資料處理:你的資料如何被使用、儲存和共享?Atlassian 在其《隱私政策》、《資料處理附錄》等協議中有清晰的說明,公開透明。
負責任的 LLM 使用:Atlassian 會使用自研模型(如 Mixtral、Llama-3)和第三方大語言模型(如 OpenAI, Anthropic, Gemini)。但最關鍵的是,這些 LLM 提供商不會保留你的輸入和輸出,更不會用你的資料來改進他們的服務。
企業級安全標準:Rovo 遵循 Atlassian 全線產品的安全標準,提供靜態和傳輸中的端到端加密,確保資料安全。同時,它還符合 SOC 2 和 ISO27001 等多項國際合規認證。
你的資料只為你服務:你的輸入和輸出內容,只會用於改善你自身的使用體驗,絕不會被用於跨客戶訓練 LLM 模型。
第三招:我的資料我做主!控制權始終在你手中 🔑
提供了可視化和安全設計還不夠,真正的信任來自於讓你擁有最終的控制權。
一鍵啟用或停用:作為管理員,你擁有最高權限。只需在管理後台,就能隨時在產品等級啟用或停用 AI 功能。
尊重現有權限:這是最重要的一點!Rovo 會 100% 尊重你已在 Atlassian 產品和第三方應用中設定好的權限。這意味著,使用者通過 AI 只能看到他們原本就有權限查看的資料,絕不會發生權限洩露。
精細化權限管理:Atlassian Cloud 提供了多層級的精細化授權管理,你可以根據組織、站點和產品三個維度進行設定。
資料本地化支援 (Data Residency):你可以選擇將 Rovo 的資料儲存在指定的地理區域,以滿足你所在地區的合規和監管要求。
總而言之,擁抱 AI 創新與堅守資料安全並非一道單選題。Atlassian 的實踐告訴我們,通過透明可見的洞察 、安全為本的設計 、以及使用者至上的控制權,完全可以在享受 AI 帶來的效率革命的同時,為企業資料建立起堅實的信任壁壘。
理解這些原則是第一步,更重要的是如何將它們應用到您團隊的實際工作流中。如果您也正在探索如何安全地引入 AI,並希望深入瞭解 Atlassian Rovo AI 解決方案如何為您的企業量身定製,我們非常歡迎您與我們聯絡,共同開啟高效、安心的智能協作新篇章。





留言