在 Guru,安全永遠是我們心中的首要之務,尤其是在客戶數據的安全方面。 多虧了近來在人工智慧方面的進展,科技世界對安全的關注從未像這樣緊迫。 隨著我們努力推出你可以在 Guru 中使用的不斷增長的 AI 功能,我們也一直在努力提升我們的安全功能。 幸運的是,當你已經擁有穩固的基礎時,這是相對簡單的。
安全與保護的基礎
Guru 遵循最佳實踐來確保我們客戶的數據安全。 你可以在我們的安全頁面上詳細了解我們的安全和合規實踐,但你可以在這裡獲得你需要知道的簡要概述。
儘管我們專注於安全,但我們對創新的信念同樣強烈。 我們不斷尋求集成新增功能和能力的方法,以為產品增添價值。 無可否認的是,人工智慧已經發展到了合法地補充多款 SaaS 產品的程度,包括 Guru。 忽視 AI 及其為 Guru 帶來的潛力根本不是選擇,這就是為什麼我們如此努力地安全地將這些創新帶入我們的產品和客戶。
生成式 AI 可能被證明是我們時代最具變革性的技術進步之一,但它帶來了獨特的擔憂。 這使我們回到了客戶數據的神聖性上。 客戶和公司對將其敏感信息指向新的和未知的來源感到猶豫是自然而然的事情。 我們開始看到一些重複的問題:我的信息去哪了? 它將如何被使用? 誰負責保護它? 它會保存多久?
隨著 Guru 開始探索第三方 AI 服務,我們遵循明確的安全原則,這些原則集中在 3 個核心主題:我們使用的平台、我們收集的客戶數據,以及我們管理數據存儲和刪除的方式。
對第三方 AI 平台進行關鍵性的持續評估
為了明確:在徹底審查他們的技術、安全合規、服務條款和隱私實踐之前,我們不會允許任何AI合作夥伴訪問 Guru 的重要數據。 當我們為第三方提供 onboarding 時,我們已經遵循一套明確的標準,而 AI 供應商亦不例外。 我們將評審他們的表現記錄及基礎設施的完整性,然後使其在隱私和安全標準上合約負責。
這不是單一個體做出的決策,而是涉及專業領域專家的協作過程,從安全的角度進行審視。 我們評估有關的數據的重要性、公司的健康狀況、託管和工具的完整性,以及合規的文檔記錄(例如:外部審計、滲透測試等)。 只有在我們的 CTO 正式贊同後,供應商才能接觸 Guru 的生產數據,根據標準,該合作關係每年至少進行一次重新確認。
使用更少的數據做更多的事情
由於 AI 訓練模型的特性,數據安全變得更為複雜。 當供應商通常處理或存儲客戶數據時,AI 供應商會尋求通過整合盡可能多的數據集來訓練他們的模型。
雖然訓練模型是 AI 服務的自然且必要的一部分,但 Guru 會限制僅將客戶數據釋放僅限於當前任務。 我們只會將第三方模型所需的數據提供給其執行該功能,並禁止它用於大規模的模型訓練。 這直接反映了 OpenAI 的數據使用政策,其中指出:“根據預設,OpenAI 不會使用 API 數據來訓練 OpenAI 模型或改善 OpenAI 的服務。”
但甚至在客戶數據到達 OpenAI 之前,首先在 Guru 端已受到規範,從而將絕大多數信息保持在 Guru 的保護託管環境中。 簡而言之,我們並不單純地對 OpenAI 打開客戶數據的洪流。 相反,我們根據初始的客戶任務內部檢索和調整數據,只允許該信息段進入 AI 流。
定期數據刪除和維護
客戶數據不能永遠存在,我們將制定定期數據刪除成為任何 AI 供應商關係或自託管解決方案的標準條款。 我們將通過建立釋放準則來限制生成式 AI 的數字範圍。 目標是保持對所有客戶數據的正確控制,在可能的情況下實施“存活時間”限制。
儘管 AI 通常受益於儲存和聚合儘可能多的數據,但我們認為,考慮到 Guru 用戶的情況,數據刪除帶來的內心平靜遠超於無限期的保留所帶來的好處。
Guru、AI 和未來
生成式 AI 在我們用戶檢索和理解信息的方式上提供了多種改進。 雖然我們使用 AI 的方式僅限於我們的想像力,但我們將確保我們以應有的謹慎和一致性來對待它。 我們的第三方供應商流程是經過時間考驗的(每年進行審核),而 AI 供應商將承受與其他訪問 Guru 的供應商相同的審查。
隨著我們繼續探索機器學習的潛在途徑,我們不會改善我們的基本安全立場。 我們理解,如果我們侵蝕了對產品的信任和信心,那麼 AI 的好處對我們來說將毫無意義。 我們堅持這一基本真理:豐富的知識資源能夠使人們發揮最佳工作能力,我們將僅在 AI 的能力提升 Guru 的情況下來利用它。
在 Guru,安全永遠是我們心中的首要之務,尤其是在客戶數據的安全方面。 多虧了近來在人工智慧方面的進展,科技世界對安全的關注從未像這樣緊迫。 隨著我們努力推出你可以在 Guru 中使用的不斷增長的 AI 功能,我們也一直在努力提升我們的安全功能。 幸運的是,當你已經擁有穩固的基礎時,這是相對簡單的。
安全與保護的基礎
Guru 遵循最佳實踐來確保我們客戶的數據安全。 你可以在我們的安全頁面上詳細了解我們的安全和合規實踐,但你可以在這裡獲得你需要知道的簡要概述。
儘管我們專注於安全,但我們對創新的信念同樣強烈。 我們不斷尋求集成新增功能和能力的方法,以為產品增添價值。 無可否認的是,人工智慧已經發展到了合法地補充多款 SaaS 產品的程度,包括 Guru。 忽視 AI 及其為 Guru 帶來的潛力根本不是選擇,這就是為什麼我們如此努力地安全地將這些創新帶入我們的產品和客戶。
生成式 AI 可能被證明是我們時代最具變革性的技術進步之一,但它帶來了獨特的擔憂。 這使我們回到了客戶數據的神聖性上。 客戶和公司對將其敏感信息指向新的和未知的來源感到猶豫是自然而然的事情。 我們開始看到一些重複的問題:我的信息去哪了? 它將如何被使用? 誰負責保護它? 它會保存多久?
隨著 Guru 開始探索第三方 AI 服務,我們遵循明確的安全原則,這些原則集中在 3 個核心主題:我們使用的平台、我們收集的客戶數據,以及我們管理數據存儲和刪除的方式。
對第三方 AI 平台進行關鍵性的持續評估
為了明確:在徹底審查他們的技術、安全合規、服務條款和隱私實踐之前,我們不會允許任何AI合作夥伴訪問 Guru 的重要數據。 當我們為第三方提供 onboarding 時,我們已經遵循一套明確的標準,而 AI 供應商亦不例外。 我們將評審他們的表現記錄及基礎設施的完整性,然後使其在隱私和安全標準上合約負責。
這不是單一個體做出的決策,而是涉及專業領域專家的協作過程,從安全的角度進行審視。 我們評估有關的數據的重要性、公司的健康狀況、託管和工具的完整性,以及合規的文檔記錄(例如:外部審計、滲透測試等)。 只有在我們的 CTO 正式贊同後,供應商才能接觸 Guru 的生產數據,根據標準,該合作關係每年至少進行一次重新確認。
使用更少的數據做更多的事情
由於 AI 訓練模型的特性,數據安全變得更為複雜。 當供應商通常處理或存儲客戶數據時,AI 供應商會尋求通過整合盡可能多的數據集來訓練他們的模型。
雖然訓練模型是 AI 服務的自然且必要的一部分,但 Guru 會限制僅將客戶數據釋放僅限於當前任務。 我們只會將第三方模型所需的數據提供給其執行該功能,並禁止它用於大規模的模型訓練。 這直接反映了 OpenAI 的數據使用政策,其中指出:“根據預設,OpenAI 不會使用 API 數據來訓練 OpenAI 模型或改善 OpenAI 的服務。”
但甚至在客戶數據到達 OpenAI 之前,首先在 Guru 端已受到規範,從而將絕大多數信息保持在 Guru 的保護託管環境中。 簡而言之,我們並不單純地對 OpenAI 打開客戶數據的洪流。 相反,我們根據初始的客戶任務內部檢索和調整數據,只允許該信息段進入 AI 流。
定期數據刪除和維護
客戶數據不能永遠存在,我們將制定定期數據刪除成為任何 AI 供應商關係或自託管解決方案的標準條款。 我們將通過建立釋放準則來限制生成式 AI 的數字範圍。 目標是保持對所有客戶數據的正確控制,在可能的情況下實施“存活時間”限制。