Demystifying the Security Unknowns of AI Add-ons
企業は、AIの利益を得るために安全なデータをリスクにさらす必要はありません。 こちらが、GuruがAIの革新をもたらし、貴社のデータを安全に保つために行っていることです。
Guruでは、特に顧客データのセキュリティに関して、セキュリティが常に最優先事項です。 最近のAIの進歩のおかげで、テクノロジー界ではセキュリティへの関心がこれまでになく高まっています。 私たちがGuruで使える着実に増加しているAI機能をリリースするために働いている間、セキュリティ機能の強化にも取り組んできました。 幸運なことに、すでに堅固な基盤で作業している場合、それは比較的簡単です。
セキュリティと保護の基盤
Guruは、顧客データの保護に関するベストプラクティスを遵守しています。 私たちのセキュリティおよびコンプライアンスの実践については、セキュリティページで詳しくお読みいただけますが、ここでは知っておくべき重要な情報を簡単に説明します。
ビジネスの継続性や建物へのアクセス、構成管理やキーのローテーションに関して、私たちは標準を監視し、コンプライアンスを支えるためのアーティファクトをキャプチャしています。 私たちは業界の標準とプライバシー規制を定期的に見直し、必要に応じて内部管理策を適応させています。 私たちの年間SOC 2監査は、年間を通じたセキュリティ管理を示すものであり、最も重要なデータのために安全で確実な環境を作るために絶えず努力しています。
Guru、AI、そして貴社のデータ
私たちはセキュリティに焦点を当てていますが、革新に対する信念も同様に強いです。 私たちは、製品に価値を加える新しい機能や能力を統合する方法を常に模索しています。 AIが進歩し、Guruを含む多くのSaaS製品を実際に補完するまでに達していることは否定できません。 AIとそのGuruに対するポテンシャルを考慮しないことは選択肢ではなく、これが私たちがこれらのイノベーションを製品と顧客にできるだけ早く安全に提供するために懸命に働いている理由です。
生成AIは、我々の時代の最も変革的な技術的進歩の一つであると証明するかもしれませんが、それには独自の懸念が伴います。 これは顧客データの神聖さに戻ります。 顧客や企業が、新しく未知のソースに対してその機密情報を向けることに慎重になるのは当然です。 最近、再度の質問がいくつか見られます:私の情報はどこに行くのか? どのように使用されるのか? 誰がそれを保護する責任があるのか? どのくらいの期間そこに置かれるのか?
GuruがサードパーティのAIサービスを探求し始める際、我々は使用するプラットフォーム、収集する顧客データ、データの保存と削除の管理方法に関する3つの主要なテーマを中心とした明確なセキュリティ原則で行います。
3rdパーティのAIプラットフォームに関する重要な継続的評価
明確にするために:我々は、いかなる AIパートナーにも、技術、セキュリティコンプライアンス、サービス条項、プライバシーの実践を徹底的に精査されずにGuruの貴重なデータにアクセスさせることはありません。 我々は、サードパーティをオンボードする際に明確な基準を遵守しており、AIベンダーも例外ではありません。 我々は彼らのパフォーマンスとインフラの整合性をチェックし、その後、プライバシーとセキュリティの基準に従って契約的に責任を負わせます。
これは一人の個人によって行われる決定ではなく、セキュリティの観点から専門家が協力して検討するプロセスです。 我々は、問題のデータの重要性、会社の健全性、ホスティングとツールの整合性、およびコンプライアンスの記録(例:外部監査、侵入テストなど)を評価します。 プロバイダーは、我々のCTOからの正式な承認の後にのみ、Guruの製品データに触れることが許可され、そのパートナーシップは標準に従って最低でも年に一度は再確認されます。
より少ないデータで、より多くのことを行う
AIの性質上、データセキュリティが少し複雑になります。 ベンダーが伝統的に顧客データを処理または保存する一方で、AIプロバイダーはできるだけ多くのデータセットを取り入れてモデルをトレーニングしようとします。
トレーニングモデルはAIサービスにおいて自然で必要不可欠な部分ですが、Guruは顧客データのリリースを実際に行うタスクに関連するものに制限します。 我々は、サードパーティモデルに必要なものだけを供給し、広範囲でのモデルのトレーニングには利用させません。 これは、OpenAIのデータ使用ポリシーを直接反映しています。これは「デフォルトでは、OpenAIはAPIデータを使用してOpenAIモデルをトレーニングしたり、OpenAIのサービスを向上させたりしません。」と述べています。
顧客データがOpenAIに届く前でも、まずGuru側で絶対に必要なものに制限されており、ほとんどの情報をGuruの保護されたホスティング環境に保ったままにします。 要するに、我々は顧客データの洪水をOpenAIが消費できるように単に開放することはありません。 むしろ、初期の顧客タスクに基づいてデータを内部で回収し、調整し、その情報セグメントだけがAIストリームに入ることを許可します。
定期的なデータ削除とメンテナンス
顧客データは永遠には存在できず、AIプロバイダーの関係やセルフホストソリューションの標準条項として、定期的なデータ削除を行います。 我々は生成AIのデジタル領域を正常化するためにロールオフ規則を設けます。 目標は、全ての顧客データをポジティブに管理し、可能な限り「生存期間」制約を実施することです。
OpenAIは、多くのユーザーが履歴が保存されることを望んでいないことを認識しており、過去のプロンプトを削除する機能を提供しています。 再度、彼らの利用規約に従って、「チャット履歴が無効になっている場合、新しい会話は30日間保持され、必要に応じて不正を監視するためにのみ確認され、その後永続的に削除されます。」と述べています。
AIは一般に、できるだけ多くのデータを蓄積し集約することから利益を得ますが、Guruのユーザーに関しては、データ削除による安心感が無期限の保持の利益を上回ると感じています。
Guru、AI、そして未来
生成AIは、ユーザーが情報を取得し理解する方法に多様な改善を提供します。 私たちがAIを使用する方法は想像力によって制限されるだけですが、その取り組みを注意深く一貫性を持って進めることを確認します。 我々のサードパーティのベンダープロセスは時代を超えたもので(年次監査を実施)、AIベンダーもGuruにアクセスする他のベンダーと同じ厳しい審査を受けます。
我々が機械学習の可能なルートを探求し続ける中で、根本的なセキュリティポジションを損なうことはありません。 我々は、この製品に対する信頼と信頼性が失われる場合、AIの恩恵を受けることが何の意味もなくなることを理解しています。 私たちは、知識の準備された源が人々が最良の仕事をする力を与えるという根本的な真実に対して、引き続きコミットします。そして、Guruを改善する範囲でのみAIの能力を活用します。
Guruでは、特に顧客データのセキュリティに関して、セキュリティが常に最優先事項です。 最近のAIの進歩のおかげで、テクノロジー界ではセキュリティへの関心がこれまでになく高まっています。 私たちがGuruで使える着実に増加しているAI機能をリリースするために働いている間、セキュリティ機能の強化にも取り組んできました。 幸運なことに、すでに堅固な基盤で作業している場合、それは比較的簡単です。
セキュリティと保護の基盤
Guruは、顧客データの保護に関するベストプラクティスを遵守しています。 私たちのセキュリティおよびコンプライアンスの実践については、セキュリティページで詳しくお読みいただけますが、ここでは知っておくべき重要な情報を簡単に説明します。
ビジネスの継続性や建物へのアクセス、構成管理やキーのローテーションに関して、私たちは標準を監視し、コンプライアンスを支えるためのアーティファクトをキャプチャしています。 私たちは業界の標準とプライバシー規制を定期的に見直し、必要に応じて内部管理策を適応させています。 私たちの年間SOC 2監査は、年間を通じたセキュリティ管理を示すものであり、最も重要なデータのために安全で確実な環境を作るために絶えず努力しています。
Guru、AI、そして貴社のデータ
私たちはセキュリティに焦点を当てていますが、革新に対する信念も同様に強いです。 私たちは、製品に価値を加える新しい機能や能力を統合する方法を常に模索しています。 AIが進歩し、Guruを含む多くのSaaS製品を実際に補完するまでに達していることは否定できません。 AIとそのGuruに対するポテンシャルを考慮しないことは選択肢ではなく、これが私たちがこれらのイノベーションを製品と顧客にできるだけ早く安全に提供するために懸命に働いている理由です。
生成AIは、我々の時代の最も変革的な技術的進歩の一つであると証明するかもしれませんが、それには独自の懸念が伴います。 これは顧客データの神聖さに戻ります。 顧客や企業が、新しく未知のソースに対してその機密情報を向けることに慎重になるのは当然です。 最近、再度の質問がいくつか見られます:私の情報はどこに行くのか? どのように使用されるのか? 誰がそれを保護する責任があるのか? どのくらいの期間そこに置かれるのか?
GuruがサードパーティのAIサービスを探求し始める際、我々は使用するプラットフォーム、収集する顧客データ、データの保存と削除の管理方法に関する3つの主要なテーマを中心とした明確なセキュリティ原則で行います。
3rdパーティのAIプラットフォームに関する重要な継続的評価
明確にするために:我々は、いかなる AIパートナーにも、技術、セキュリティコンプライアンス、サービス条項、プライバシーの実践を徹底的に精査されずにGuruの貴重なデータにアクセスさせることはありません。 我々は、サードパーティをオンボードする際に明確な基準を遵守しており、AIベンダーも例外ではありません。 我々は彼らのパフォーマンスとインフラの整合性をチェックし、その後、プライバシーとセキュリティの基準に従って契約的に責任を負わせます。
これは一人の個人によって行われる決定ではなく、セキュリティの観点から専門家が協力して検討するプロセスです。 我々は、問題のデータの重要性、会社の健全性、ホスティングとツールの整合性、およびコンプライアンスの記録(例:外部監査、侵入テストなど)を評価します。 プロバイダーは、我々のCTOからの正式な承認の後にのみ、Guruの製品データに触れることが許可され、そのパートナーシップは標準に従って最低でも年に一度は再確認されます。
より少ないデータで、より多くのことを行う
AIの性質上、データセキュリティが少し複雑になります。 ベンダーが伝統的に顧客データを処理または保存する一方で、AIプロバイダーはできるだけ多くのデータセットを取り入れてモデルをトレーニングしようとします。
トレーニングモデルはAIサービスにおいて自然で必要不可欠な部分ですが、Guruは顧客データのリリースを実際に行うタスクに関連するものに制限します。 我々は、サードパーティモデルに必要なものだけを供給し、広範囲でのモデルのトレーニングには利用させません。 これは、OpenAIのデータ使用ポリシーを直接反映しています。これは「デフォルトでは、OpenAIはAPIデータを使用してOpenAIモデルをトレーニングしたり、OpenAIのサービスを向上させたりしません。」と述べています。
顧客データがOpenAIに届く前でも、まずGuru側で絶対に必要なものに制限されており、ほとんどの情報をGuruの保護されたホスティング環境に保ったままにします。 要するに、我々は顧客データの洪水をOpenAIが消費できるように単に開放することはありません。 むしろ、初期の顧客タスクに基づいてデータを内部で回収し、調整し、その情報セグメントだけがAIストリームに入ることを許可します。
定期的なデータ削除とメンテナンス
顧客データは永遠には存在できず、AIプロバイダーの関係やセルフホストソリューションの標準条項として、定期的なデータ削除を行います。 我々は生成AIのデジタル領域を正常化するためにロールオフ規則を設けます。 目標は、全ての顧客データをポジティブに管理し、可能な限り「生存期間」制約を実施することです。
OpenAIは、多くのユーザーが履歴が保存されることを望んでいないことを認識しており、過去のプロンプトを削除する機能を提供しています。 再度、彼らの利用規約に従って、「チャット履歴が無効になっている場合、新しい会話は30日間保持され、必要に応じて不正を監視するためにのみ確認され、その後永続的に削除されます。」と述べています。
AIは一般に、できるだけ多くのデータを蓄積し集約することから利益を得ますが、Guruのユーザーに関しては、データ削除による安心感が無期限の保持の利益を上回ると感じています。
Guru、AI、そして未来
生成AIは、ユーザーが情報を取得し理解する方法に多様な改善を提供します。 私たちがAIを使用する方法は想像力によって制限されるだけですが、その取り組みを注意深く一貫性を持って進めることを確認します。 我々のサードパーティのベンダープロセスは時代を超えたもので(年次監査を実施)、AIベンダーもGuruにアクセスする他のベンダーと同じ厳しい審査を受けます。
我々が機械学習の可能なルートを探求し続ける中で、根本的なセキュリティポジションを損なうことはありません。 我々は、この製品に対する信頼と信頼性が失われる場合、AIの恩恵を受けることが何の意味もなくなることを理解しています。 私たちは、知識の準備された源が人々が最良の仕事をする力を与えるという根本的な真実に対して、引き続きコミットします。そして、Guruを改善する範囲でのみAIの能力を活用します。
Experience the power of the Guru platform firsthand – take our interactive product tour
見学する