Les entreprises ne devraient pas avoir à mettre en risque leurs données sécurisées pour tirer parti des bénéfices de l'IA. Voici ce que Guru fait pour vous apporter des innovations en IA et garder vos données d'entreprise en sécurité.
La sécurité est toujours une priorité chez Guru, surtout en ce qui concerne la sécurité des données des clients. Grâce aux récentes avancées dans l'IA, il n'y a jamais eu un focus aussi serré sur la sécurité dans le monde de la technologie. Alors que nous avons travaillé pour publier le nombre croissant de fonctionnalités IA que vous pouvez utiliser sur Guru, nous avons également travaillé dur à l'amélioration de nos fonctionnalités de sécurité. Heureusement, c'est assez simple quand vous travaillez déjà avec une base solide.
Une base de sécurité et de protection
Guru adhère aux meilleures pratiques en matière de sécurisation des données de nos clients. Vous pouvez lire nos pratiques de sécurité et de conformité en intégralité sur notre page de sécurité, mais vous pouvez obtenir un bref aperçu de ce que vous devez savoir ici.
Qu'il s'agisse de continuité des affaires ou d'accès aux bâtiments, de gestion de configuration ou de rotation de clés, nous surveillons les normes et capturons les artefacts pour soutenir notre conformité. Nous examinons régulièrement les normes de l'industrie et les réglementations en matière de confidentialité et adaptons nos contrôles internes si nécessaire. Avec notre audit SOC 2 annuel pour démontrer notre supervision de sécurité tout au long de l'année, nous travaillons toujours dur à créer un environnement sûr et sécurisé pour vos données les plus importantes.
Guru, IA, et les données de votre entreprise
Autant nous sommes concentrés sur la sécurité, notre croyance en l'innovation est tout aussi forte. Nous cherchons constamment des moyens d'intégrer de nouvelles fonctionnalités et capacités qui ajoutent de la valeur au produit. Il est indéniable que l'IA a avancé au point de compléter légitimement un certain nombre de produits SaaS, y compris Guru. Ne pas tenir compte de l'IA et de son potentiel pour Guru n'est tout simplement pas une option, c'est pourquoi nous avons travaillé si dur pour apporter ces innovations à nos produits et clients le plus rapidement possible.
L'IA générative pourrait s'avérer être l'une des avancées technologiques les plus transformatrices de notre époque, mais elle s'accompagne de préoccupations uniques. Cela nous ramène à la sainteté des données des clients. Il est naturel que les clients et les entreprises soient hésitants à pointer leurs informations sensibles vers de nouvelles sources inconnues. Nous commençons à voir des questions répétées : Où vont mes informations ? Comment seront-elles utilisées ? Qui est responsable de leur protection ? Combien de temps resteront-elles là ?
Alors que Guru commence à explorer les services d'IA tiers, nous le faisons avec des principes de sécurité clairs qui se centrent sur 3 thèmes principaux : les plateformes que nous utilisons, les données des clients que nous collectons, et les façons dont nous gérons le stockage et la suppression des données.
Évaluations critiques continues des plateformes d'IA de 3ème partie
Pour être clair : nous ne laisserons pas quelconque partenaire IA accéder aux précieuses données de Guru sans avoir soigneusement évalué leur technologie, leur conformité en matière de sécurité, leurs conditions de service et leurs pratiques en matière de confidentialité. Nous respectons déjà un ensemble de critères clairs lorsque nous intégrons des tiers, et les fournisseurs d'IA ne feront pas exception. Nous évaluerons leur dossier de performance et l'intégrité de leur infrastructure, puis nous les tiendrons contractuellement responsables des normes de confidentialité et de sécurité.
Ce n'est pas une décision exercée par une seule personne, mais un processus collaboratif impliquant des experts en la matière examinant à travers le prisme de la sécurité. Nous évaluons la criticité des données en question, la santé de l'entreprise, l'intégrité de l'hébergement et des outils, et un dossier documenté de conformité (ex : audits externes, tests de pénétration, etc.). Le fournisseur n'est autorisé à toucher aux données de production de Guru qu'après un soutien formel de notre CTO, et ce partenariat, selon la norme, sera revalidé au moins annuellement.
Utiliser moins de données pour faire plus
La sécurité des données devient un peu plus compliquée avec l'IA en raison de la nature des modèles d'entraînement de l'IA. Là où les fournisseurs traitent traditionnellement ou stockent des données clients, les fournisseurs d'IA cherchent à entraîner leurs modèles en incorporant autant de jeux de données que possible.
Bien que l'entraînement de modèles soit une partie naturelle et nécessaire d'un service IA, Guru limitera la diffusion de données clients uniquement à la tâche en cours. Nous ne fournirons au modèle tiers que ce dont il a besoin pour exécuter la fonction et interdire son utilisation pour un entraînement de modèle à grande échelle. Cela reflète directement la politique d'utilisation des données d'OpenAI, qui dit : “Par défaut, OpenAI n'utilisera pas les données de l'API pour entraîner les modèles d'OpenAI ou améliorer l'offre de services d'OpenAI.”
Mais même avant que les données des clients n'atteignent OpenAI, elles sont limitées à ce qui est absolument nécessaire du côté de Guru en premier, maintenant la plupart des informations dans l'environnement d'hébergement protégé de Guru. En résumé, nous ne laissons pas simplement la porte ouverte aux données des clients à consommer par OpenAI. Au lieu de cela, nous récupérons et réconciliations les données en interne en fonction de la tâche initiale du client, permettant uniquement à ce segment d'information d'entrer dans le flux de l'IA.
Suppression régulière des données et maintenance
Les données des clients ne peuvent pas exister en perpétuité, et nous ferons de la suppression progressive de données une clause standard dans toute relation avec un fournisseur d'IA ou solution auto-hébergée. Nous limiterons le terrain numérique de l'IA générative en établissant des règles de suppression. L'objectif est de maintenir un contrôle positif sur toutes les données des clients, en mettant en œuvre des contraintes de “durée de vie” autant que possible.
OpenAI reconnaît que de nombreux utilisateurs ne souhaitent pas que leurs historiques soient sauvegardés, ils offrent donc la possibilité de supprimer les anciennes suggestions. Encore une fois, selon leurs conditions d'utilisation : “Lorsque l'historique des chats est désactivé, nous conserverons les nouvelles conversations pendant 30 jours et les examinerons uniquement si nécessaire pour surveiller les abus avant de les supprimer définitivement.”
Alors que l'IA bénéficie généralement de l'accumulation et de l'agrégation de autant de données que possible, nous pensons qu'en ce qui concerne les utilisateurs de Guru, le sentiment de sécurité qui accompagne la suppression des données l'emporte sur le bénéfice d'une conservation ouverte.
Guru, IA, et l'avenir
L'IA générative offre une variété d'améliorations sur la façon dont nos utilisateurs récupèrent et comprennent les informations. Alors que la façon dont nous utilisons l'IA est limitée seulement par notre imagination, nous veillerons à l'aborder avec le soin et la cohérence nécessaires. Nos processus de fournisseurs tiers sont éprouvés et soumis à un audit annuel, et les fournisseurs d'IA subiront la même rigueur que tout autre fournisseur accédant à Guru.
Alors que nous continuons à explorer de potentielles voies pour l'apprentissage automatique, nous ne compromettrons pas notre position de sécurité sous-jacente dans le processus. Nous comprenons que si nous érodons la confiance et la confiance dans le produit, alors le bénéfice de l'IA ne nous a rien rapporté. Nous restons engagés envers la vérité sous-jacente selon laquelle une source de connaissances prête permet aux gens de faire de leur mieux, et nous exploiterons les capacités de l'IA uniquement dans la mesure où elles améliorent Guru.
La sécurité est toujours une priorité chez Guru, surtout en ce qui concerne la sécurité des données des clients. Grâce aux récentes avancées dans l'IA, il n'y a jamais eu un focus aussi serré sur la sécurité dans le monde de la technologie. Alors que nous avons travaillé pour publier le nombre croissant de fonctionnalités IA que vous pouvez utiliser sur Guru, nous avons également travaillé dur à l'amélioration de nos fonctionnalités de sécurité. Heureusement, c'est assez simple quand vous travaillez déjà avec une base solide.
Une base de sécurité et de protection
Guru adhère aux meilleures pratiques en matière de sécurisation des données de nos clients. Vous pouvez lire nos pratiques de sécurité et de conformité en intégralité sur notre page de sécurité, mais vous pouvez obtenir un bref aperçu de ce que vous devez savoir ici.
Qu'il s'agisse de continuité des affaires ou d'accès aux bâtiments, de gestion de configuration ou de rotation de clés, nous surveillons les normes et capturons les artefacts pour soutenir notre conformité. Nous examinons régulièrement les normes de l'industrie et les réglementations en matière de confidentialité et adaptons nos contrôles internes si nécessaire. Avec notre audit SOC 2 annuel pour démontrer notre supervision de sécurité tout au long de l'année, nous travaillons toujours dur à créer un environnement sûr et sécurisé pour vos données les plus importantes.
Guru, IA, et les données de votre entreprise
Autant nous sommes concentrés sur la sécurité, notre croyance en l'innovation est tout aussi forte. Nous cherchons constamment des moyens d'intégrer de nouvelles fonctionnalités et capacités qui ajoutent de la valeur au produit. Il est indéniable que l'IA a avancé au point de compléter légitimement un certain nombre de produits SaaS, y compris Guru. Ne pas tenir compte de l'IA et de son potentiel pour Guru n'est tout simplement pas une option, c'est pourquoi nous avons travaillé si dur pour apporter ces innovations à nos produits et clients le plus rapidement possible.
L'IA générative pourrait s'avérer être l'une des avancées technologiques les plus transformatrices de notre époque, mais elle s'accompagne de préoccupations uniques. Cela nous ramène à la sainteté des données des clients. Il est naturel que les clients et les entreprises soient hésitants à pointer leurs informations sensibles vers de nouvelles sources inconnues. Nous commençons à voir des questions répétées : Où vont mes informations ? Comment seront-elles utilisées ? Qui est responsable de leur protection ? Combien de temps resteront-elles là ?
Alors que Guru commence à explorer les services d'IA tiers, nous le faisons avec des principes de sécurité clairs qui se centrent sur 3 thèmes principaux : les plateformes que nous utilisons, les données des clients que nous collectons, et les façons dont nous gérons le stockage et la suppression des données.
Évaluations critiques continues des plateformes d'IA de 3ème partie
Pour être clair : nous ne laisserons pas quelconque partenaire IA accéder aux précieuses données de Guru sans avoir soigneusement évalué leur technologie, leur conformité en matière de sécurité, leurs conditions de service et leurs pratiques en matière de confidentialité. Nous respectons déjà un ensemble de critères clairs lorsque nous intégrons des tiers, et les fournisseurs d'IA ne feront pas exception. Nous évaluerons leur dossier de performance et l'intégrité de leur infrastructure, puis nous les tiendrons contractuellement responsables des normes de confidentialité et de sécurité.
Ce n'est pas une décision exercée par une seule personne, mais un processus collaboratif impliquant des experts en la matière examinant à travers le prisme de la sécurité. Nous évaluons la criticité des données en question, la santé de l'entreprise, l'intégrité de l'hébergement et des outils, et un dossier documenté de conformité (ex : audits externes, tests de pénétration, etc.). Le fournisseur n'est autorisé à toucher aux données de production de Guru qu'après un soutien formel de notre CTO, et ce partenariat, selon la norme, sera revalidé au moins annuellement.
Utiliser moins de données pour faire plus
La sécurité des données devient un peu plus compliquée avec l'IA en raison de la nature des modèles d'entraînement de l'IA. Là où les fournisseurs traitent traditionnellement ou stockent des données clients, les fournisseurs d'IA cherchent à entraîner leurs modèles en incorporant autant de jeux de données que possible.
Bien que l'entraînement de modèles soit une partie naturelle et nécessaire d'un service IA, Guru limitera la diffusion de données clients uniquement à la tâche en cours. Nous ne fournirons au modèle tiers que ce dont il a besoin pour exécuter la fonction et interdire son utilisation pour un entraînement de modèle à grande échelle. Cela reflète directement la politique d'utilisation des données d'OpenAI, qui dit : “Par défaut, OpenAI n'utilisera pas les données de l'API pour entraîner les modèles d'OpenAI ou améliorer l'offre de services d'OpenAI.”
Mais même avant que les données des clients n'atteignent OpenAI, elles sont limitées à ce qui est absolument nécessaire du côté de Guru en premier, maintenant la plupart des informations dans l'environnement d'hébergement protégé de Guru. En résumé, nous ne laissons pas simplement la porte ouverte aux données des clients à consommer par OpenAI. Au lieu de cela, nous récupérons et réconciliations les données en interne en fonction de la tâche initiale du client, permettant uniquement à ce segment d'information d'entrer dans le flux de l'IA.
Suppression régulière des données et maintenance
Les données des clients ne peuvent pas exister en perpétuité, et nous ferons de la suppression progressive de données une clause standard dans toute relation avec un fournisseur d'IA ou solution auto-hébergée. Nous limiterons le terrain numérique de l'IA générative en établissant des règles de suppression. L'objectif est de maintenir un contrôle positif sur toutes les données des clients, en mettant en œuvre des contraintes de “durée de vie” autant que possible.
OpenAI reconnaît que de nombreux utilisateurs ne souhaitent pas que leurs historiques soient sauvegardés, ils offrent donc la possibilité de supprimer les anciennes suggestions. Encore une fois, selon leurs conditions d'utilisation : “Lorsque l'historique des chats est désactivé, nous conserverons les nouvelles conversations pendant 30 jours et les examinerons uniquement si nécessaire pour surveiller les abus avant de les supprimer définitivement.”
Alors que l'IA bénéficie généralement de l'accumulation et de l'agrégation de autant de données que possible, nous pensons qu'en ce qui concerne les utilisateurs de Guru, le sentiment de sécurité qui accompagne la suppression des données l'emporte sur le bénéfice d'une conservation ouverte.
Guru, IA, et l'avenir
L'IA générative offre une variété d'améliorations sur la façon dont nos utilisateurs récupèrent et comprennent les informations. Alors que la façon dont nous utilisons l'IA est limitée seulement par notre imagination, nous veillerons à l'aborder avec le soin et la cohérence nécessaires. Nos processus de fournisseurs tiers sont éprouvés et soumis à un audit annuel, et les fournisseurs d'IA subiront la même rigueur que tout autre fournisseur accédant à Guru.
Alors que nous continuons à explorer de potentielles voies pour l'apprentissage automatique, nous ne compromettrons pas notre position de sécurité sous-jacente dans le processus. Nous comprenons que si nous érodons la confiance et la confiance dans le produit, alors le bénéfice de l'IA ne nous a rien rapporté. Nous restons engagés envers la vérité sous-jacente selon laquelle une source de connaissances prête permet aux gens de faire de leur mieux, et nous exploiterons les capacités de l'IA uniquement dans la mesure où elles améliorent Guru.
Découvrez la puissance de la plateforme Guru de première main - faites notre visite interactive du produit