Bedrijven zouden hun veilige gegevens niet op het spel mogen zetten om de voordelen van AI te plukken. Hier is wat Guru doet om je AI-innovaties te brengen en je bedrijfsgegevens veilig te houden.
Beveiliging staat altijd voorop bij Guru, vooral als het gaat om de beveiliging van klantgegevens. Dankzij recente vooruitgangen in AI is er nooit een strakkere focus op beveiliging in de technologie geweest. Terwijl we hebben gewerkt om de voortdurende groei van AI-functies die je kunt gebruiken in Guru uit te brengen, zijn we ook druk bezig geweest met het verbeteren van onze beveiligingsfuncties. Gelukkig is dat redelijk eenvoudig wanneer je al werkt met een solide basis.
Een basis van beveiliging en bescherming
Guru houdt zich aan de beste praktijken voor de beveiliging van de gegevens van onze klanten. Je kunt onze beveiligings- en compliancepraktijken in hun geheel lezen op onze beveiligingspagina, maar hier kun je een korte samenvatting krijgen van wat je moet weten.
Of het nu gaat om de continuïteit van de onderneming of toegangsbeheer, configuratiebeheer of sleutelrotatie, we houden toezicht op normen en vangen artefacten vast ter ondersteuning van onze compliance. We beoordelen routinematig industrie-normen en privacy-regelgeving en passen onze interne controles aan indien nodig. Naast onze jaarlijkse SOC 2-audit om ons jaar rond toezicht op beveiliging aan te tonen, werken we altijd hard om een veilige en beveiligde omgeving te creëren voor jouw belangrijkste gegevens.
Guru, AI, en jouw bedrijfsgegevens
Hoezeer we ook gefocust zijn op beveiliging, ons geloof in innovatie is even sterk. We zijn voortdurend op zoek naar manieren om nieuwe functies en mogelijkheden te integreren die waarde toevoegen aan het product. Er valt niet te ontkennen dat AI zo ver is gevorderd dat het oprecht een aantal SaaS-producten aanvult, ook Guru. Het niet overwegen van AI en het potentieel voor Guru is simpelweg geen optie, en daarom hebben we zo hard gewerkt om deze innovaties veilig aan ons product en onze klanten te brengen zodra dat mogelijk is.
Generatieve AI kan een van de meest ingrijpende technologische vooruitgangen van onze tijd blijken te zijn, maar het brengt ook zijn unieke zorgen met zich mee. Dit brengt ons terug bij de heiligheid van klantgegevens. Het is volkomen natuurlijk dat klanten en bedrijven terughoudend zijn om hun gevoelige informatie naar nieuwe en onbekende bronnen te wijzen. We beginnen enkele herhalende vragen te zien: Waar gaat mijn informatie naartoe? Hoe zal het gebruikt worden? Wie is verantwoordelijk voor de bescherming ervan? Hoelang blijft het daar?
Naarmate Guru begint te verkennen third-party AI-diensten, doen we dat met duidelijke beveiligingsprincipes die zich richten op 3 kernonderwerpen: de platforms die we gebruiken, de klantgegevens die we verzamelen, en de manieren waarop we gegevensopslag en -verwijdering beheren.
Kritische voortdurende evaluaties van third-party AI-platforms
Om duidelijk te zijn: we zullen geen AI-partner toegang geven tot de gewaardeerde gegevens van Guru zonder grondig hun technologie, beveiligingscompliance, servicevoorwaarden en privacypraktijken te beoordelen. We houden ons al aan een duidelijke set criteria wanneer we derden onboarden, en AI-leveranciers zullen geen uitzondering zijn. We zullen hun prestatiegeschiedenis en de integriteit van hun infrastructuur beoordelen, en ze contractueel verantwoordelijk houden voor privacy- en beveiligingsnormen.
Dit is niet een beslissing die door één individu wordt genomen, maar een collaboratief proces waarbij deskundigen kijken door een beveiligingslens. We beoordelen de kritiek van de gegevens in kwestie, de gezondheid van het bedrijf, de integriteit van hosting en tooling, en een gedocumenteerd compliance-record (bijv. externe audits, penetratietests, enz.). De leverancier mag Guru-productiegegevens alleen aanraken na een formele goedkeuring van onze CTO, en die samenwerking zal, volgens de standaard, minstens jaarlijks opnieuw worden gevalideerd.
Minder gegevens gebruiken om meer te doen
De beveiliging van gegevens wordt iets ingewikkelder met AI vanwege de aard van AI-trainingsmodellen. Waar leveranciers traditioneel klantgegevens verwerken of opslaan, proberen AI-leveranciers hun modellen te trainen door zoveel mogelijk gegevenssets te incorporeren.
Hoewel trainingsmodellen een natuurlijk en noodzakelijk onderdeel zijn van een AI-service, zal Guru de vrijgave van klantgegevens beperken tot alleen de taak die voorhanden is. We zullen het derdepartijmodel alleen voeden met wat het nodig heeft om de functie uit te voeren en het gebruik ervan voor grootschalige modeltraining verbieden. Dit weerspiegelt direct het gegevensgebruikbeleid van OpenAI, dat zegt: "Standaard zal OpenAI API-gegevens niet gebruiken om OpenAI-modellen te trainen of OpenAI's service-aanbod te verbeteren."
Maar zelfs voordat klantgegevens OpenAI bereiken, zijn ze beperkt tot wat absoluut nodig is aan de Guru-kant, waardoor de overgrote meerderheid van de informatie binnen de beschermde hostingomgeving van Guru blijft. In het kort, we gooien de sluizen van klantgegevens niet zomaar open voor consumptie door OpenAI. In plaats daarvan halen en verzoenen we gegevens intern op basis van de initiële klanttaak, waardoor alleen dat informatiegedeelte de AI-stroom binnenkomt.
Regelmatige gegevensverwijdering en -onderhoud
Klantgegevens kunnen niet in perpetuïteit bestaan, en we zullen rollende gegevensverwijdering standaard maken in elke relatie met een AI-leverancier of zelfgehoste oplossing. We zullen de digitale ruimte van generatieve AI beperken door roll-off-regels op te stellen. Het doel is om positieve controle te behouden over alle klantgegevens en waar mogelijk “time-to-live”-beperkingen toe te passen.
OpenAI erkent dat veel gebruikers niet willen dat hun geschiedenissen worden opgeslagen, dus bieden ze de mogelijkheid om eerdere prompts te verwijderen. Nogmaals, volgens hun gebruiksvoorwaarden: "Wanneer de chatgeschiedenis is uitgeschakeld, zullen we nieuwe gesprekken 30 dagen bewaren en ze alleen bekijken wanneer dat nodig is om toezicht te houden op misbruik voordat ze permanent worden verwijderd."
Terwijl AI over het algemeen profiteert van het verzamelen en aggregeren van zoveel mogelijk gegevens, vinden we dat, waar Guru-gebruikers bij betrokken zijn, de gemoedsrust die komt met gegevensverwijdering zwaarder weegt dan het voordeel van open eindretentie.
Guru, AI, en de toekomst
Generatieve AI biedt een verscheidenheid aan verbeteringen in hoe onze gebruikers informatie ophalen en begrijpen. Hoewel de manier waarop we AI gebruiken beperkt wordt door onze verbeelding, zullen we ervoor zorgen dat we het met de nodige voorzorgsmaatregelen en consistentie benaderen. Onze processen voor derde partijen zijn bewezen (en jaarlijks geaudit), en AI-leveranciers zullen dezelfde controle ondergaan als elke andere leverancier die toegang heeft tot Guru.
Terwijl we blijven verkennen welke mogelijkheden er zijn voor machine learning, zullen we onze onderliggende beveiligingspositie in het proces niet in gevaar brengen. We begrijpen dat als we het vertrouwen en het vertrouwen in het product ondermijnen, de AI-voordelen ons niets hebben opgeleverd. We blijven geloven in de onderliggende waarheid dat een betrouwbare kennisbron mensen in staat stelt hun beste werk te doen, en we zullen de mogelijkheden van AI alleen benutten voor zover ze Guru verbeteren.
Beveiliging staat altijd voorop bij Guru, vooral als het gaat om de beveiliging van klantgegevens. Dankzij recente vooruitgangen in AI is er nooit een strakkere focus op beveiliging in de technologie geweest. Terwijl we hebben gewerkt om de voortdurende groei van AI-functies die je kunt gebruiken in Guru uit te brengen, zijn we ook druk bezig geweest met het verbeteren van onze beveiligingsfuncties. Gelukkig is dat redelijk eenvoudig wanneer je al werkt met een solide basis.
Een basis van beveiliging en bescherming
Guru houdt zich aan de beste praktijken voor de beveiliging van de gegevens van onze klanten. Je kunt onze beveiligings- en compliancepraktijken in hun geheel lezen op onze beveiligingspagina, maar hier kun je een korte samenvatting krijgen van wat je moet weten.
Of het nu gaat om de continuïteit van de onderneming of toegangsbeheer, configuratiebeheer of sleutelrotatie, we houden toezicht op normen en vangen artefacten vast ter ondersteuning van onze compliance. We beoordelen routinematig industrie-normen en privacy-regelgeving en passen onze interne controles aan indien nodig. Naast onze jaarlijkse SOC 2-audit om ons jaar rond toezicht op beveiliging aan te tonen, werken we altijd hard om een veilige en beveiligde omgeving te creëren voor jouw belangrijkste gegevens.
Guru, AI, en jouw bedrijfsgegevens
Hoezeer we ook gefocust zijn op beveiliging, ons geloof in innovatie is even sterk. We zijn voortdurend op zoek naar manieren om nieuwe functies en mogelijkheden te integreren die waarde toevoegen aan het product. Er valt niet te ontkennen dat AI zo ver is gevorderd dat het oprecht een aantal SaaS-producten aanvult, ook Guru. Het niet overwegen van AI en het potentieel voor Guru is simpelweg geen optie, en daarom hebben we zo hard gewerkt om deze innovaties veilig aan ons product en onze klanten te brengen zodra dat mogelijk is.
Generatieve AI kan een van de meest ingrijpende technologische vooruitgangen van onze tijd blijken te zijn, maar het brengt ook zijn unieke zorgen met zich mee. Dit brengt ons terug bij de heiligheid van klantgegevens. Het is volkomen natuurlijk dat klanten en bedrijven terughoudend zijn om hun gevoelige informatie naar nieuwe en onbekende bronnen te wijzen. We beginnen enkele herhalende vragen te zien: Waar gaat mijn informatie naartoe? Hoe zal het gebruikt worden? Wie is verantwoordelijk voor de bescherming ervan? Hoelang blijft het daar?
Naarmate Guru begint te verkennen third-party AI-diensten, doen we dat met duidelijke beveiligingsprincipes die zich richten op 3 kernonderwerpen: de platforms die we gebruiken, de klantgegevens die we verzamelen, en de manieren waarop we gegevensopslag en -verwijdering beheren.
Kritische voortdurende evaluaties van third-party AI-platforms
Om duidelijk te zijn: we zullen geen AI-partner toegang geven tot de gewaardeerde gegevens van Guru zonder grondig hun technologie, beveiligingscompliance, servicevoorwaarden en privacypraktijken te beoordelen. We houden ons al aan een duidelijke set criteria wanneer we derden onboarden, en AI-leveranciers zullen geen uitzondering zijn. We zullen hun prestatiegeschiedenis en de integriteit van hun infrastructuur beoordelen, en ze contractueel verantwoordelijk houden voor privacy- en beveiligingsnormen.
Dit is niet een beslissing die door één individu wordt genomen, maar een collaboratief proces waarbij deskundigen kijken door een beveiligingslens. We beoordelen de kritiek van de gegevens in kwestie, de gezondheid van het bedrijf, de integriteit van hosting en tooling, en een gedocumenteerd compliance-record (bijv. externe audits, penetratietests, enz.). De leverancier mag Guru-productiegegevens alleen aanraken na een formele goedkeuring van onze CTO, en die samenwerking zal, volgens de standaard, minstens jaarlijks opnieuw worden gevalideerd.
Minder gegevens gebruiken om meer te doen
De beveiliging van gegevens wordt iets ingewikkelder met AI vanwege de aard van AI-trainingsmodellen. Waar leveranciers traditioneel klantgegevens verwerken of opslaan, proberen AI-leveranciers hun modellen te trainen door zoveel mogelijk gegevenssets te incorporeren.
Hoewel trainingsmodellen een natuurlijk en noodzakelijk onderdeel zijn van een AI-service, zal Guru de vrijgave van klantgegevens beperken tot alleen de taak die voorhanden is. We zullen het derdepartijmodel alleen voeden met wat het nodig heeft om de functie uit te voeren en het gebruik ervan voor grootschalige modeltraining verbieden. Dit weerspiegelt direct het gegevensgebruikbeleid van OpenAI, dat zegt: "Standaard zal OpenAI API-gegevens niet gebruiken om OpenAI-modellen te trainen of OpenAI's service-aanbod te verbeteren."
Maar zelfs voordat klantgegevens OpenAI bereiken, zijn ze beperkt tot wat absoluut nodig is aan de Guru-kant, waardoor de overgrote meerderheid van de informatie binnen de beschermde hostingomgeving van Guru blijft. In het kort, we gooien de sluizen van klantgegevens niet zomaar open voor consumptie door OpenAI. In plaats daarvan halen en verzoenen we gegevens intern op basis van de initiële klanttaak, waardoor alleen dat informatiegedeelte de AI-stroom binnenkomt.
Regelmatige gegevensverwijdering en -onderhoud
Klantgegevens kunnen niet in perpetuïteit bestaan, en we zullen rollende gegevensverwijdering standaard maken in elke relatie met een AI-leverancier of zelfgehoste oplossing. We zullen de digitale ruimte van generatieve AI beperken door roll-off-regels op te stellen. Het doel is om positieve controle te behouden over alle klantgegevens en waar mogelijk “time-to-live”-beperkingen toe te passen.
OpenAI erkent dat veel gebruikers niet willen dat hun geschiedenissen worden opgeslagen, dus bieden ze de mogelijkheid om eerdere prompts te verwijderen. Nogmaals, volgens hun gebruiksvoorwaarden: "Wanneer de chatgeschiedenis is uitgeschakeld, zullen we nieuwe gesprekken 30 dagen bewaren en ze alleen bekijken wanneer dat nodig is om toezicht te houden op misbruik voordat ze permanent worden verwijderd."
Terwijl AI over het algemeen profiteert van het verzamelen en aggregeren van zoveel mogelijk gegevens, vinden we dat, waar Guru-gebruikers bij betrokken zijn, de gemoedsrust die komt met gegevensverwijdering zwaarder weegt dan het voordeel van open eindretentie.
Guru, AI, en de toekomst
Generatieve AI biedt een verscheidenheid aan verbeteringen in hoe onze gebruikers informatie ophalen en begrijpen. Hoewel de manier waarop we AI gebruiken beperkt wordt door onze verbeelding, zullen we ervoor zorgen dat we het met de nodige voorzorgsmaatregelen en consistentie benaderen. Onze processen voor derde partijen zijn bewezen (en jaarlijks geaudit), en AI-leveranciers zullen dezelfde controle ondergaan als elke andere leverancier die toegang heeft tot Guru.
Terwijl we blijven verkennen welke mogelijkheden er zijn voor machine learning, zullen we onze onderliggende beveiligingspositie in het proces niet in gevaar brengen. We begrijpen dat als we het vertrouwen en het vertrouwen in het product ondermijnen, de AI-voordelen ons niets hebben opgeleverd. We blijven geloven in de onderliggende waarheid dat een betrouwbare kennisbron mensen in staat stelt hun beste werk te doen, en we zullen de mogelijkheden van AI alleen benutten voor zover ze Guru verbeteren.
Ervaar de kracht van het Guru-platform uit de eerste hand - maak onze interactieve producttour