Företag bör inte behöva riskera sina säkra data för att skörda AIs fördelar. Här är vad Guru gör för att föra dig AI-innovationer och hålla dina företagsdata säkra.
Säkerhet är alltid i fokus på Guru, särskilt när det gäller säkerheten för kunddata. Tack vare de senaste framstegen inom AI har det aldrig funnits ett starkare fokus på säkerhet inom teknikvärlden. När vi har arbetat för att släppa det stadigt växande antalet AI-funktioner som du kan använda i Guru, har vi också arbetat hårt för att förbättra våra säkerhetsfunktioner. Lyckligtvis är det något enkelt när du redan arbetar med en solid grund.
En grund av säkerhet och skydd
Guru följer bästa praxis för att säkra våra kunders data. Du kan läsa om våra säkerhets- och compliance-praxis i sin helhet på vår säkerhetssida, men du kan få en kort sammanfattning av vad du behöver veta här.
Oavsett om det handlar om affärsverksamhetens kontinuitet eller byggnadstillgång, konfigurationshantering eller nyckelrotation, övervakar vi standarder och fångar artefakter för att stödja vår compliance. Vi granskar regelbundet branschstandarder och integritetsregler och anpassar våra interna kontroller efter behov. Tillsammans med vår årliga SOC 2-revision för att visa vår övervakning av säkerheten året runt, arbetar vi alltid hårt för att skapa en säker och trygg miljö för dina viktigaste data.
Guru, AI och dina företagsdata
Så mycket som vi fokuserar på säkerhet, är vår tro på innovation lika stark. Vi söker ständigt sätt att integrera nya funktioner och kapaciteter som tillför värde till produkten. Det går inte att förneka att AI har avancerat till den punkt där det verkligen kompletterar ett antal SaaS-produkter, inklusive Guru. Att inte beakta AI och dess potential för Guru är helt enkelt inte ett alternativ, vilket är varför vi har arbetat så hårt för att tryggt föra dessa innovationer till vår produkt och våra kunder så snart som möjligt.
Generativ AI kan visa sig vara en av de mest transformerande teknologiska framstegen i vår tid, men den medför sina unika bekymmer. Detta tar oss tillbaka till heligheten av kunddata. Det är helt naturligt för kunder och företag att vara tveksamma till att rikta sin känsliga information mot nya och okända källor. Vi börjar se några upprepande frågor: Vart är min information på väg? Hur kommer den att användas? Vem är ansvarig för att skydda den? Hur länge kommer den att finnas kvar där?
När Guru börjar utforska tredjeparts AI-tjänster, gör vi det med tydliga säkerhetsprinciper som fokuserar på 3 kärnteman: de plattformar vi använder, de kunddata vi samlar in och de sätt vi hanterar datalagring och radering.
Kritiska pågående utvärderingar av tredjeparts AI-plattformar
För att vara tydlig: Vi kommer inte att låta något AI-partner få tillgång till Gurus värdefulla data utan att noggrant granska deras teknik, säkerhetslikhet, serviceredovisning och integritetspraxis. Vi följer redan en tydlig uppsättning kriterier när vi onboardar tredje parter, och AI-leverantörer kommer inte att vara något undantag. Vi kommer att granska deras prestationshistorik och integriteten hos deras infrastruktur, och sedan hålla dem avtalsenligt ansvariga för sekretess- och säkerhetsnormer.
Detta är inte ett beslut som fattas av en enskild individ, utan en samarbetsprocess som involverar ämnesexperter som betraktar säkerhet. Vi bedömer hur kritisk datan är, företagets hälsa, integriteten hos hosting och verktyg, och en dokumenterad redovisning av efterlevnad (t.ex. externa revisioner, penetrationstester, etc.). Leverantören får endast röra Gurus produktionsdata efter en formell godkännande från vår CTO, och det partnerskapet, enligt standard, kommer att valideras minst årligen.
Att använda mindre data för att göra mer
Datasäkerhet blir något mer komplicerad med AI på grund av naturen av AI-träningsmodeller. Där leverantörer traditionellt bearbetar eller lagrar kunddata, söker AI-leverantörer att träna sina modeller genom att inkludera så många datamängder som möjligt.
Även om träningsmodeller är en naturlig och nödvändig del av en AI-tjänst, kommer Guru att begränsa utlämnandet av kunddata endast till uppgiften i fråga. Vi kommer att mata tredjepartsmodellen endast vad den behöver för att utföra funktionen och förbjuda dess användning för storskalig modellträning. Detta speglar direkt OpenAIs databrukspolicy, som säger: "Som standard kommer OpenAI inte att använda API-data för att träna OpenAIs modeller eller förbättra OpenAIs tjänsteutbud."
Men även innan kunddata når OpenAI, är den begränsad till vad som är absolut nödvändigt på Guru-sidan först, vilket håller den stora majoriteten av information inom Gurus skyddade hostingmiljö. Kort sagt, vi öppnar inte helt flödet av kunddata för konsumtion av OpenAI. Snarare hämtar och reconcilerar vi data internt baserat på den initiala kunduppgiften, vilket gör att endast det informationssegmentet får komma in i AI-flödet.
Regelbunden dataradering och underhåll
Kunddata kan inte leva i all evighet, och vi kommer att göra löpande datautredning till en standardklausul i vilket AI-leverantörsrelation eller egenhostad lösning som helst. Vi kommer att begränsa den digitala terrängen av generativ AI genom att etablera rulla-om-regler. Målet är att behålla positiv kontroll över all kunddata och implementera "tidsbegränsningar" där det är möjligt.
OpenAI erkänner att många användare inte vill att deras historik ska sparas, så de erbjuder möjligheten att radera tidigare uppmaningar. Återigen, enligt deras användningsvillkor, "När chattens historik är inaktiverad, kommer vi att behålla nya konversationer i 30 dagar och granska dem endast vid behov för att övervaka missbruk innan de permanent raderar."
Även om AI generellt drar nytta av att samla in och aggreggera så mycket data som möjligt, anser vi att där Guru-användare är berörda, väger den sinnesro som kommer med dataradering tyngre än fördelen av oändlig retention.
Guru, AI och framtiden
Generativ AI erbjuder en mängd förbättringar i hur våra användare hämtar och förstår information. Även om sättet vi använder AI är begränsat endast av vår fantasi, kommer vi att säkerställa att vi närmar oss det med erforderlig omsorg och konsekvens. Våra processer för tredjepartsleverantörer är testade över tid (och årligen reviderade), och AI-leverantörer kommer att genomgå samma granskning som någon annan leverantör som får åtkomst till Guru.
När vi fortsätter att utforska potentiella vägar för maskininlärning, kommer vi inte att kompromissa med vår underliggande säkerhetsposition under processen. Vi förstår att om vi urholkar förtroendet och tilliten i produkten, då har AI-fördelarna gett oss ingenting. Vi förblir engagerade i den grundläggande sanningen att en tillgänglig kunskapskälla möjliggör för människor att göra sitt bästa arbete, och vi kommer att utnyttja AIs kapabiliteter endast i den utsträckning som de förbättrar Guru.
Säkerhet är alltid i fokus på Guru, särskilt när det gäller säkerheten för kunddata. Tack vare de senaste framstegen inom AI har det aldrig funnits ett starkare fokus på säkerhet inom teknikvärlden. När vi har arbetat för att släppa det stadigt växande antalet AI-funktioner som du kan använda i Guru, har vi också arbetat hårt för att förbättra våra säkerhetsfunktioner. Lyckligtvis är det något enkelt när du redan arbetar med en solid grund.
En grund av säkerhet och skydd
Guru följer bästa praxis för att säkra våra kunders data. Du kan läsa om våra säkerhets- och compliance-praxis i sin helhet på vår säkerhetssida, men du kan få en kort sammanfattning av vad du behöver veta här.
Oavsett om det handlar om affärsverksamhetens kontinuitet eller byggnadstillgång, konfigurationshantering eller nyckelrotation, övervakar vi standarder och fångar artefakter för att stödja vår compliance. Vi granskar regelbundet branschstandarder och integritetsregler och anpassar våra interna kontroller efter behov. Tillsammans med vår årliga SOC 2-revision för att visa vår övervakning av säkerheten året runt, arbetar vi alltid hårt för att skapa en säker och trygg miljö för dina viktigaste data.
Guru, AI och dina företagsdata
Så mycket som vi fokuserar på säkerhet, är vår tro på innovation lika stark. Vi söker ständigt sätt att integrera nya funktioner och kapaciteter som tillför värde till produkten. Det går inte att förneka att AI har avancerat till den punkt där det verkligen kompletterar ett antal SaaS-produkter, inklusive Guru. Att inte beakta AI och dess potential för Guru är helt enkelt inte ett alternativ, vilket är varför vi har arbetat så hårt för att tryggt föra dessa innovationer till vår produkt och våra kunder så snart som möjligt.
Generativ AI kan visa sig vara en av de mest transformerande teknologiska framstegen i vår tid, men den medför sina unika bekymmer. Detta tar oss tillbaka till heligheten av kunddata. Det är helt naturligt för kunder och företag att vara tveksamma till att rikta sin känsliga information mot nya och okända källor. Vi börjar se några upprepande frågor: Vart är min information på väg? Hur kommer den att användas? Vem är ansvarig för att skydda den? Hur länge kommer den att finnas kvar där?
När Guru börjar utforska tredjeparts AI-tjänster, gör vi det med tydliga säkerhetsprinciper som fokuserar på 3 kärnteman: de plattformar vi använder, de kunddata vi samlar in och de sätt vi hanterar datalagring och radering.
Kritiska pågående utvärderingar av tredjeparts AI-plattformar
För att vara tydlig: Vi kommer inte att låta något AI-partner få tillgång till Gurus värdefulla data utan att noggrant granska deras teknik, säkerhetslikhet, serviceredovisning och integritetspraxis. Vi följer redan en tydlig uppsättning kriterier när vi onboardar tredje parter, och AI-leverantörer kommer inte att vara något undantag. Vi kommer att granska deras prestationshistorik och integriteten hos deras infrastruktur, och sedan hålla dem avtalsenligt ansvariga för sekretess- och säkerhetsnormer.
Detta är inte ett beslut som fattas av en enskild individ, utan en samarbetsprocess som involverar ämnesexperter som betraktar säkerhet. Vi bedömer hur kritisk datan är, företagets hälsa, integriteten hos hosting och verktyg, och en dokumenterad redovisning av efterlevnad (t.ex. externa revisioner, penetrationstester, etc.). Leverantören får endast röra Gurus produktionsdata efter en formell godkännande från vår CTO, och det partnerskapet, enligt standard, kommer att valideras minst årligen.
Att använda mindre data för att göra mer
Datasäkerhet blir något mer komplicerad med AI på grund av naturen av AI-träningsmodeller. Där leverantörer traditionellt bearbetar eller lagrar kunddata, söker AI-leverantörer att träna sina modeller genom att inkludera så många datamängder som möjligt.
Även om träningsmodeller är en naturlig och nödvändig del av en AI-tjänst, kommer Guru att begränsa utlämnandet av kunddata endast till uppgiften i fråga. Vi kommer att mata tredjepartsmodellen endast vad den behöver för att utföra funktionen och förbjuda dess användning för storskalig modellträning. Detta speglar direkt OpenAIs databrukspolicy, som säger: "Som standard kommer OpenAI inte att använda API-data för att träna OpenAIs modeller eller förbättra OpenAIs tjänsteutbud."
Men även innan kunddata når OpenAI, är den begränsad till vad som är absolut nödvändigt på Guru-sidan först, vilket håller den stora majoriteten av information inom Gurus skyddade hostingmiljö. Kort sagt, vi öppnar inte helt flödet av kunddata för konsumtion av OpenAI. Snarare hämtar och reconcilerar vi data internt baserat på den initiala kunduppgiften, vilket gör att endast det informationssegmentet får komma in i AI-flödet.
Regelbunden dataradering och underhåll
Kunddata kan inte leva i all evighet, och vi kommer att göra löpande datautredning till en standardklausul i vilket AI-leverantörsrelation eller egenhostad lösning som helst. Vi kommer att begränsa den digitala terrängen av generativ AI genom att etablera rulla-om-regler. Målet är att behålla positiv kontroll över all kunddata och implementera "tidsbegränsningar" där det är möjligt.
OpenAI erkänner att många användare inte vill att deras historik ska sparas, så de erbjuder möjligheten att radera tidigare uppmaningar. Återigen, enligt deras användningsvillkor, "När chattens historik är inaktiverad, kommer vi att behålla nya konversationer i 30 dagar och granska dem endast vid behov för att övervaka missbruk innan de permanent raderar."
Även om AI generellt drar nytta av att samla in och aggreggera så mycket data som möjligt, anser vi att där Guru-användare är berörda, väger den sinnesro som kommer med dataradering tyngre än fördelen av oändlig retention.
Guru, AI och framtiden
Generativ AI erbjuder en mängd förbättringar i hur våra användare hämtar och förstår information. Även om sättet vi använder AI är begränsat endast av vår fantasi, kommer vi att säkerställa att vi närmar oss det med erforderlig omsorg och konsekvens. Våra processer för tredjepartsleverantörer är testade över tid (och årligen reviderade), och AI-leverantörer kommer att genomgå samma granskning som någon annan leverantör som får åtkomst till Guru.
När vi fortsätter att utforska potentiella vägar för maskininlärning, kommer vi inte att kompromissa med vår underliggande säkerhetsposition under processen. Vi förstår att om vi urholkar förtroendet och tilliten i produkten, då har AI-fördelarna gett oss ingenting. Vi förblir engagerade i den grundläggande sanningen att en tillgänglig kunskapskälla möjliggör för människor att göra sitt bästa arbete, och vi kommer att utnyttja AIs kapabiliteter endast i den utsträckning som de förbättrar Guru.
Upplev kraften i Guru-plattformen förstahands - ta vår interaktiva produktturné