Demystifying the Security Unknowns of AI Add-ons

Firmy nie powinny narażać swoich zabezpieczonych danych na ryzyko, aby czerpać korzyści z AI. Oto co Guru robi, aby wprowadzić innowacje AI i zachować bezpieczeństwo danych twojej firmy.
Spis treści

Bezpieczeństwo jest zawsze priorytetem w Guru, szczególnie w przypadku bezpieczeństwa danych klientów. Dzięki niedawnym postępom w dziedzinie AI, nigdy nie było takiego nacisku na bezpieczeństwo w świecie technologii. Gdy pracowaliśmy nad wprowadzeniem systematycznie rosnącej liczby funkcji AI, równocześnie ciężko pracowaliśmy nad ulepszaniem naszych funkcji bezpieczeństwa. Na szczęście, to dość proste, gdy już pracujesz na solidnej podstawie.

Podstawa bezpieczeństwa i ochrony

Guru przestrzega najlepszych praktyk dotyczących zabezpieczania danych naszych klientów. Możesz przeczytać o naszych praktykach bezpieczeństwa i zgodności w całości na naszej stronie bezpieczeństwa, ale tutaj możesz uzyskać krótkie streszczenie tego, co musisz wiedzieć.

Guru Collage Image-Library-39

Niezależnie czy chodzi o ciągłość działalności czy dostęp do budynku, zarządzanie konfiguracją czy rotację kluczy, monitorujemy standardy i gromadzimy artefakty, aby wspierać naszą zgodność. Regularnie przeglądamy standardy branżowe i przepisy dotyczące prywatności i dostosowujemy nasze wewnętrzne kontrole w razie potrzeby. Obok naszej corocznej audytu SOC 2, aby wykazać naszą całoroczną kontrolę bezpieczeństwa, zawsze ciężko pracujemy nad stworzeniem bezpiecznego i bezpiecznego środowiska dla twoich najważniejszych danych.

Guru, AI i dane twojej firmy

Tak jak jesteśmy skupieni na bezpieczeństwie, nasze przekonanie w innowację jest równie silne. Nieustannie szukamy sposobów integracji nowych funkcji i możliwości, które dodają wartość do produktu. Nie można zaprzeczyć, że AI rozwinęło się do punktu, w którym rzeczywiście uzupełnia wiele produktów SaaS, w tym Guru. Nie można zignorować AI i jego potencjału dla Guru, co jest powodem, dla którego ciężko pracowaliśmy w celu bezpiecznego wprowadzenia tych innowacji do naszego produktu i klientów tak szybko, jak to możliwe.

Generatywna AI może okazać się jednym z najbardziej transformujących osiągnięć technologicznych naszych czasów, ale wiąże się z unikalnymi obawami. To prowadzi nas z powrotem do świętości danych klientów. To naturalne, że klienci i firmy są powściągliwi w kierowaniu swoich wrażliwych informacji do nowych i nieznanych źródeł. Zaczynamy zauważać pewne powtarzające się pytania: Gdzie zmierza moje informacje? Jak będą wykorzystywane? Kto jest odpowiedzialny za ich ochronę? Jak długo tam pozostaną?

Gdy Guru zaczyna badać usługi AI firm trzecich, robimy to z wyraźnymi zasadami bezpieczeństwa, które koncentrują się wokół 3 podstawowych tematów: platform, których używamy, danych klientów, które gromadzimy i sposobów zarządzania przechowywaniem i usuwaniem danych.

Krytyczne oceny platform AI firm trzecich

Aby było jasne: Nie pozwolimy żadnemu partnerowi AI uzyskać dostępu do cennych danych Guru bez dokładnego sprawdzenia ich technologii, zgodności z bezpieczeństwem, warunków serwisowych i praktyk prywatności. Już przestrzegamy jasnego zestawu kryteriów podczas wprowadzania firm trzecich, a dostawcy AI nie będą wyjątkiem. Będziemy przeglądać ich wyniki i integralność ich infrastruktury, a następnie pociągniemy ich do odpowiedzialności umownej względem norm dotyczących prywatności i bezpieczeństwa.

To nie jest decyzja podejmowana przez jedną osobę, lecz proces współpracy z zaangażowanymi ekspertami, którzy patrzą przez pryzmat bezpieczeństwa. Oceniamy krytyczność danych w pytaniu, kondycję firmy, integralność hostingu oraz narzędzi, a także udokumentowaną zgodność (np.: audyty zewnętrzne, testy penetracyjne itd.). Dostawca może uzyskać dostęp do danych produkcyjnych Guru tylko po formalnym zatwierdzeniu przez naszego CTO, a to partnerstwo zostanie co najmniej corocznie ponownie zweryfikowane.

Używanie mniejszych ilości danych do robienia większej ilości

Bezpieczeństwo danych staje się nieco bardziej skomplikowane z AI ze względu na charakter modeli treningowych AI. Gdy dostawcy tradycyjnie przetwarzają lub przechowują dane klientów, dostawcy AI dążą do trenowania swoich modeli przez włączenie jak największej ilości zbiorów danych.

Choć modele treningowe są naturalną i niezbędną częścią usługi AI, Guru ograniczy ujawnienie danych klientów tylko do zadania, które ma być wykonane. Będziemy dostarczać modelowi firm trzecich tylko to, co jest mu potrzebne do wykonania funkcji i zakazywać jego użycia do masowego szkolenia modelu. To bezpośrednio odzwierciedla politykę użycia danych OpenAI, która mówi: "Z automatu OpenAI nie użyje danych API do trenowania modeli OpenAI lub poprawy oferty usług OpenAI."

Guru_Collage_Image-Library-43

Ale nawet zanim dane klientów trafią do OpenAI, są one ograniczone do tego, co jest absolutnie potrzebne na końcu Guru, co pozwala na utrzymanie ogromnej większości informacji w chronionym środowisku hostingowym Guru. Krótko mówiąc, nie po prostu otworzymy wrota danych klientów do konsumcji przez OpenAI. Raczej, wewnętrznie pobieramy i godzimy dane w oparciu o początkowe zadanie klienta, pozwalając tylko temu segmentowi informacji wstąpić do strumienia AI.

Regularne usuwanie danych i konserwacja

Dane klientów nie mogą istnieć w nieskończoność, dlatego uczynimy usuwanie danych na bieżąco standardowym punktem w każdej relacji z dostawcą AI lub samodzielnie hostowanym rozwiązaniu. Ograniczymy cyfrowy teren generatywnej AI poprzez ustanowienie zasad wycofywania. Celem jest utrzymanie pozytywnej kontroli nad wszystkimi danymi klientów, wdrażając ograniczenia "czas na życie" gdziekolwiek to możliwe.

OpenAI uznaje, że wielu użytkowników nie chce, aby ich historie były zapisywane, dlatego oferują możliwość usunięcia wcześniejszych poleceń. Ponownie, zgodnie z ich warunkami użytkowania: "Gdy historia czatu jest wyłączona, będziemy przechowywać nowe rozmowy przez 30 dni i przeglądać je tylko w razie potrzeby, aby monitorować nadużycia przed ich trwałym usunięciem."

Choć AI generalnie korzysta z gromadzenia i agregowania tak wielu danych, jak to możliwe, uważamy, że w przypadku użytkowników Guru, spokój ducha, który wynika z usuwania danych, przewyższa korzyści z nieograniczonego przechowywania.

Guru, AI i przyszłość

Generatywna AI oferuje różnorodne usprawnienia w sposobie, w jaki nasi użytkownicy czerpią informacje i nadają im sens. Choć sposób, w jaki wykorzystujemy AI, jest ograniczony tylko wyobraźnią, zapewnimy, że podejdziemy do tego z należytym uwzględnieniem i konsekwencją. Nasze procesy związane z dostawcami firm trzecich są sprawdzone w czasie (i corocznie audytowane), a dostawcy AI przejdą tę samą kontrolę, co jakikolwiek inny dostawca mający dostęp do Guru.

W miarę jak kontynuujemy badanie możliwości uczenia maszynowego, nie zrezygnujemy z naszego podstawowego stanowiska dotyczącego bezpieczeństwa w tym procesie. Rozumiemy, że jeśli podważymy zaufanie i pewność klientów do produktu, to korzyści z AI nic nam nie przyniosą. Pozostajemy zaangażowani w podstawową prawdę, że gotowe źródło wiedzy umożliwia ludziom wykonywanie najlepszej pracy, a zdolności AI wykorzystamy tylko w takim zakresie, w jakim poprawiają Guru.

Bezpieczeństwo jest zawsze priorytetem w Guru, szczególnie w przypadku bezpieczeństwa danych klientów. Dzięki niedawnym postępom w dziedzinie AI, nigdy nie było takiego nacisku na bezpieczeństwo w świecie technologii. Gdy pracowaliśmy nad wprowadzeniem systematycznie rosnącej liczby funkcji AI, równocześnie ciężko pracowaliśmy nad ulepszaniem naszych funkcji bezpieczeństwa. Na szczęście, to dość proste, gdy już pracujesz na solidnej podstawie.

Podstawa bezpieczeństwa i ochrony

Guru przestrzega najlepszych praktyk dotyczących zabezpieczania danych naszych klientów. Możesz przeczytać o naszych praktykach bezpieczeństwa i zgodności w całości na naszej stronie bezpieczeństwa, ale tutaj możesz uzyskać krótkie streszczenie tego, co musisz wiedzieć.

Guru Collage Image-Library-39

Niezależnie czy chodzi o ciągłość działalności czy dostęp do budynku, zarządzanie konfiguracją czy rotację kluczy, monitorujemy standardy i gromadzimy artefakty, aby wspierać naszą zgodność. Regularnie przeglądamy standardy branżowe i przepisy dotyczące prywatności i dostosowujemy nasze wewnętrzne kontrole w razie potrzeby. Obok naszej corocznej audytu SOC 2, aby wykazać naszą całoroczną kontrolę bezpieczeństwa, zawsze ciężko pracujemy nad stworzeniem bezpiecznego i bezpiecznego środowiska dla twoich najważniejszych danych.

Guru, AI i dane twojej firmy

Tak jak jesteśmy skupieni na bezpieczeństwie, nasze przekonanie w innowację jest równie silne. Nieustannie szukamy sposobów integracji nowych funkcji i możliwości, które dodają wartość do produktu. Nie można zaprzeczyć, że AI rozwinęło się do punktu, w którym rzeczywiście uzupełnia wiele produktów SaaS, w tym Guru. Nie można zignorować AI i jego potencjału dla Guru, co jest powodem, dla którego ciężko pracowaliśmy w celu bezpiecznego wprowadzenia tych innowacji do naszego produktu i klientów tak szybko, jak to możliwe.

Generatywna AI może okazać się jednym z najbardziej transformujących osiągnięć technologicznych naszych czasów, ale wiąże się z unikalnymi obawami. To prowadzi nas z powrotem do świętości danych klientów. To naturalne, że klienci i firmy są powściągliwi w kierowaniu swoich wrażliwych informacji do nowych i nieznanych źródeł. Zaczynamy zauważać pewne powtarzające się pytania: Gdzie zmierza moje informacje? Jak będą wykorzystywane? Kto jest odpowiedzialny za ich ochronę? Jak długo tam pozostaną?

Gdy Guru zaczyna badać usługi AI firm trzecich, robimy to z wyraźnymi zasadami bezpieczeństwa, które koncentrują się wokół 3 podstawowych tematów: platform, których używamy, danych klientów, które gromadzimy i sposobów zarządzania przechowywaniem i usuwaniem danych.

Krytyczne oceny platform AI firm trzecich

Aby było jasne: Nie pozwolimy żadnemu partnerowi AI uzyskać dostępu do cennych danych Guru bez dokładnego sprawdzenia ich technologii, zgodności z bezpieczeństwem, warunków serwisowych i praktyk prywatności. Już przestrzegamy jasnego zestawu kryteriów podczas wprowadzania firm trzecich, a dostawcy AI nie będą wyjątkiem. Będziemy przeglądać ich wyniki i integralność ich infrastruktury, a następnie pociągniemy ich do odpowiedzialności umownej względem norm dotyczących prywatności i bezpieczeństwa.

To nie jest decyzja podejmowana przez jedną osobę, lecz proces współpracy z zaangażowanymi ekspertami, którzy patrzą przez pryzmat bezpieczeństwa. Oceniamy krytyczność danych w pytaniu, kondycję firmy, integralność hostingu oraz narzędzi, a także udokumentowaną zgodność (np.: audyty zewnętrzne, testy penetracyjne itd.). Dostawca może uzyskać dostęp do danych produkcyjnych Guru tylko po formalnym zatwierdzeniu przez naszego CTO, a to partnerstwo zostanie co najmniej corocznie ponownie zweryfikowane.

Używanie mniejszych ilości danych do robienia większej ilości

Bezpieczeństwo danych staje się nieco bardziej skomplikowane z AI ze względu na charakter modeli treningowych AI. Gdy dostawcy tradycyjnie przetwarzają lub przechowują dane klientów, dostawcy AI dążą do trenowania swoich modeli przez włączenie jak największej ilości zbiorów danych.

Choć modele treningowe są naturalną i niezbędną częścią usługi AI, Guru ograniczy ujawnienie danych klientów tylko do zadania, które ma być wykonane. Będziemy dostarczać modelowi firm trzecich tylko to, co jest mu potrzebne do wykonania funkcji i zakazywać jego użycia do masowego szkolenia modelu. To bezpośrednio odzwierciedla politykę użycia danych OpenAI, która mówi: "Z automatu OpenAI nie użyje danych API do trenowania modeli OpenAI lub poprawy oferty usług OpenAI."

Guru_Collage_Image-Library-43

Ale nawet zanim dane klientów trafią do OpenAI, są one ograniczone do tego, co jest absolutnie potrzebne na końcu Guru, co pozwala na utrzymanie ogromnej większości informacji w chronionym środowisku hostingowym Guru. Krótko mówiąc, nie po prostu otworzymy wrota danych klientów do konsumcji przez OpenAI. Raczej, wewnętrznie pobieramy i godzimy dane w oparciu o początkowe zadanie klienta, pozwalając tylko temu segmentowi informacji wstąpić do strumienia AI.

Regularne usuwanie danych i konserwacja

Dane klientów nie mogą istnieć w nieskończoność, dlatego uczynimy usuwanie danych na bieżąco standardowym punktem w każdej relacji z dostawcą AI lub samodzielnie hostowanym rozwiązaniu. Ograniczymy cyfrowy teren generatywnej AI poprzez ustanowienie zasad wycofywania. Celem jest utrzymanie pozytywnej kontroli nad wszystkimi danymi klientów, wdrażając ograniczenia "czas na życie" gdziekolwiek to możliwe.

OpenAI uznaje, że wielu użytkowników nie chce, aby ich historie były zapisywane, dlatego oferują możliwość usunięcia wcześniejszych poleceń. Ponownie, zgodnie z ich warunkami użytkowania: "Gdy historia czatu jest wyłączona, będziemy przechowywać nowe rozmowy przez 30 dni i przeglądać je tylko w razie potrzeby, aby monitorować nadużycia przed ich trwałym usunięciem."

Choć AI generalnie korzysta z gromadzenia i agregowania tak wielu danych, jak to możliwe, uważamy, że w przypadku użytkowników Guru, spokój ducha, który wynika z usuwania danych, przewyższa korzyści z nieograniczonego przechowywania.

Guru, AI i przyszłość

Generatywna AI oferuje różnorodne usprawnienia w sposobie, w jaki nasi użytkownicy czerpią informacje i nadają im sens. Choć sposób, w jaki wykorzystujemy AI, jest ograniczony tylko wyobraźnią, zapewnimy, że podejdziemy do tego z należytym uwzględnieniem i konsekwencją. Nasze procesy związane z dostawcami firm trzecich są sprawdzone w czasie (i corocznie audytowane), a dostawcy AI przejdą tę samą kontrolę, co jakikolwiek inny dostawca mający dostęp do Guru.

W miarę jak kontynuujemy badanie możliwości uczenia maszynowego, nie zrezygnujemy z naszego podstawowego stanowiska dotyczącego bezpieczeństwa w tym procesie. Rozumiemy, że jeśli podważymy zaufanie i pewność klientów do produktu, to korzyści z AI nic nam nie przyniosą. Pozostajemy zaangażowani w podstawową prawdę, że gotowe źródło wiedzy umożliwia ludziom wykonywanie najlepszej pracy, a zdolności AI wykorzystamy tylko w takim zakresie, w jakim poprawiają Guru.

Zażyj interaktywną wycieczkę po platformie Guru
Zrób wycieczkę