Demystifying the Security Unknowns of AI Add-ons

Le aziende non dovrebbero dover mettere a rischio i propri dati sicuri per raccogliere i benefici dell'IA. Ecco cosa sta facendo Guru per portare innovazioni IA e mantenere i dati della tua azienda al sicuro.
Tabella dei contenuti

La sicurezza è sempre una priorità per Guru, specialmente quando si tratta della sicurezza dei dati dei clienti. Grazie ai recenti progressi nell'IA, non c'è mai stata una così grande attenzione alla sicurezza nel mondo tecnologico. Mentre lavoravamo per rilasciare il numero in continua crescita di funzionalità AI che puoi utilizzare in Guru, abbiamo anche lavorato sodo per migliorare le nostre funzionalità di sicurezza. Per fortuna, è abbastanza semplice quando si lavora già su una solida base.

Una base di sicurezza e protezione

Guru segue le migliori pratiche per garantire la sicurezza dei dati dei nostri clienti. Puoi leggere le nostre pratiche di sicurezza e conformità per intero nella nostra pagina di sicurezza, ma puoi avere una breve panoramica di ciò che devi sapere qui.

Guru Collage Image-Library-39

Sia che si tratti di continuità aziendale o accesso agli edifici, gestione delle configurazioni o rotazione delle chiavi, monitoriamo gli standard e raccogliamo documenti per supportare la nostra conformità. Esaminiamo regolarmente gli standard industriali e le normative sulla privacy e adattiamo i nostri controlli interni secondo necessità. Insieme al nostro audit SOC 2 annuale per dimostrare la nostra supervisione della sicurezza durante tutto l'anno, lavoriamo sempre sodo per creare un ambiente sicuro per i tuoi dati più importanti.

Guru, IA e i dati della tua azienda

Per quanto siamo concentrati sulla sicurezza, la nostra fede nell'innovazione è altrettanto forte. Cerchiamo costantemente modi per integrare nuove funzionalità e capacità che aggiungono valore al prodotto. Non si può negare che l'IA sia progredita al punto da completare legittimamente diversi prodotti SaaS, incluso Guru. Non considerare l'IA e il suo potenziale per Guru semplicemente non è un'opzione, ed è per questo che abbiamo lavorato duramente per portare in modo sicuro queste innovazioni al nostro prodotto e ai clienti il prima possibile.

L'IA generativa potrebbe dimostrarsi uno dei progressi tecnologici più trasformativi della nostra epoca, ma comporta preoccupazioni uniche. Ciò ci riporta alla sacralità dei dati dei clienti. È assolutamente naturale che i clienti e le aziende siano riluttanti a indirizzare le loro informazioni sensibili verso fonti nuove e sconosciute. Stiamo iniziando a vedere alcune domande ripetute: Dove stanno andando le mie informazioni? Come verranno utilizzate? Chi è responsabile per proteggerle? Quanto tempo rimarranno lì?

Mentre Guru inizia a esplorare i servizi di IA di terze parti, lo facciamo con principi di sicurezza chiari che si concentrano su 3 temi fondamentali: le piattaforme che utilizziamo, i dati dei clienti che raccogliamo e i modi in cui gestiamo l'archiviazione e la cancellazione dei dati.

Valutazioni continue critiche delle piattaforme AI di terze parti

Per essere chiari: non permetteremo a nessun partner AI di accedere ai dati preziosi di Guru senza aver esaminato a fondo la loro tecnologia, la conformità alla sicurezza, i termini di servizio e le pratiche di privacy. Seguiamo già un insieme chiaro di criteri quando integriamo terze parti, e i fornitori di IA non faranno eccezione. Esamineremo il loro record di prestazioni e l'integrità della loro infrastruttura, quindi li terremo contrattualmente responsabili per le normative sulla privacy e sicurezza.

Questa non è una decisione presa da un singolo individuo, ma un processo collaborativo che coinvolge esperti del settore che guardano attraverso una lente di sicurezza. Valutiamo la criticità dei dati in questione, la salute dell'azienda, l'integrità dell'hosting e degli strumenti, e un record documentato di conformità (ad es.: audit esterni, test di penetrazione, ecc.). Il fornitore può toccare i dati di produzione di Guru solo dopo una formalizzazione da parte del nostro CTO, e quella partnership, secondo gli standard, sarà rivalutata almeno annualmente.

Utilizzare meno dati per fare di più

La sicurezza dei dati diventa un po' più complicata con l'IA a causa della natura dei modelli di formazione dell'IA. Dove i fornitori tradizionalmente elaborano o memorizzano i dati dei clienti, gli fornitori di IA cercano di addestrare i loro modelli incorporando quanti più set di dati possibile.

Sebbene l'addestramento dei modelli sia una parte naturale e necessaria di un servizio AI, Guru limiterà il rilascio di dati dei clienti relativo solo al compito in questione. Forniremo al modello di terze parti solo ciò di cui ha bisogno per eseguire la funzione e ne proibiremo l'uso per l'addestramento su larga scala del modello. Questo riflette direttamente la politica di utilizzo dei dati di OpenAI, che afferma: “Per impostazione predefinita, OpenAI non utilizzerà i dati dell'API per addestrare i modelli OpenAI o migliorare l'offerta di servizi di OpenAI.”

Guru_Collage_Image-Library-43

Ma anche prima che i dati dei clienti raggiungano OpenAI, sono limitati a ciò che è assolutamente necessario dall'end di Guru, mantenendo così la stragrande maggioranza delle informazioni all'interno dell'ambiente di hosting protetto di Guru. In breve, non apriamo semplicemente i cancelli dei dati dei clienti per il consumo di OpenAI. Piuttosto, recuperiamo e riconciliamo i dati internamente in base al compito iniziale del cliente, consentendo solo a quel segmento di informazioni di entrare nel flusso di IA.

Cancellazione e manutenzione regolare dei dati

I dati dei clienti non possono esistere in perpetuo, e faremo della cancellazione dei dati una clausola standard in qualsiasi relazione con i fornitori di IA o in una soluzione auto-ospitata. Limiteremo il terreno digitale dell'IA generativa stabilendo regole di esclusione. L'obiettivo è mantenere il controllo positivo di tutti i dati dei clienti, implementando vincoli di “tempo di vita” ovunque possibile.

OpenAI riconosce che molti utenti non vogliono che le loro cronologie vengano salvate, quindi offrono la possibilità di eliminare le richieste passate. Ancora, secondo i loro termini di utilizzo, “Quando la cronologia delle chat è disabilitata, conserveremo nuove conversazioni per 30 giorni e le esamineremo solo quando necessario per monitorare abusi prima di eliminarle permanentemente.”

Sebbene l'IA generalmente benefici dall'accumulo e aggregazione di quanti più dati possibile, riteniamo che, per quanto riguarda gli utenti di Guru, la tranquillità che deriva dalla cancellazione dei dati superi il vantaggio della retention illimitata.

Guru, IA e il futuro

L'IA generativa offre una varietà di miglioramenti nel modo in cui i nostri utenti recuperano e danno senso alle informazioni. Mentre il modo in cui utilizziamo l'IA è limitato solo dalla nostra immaginazione, ci assicureremo di affrontare il tema con la dovuta attenzione e coerenza. I nostri processi di fornitori terzi sono testati nel tempo (e sottoposti a audit annuali), e i fornitori di IA subiranno la stessa scrutinio di qualsiasi altro fornitore che accede a Guru.

Mentre continuiamo a esplorare potenziali vie per il machine learning, non comprometteremo la nostra posizione di sicurezza sottostante nel processo. Comprendiamo che se erodiamo la fiducia e la fiducia nel prodotto, allora il vantaggio dell'IA non ha guadagnato nulla. Ci impegniamo a mantenere la verità sottostante che una fonte pronta di conoscenza consente alle persone di fare il loro lavoro migliore, e sfrutteremo le capacità dell'IA solo nella misura in cui migliorano Guru.

La sicurezza è sempre una priorità per Guru, specialmente quando si tratta della sicurezza dei dati dei clienti. Grazie ai recenti progressi nell'IA, non c'è mai stata una così grande attenzione alla sicurezza nel mondo tecnologico. Mentre lavoravamo per rilasciare il numero in continua crescita di funzionalità AI che puoi utilizzare in Guru, abbiamo anche lavorato sodo per migliorare le nostre funzionalità di sicurezza. Per fortuna, è abbastanza semplice quando si lavora già su una solida base.

Una base di sicurezza e protezione

Guru segue le migliori pratiche per garantire la sicurezza dei dati dei nostri clienti. Puoi leggere le nostre pratiche di sicurezza e conformità per intero nella nostra pagina di sicurezza, ma puoi avere una breve panoramica di ciò che devi sapere qui.

Guru Collage Image-Library-39

Sia che si tratti di continuità aziendale o accesso agli edifici, gestione delle configurazioni o rotazione delle chiavi, monitoriamo gli standard e raccogliamo documenti per supportare la nostra conformità. Esaminiamo regolarmente gli standard industriali e le normative sulla privacy e adattiamo i nostri controlli interni secondo necessità. Insieme al nostro audit SOC 2 annuale per dimostrare la nostra supervisione della sicurezza durante tutto l'anno, lavoriamo sempre sodo per creare un ambiente sicuro per i tuoi dati più importanti.

Guru, IA e i dati della tua azienda

Per quanto siamo concentrati sulla sicurezza, la nostra fede nell'innovazione è altrettanto forte. Cerchiamo costantemente modi per integrare nuove funzionalità e capacità che aggiungono valore al prodotto. Non si può negare che l'IA sia progredita al punto da completare legittimamente diversi prodotti SaaS, incluso Guru. Non considerare l'IA e il suo potenziale per Guru semplicemente non è un'opzione, ed è per questo che abbiamo lavorato duramente per portare in modo sicuro queste innovazioni al nostro prodotto e ai clienti il prima possibile.

L'IA generativa potrebbe dimostrarsi uno dei progressi tecnologici più trasformativi della nostra epoca, ma comporta preoccupazioni uniche. Ciò ci riporta alla sacralità dei dati dei clienti. È assolutamente naturale che i clienti e le aziende siano riluttanti a indirizzare le loro informazioni sensibili verso fonti nuove e sconosciute. Stiamo iniziando a vedere alcune domande ripetute: Dove stanno andando le mie informazioni? Come verranno utilizzate? Chi è responsabile per proteggerle? Quanto tempo rimarranno lì?

Mentre Guru inizia a esplorare i servizi di IA di terze parti, lo facciamo con principi di sicurezza chiari che si concentrano su 3 temi fondamentali: le piattaforme che utilizziamo, i dati dei clienti che raccogliamo e i modi in cui gestiamo l'archiviazione e la cancellazione dei dati.

Valutazioni continue critiche delle piattaforme AI di terze parti

Per essere chiari: non permetteremo a nessun partner AI di accedere ai dati preziosi di Guru senza aver esaminato a fondo la loro tecnologia, la conformità alla sicurezza, i termini di servizio e le pratiche di privacy. Seguiamo già un insieme chiaro di criteri quando integriamo terze parti, e i fornitori di IA non faranno eccezione. Esamineremo il loro record di prestazioni e l'integrità della loro infrastruttura, quindi li terremo contrattualmente responsabili per le normative sulla privacy e sicurezza.

Questa non è una decisione presa da un singolo individuo, ma un processo collaborativo che coinvolge esperti del settore che guardano attraverso una lente di sicurezza. Valutiamo la criticità dei dati in questione, la salute dell'azienda, l'integrità dell'hosting e degli strumenti, e un record documentato di conformità (ad es.: audit esterni, test di penetrazione, ecc.). Il fornitore può toccare i dati di produzione di Guru solo dopo una formalizzazione da parte del nostro CTO, e quella partnership, secondo gli standard, sarà rivalutata almeno annualmente.

Utilizzare meno dati per fare di più

La sicurezza dei dati diventa un po' più complicata con l'IA a causa della natura dei modelli di formazione dell'IA. Dove i fornitori tradizionalmente elaborano o memorizzano i dati dei clienti, gli fornitori di IA cercano di addestrare i loro modelli incorporando quanti più set di dati possibile.

Sebbene l'addestramento dei modelli sia una parte naturale e necessaria di un servizio AI, Guru limiterà il rilascio di dati dei clienti relativo solo al compito in questione. Forniremo al modello di terze parti solo ciò di cui ha bisogno per eseguire la funzione e ne proibiremo l'uso per l'addestramento su larga scala del modello. Questo riflette direttamente la politica di utilizzo dei dati di OpenAI, che afferma: “Per impostazione predefinita, OpenAI non utilizzerà i dati dell'API per addestrare i modelli OpenAI o migliorare l'offerta di servizi di OpenAI.”

Guru_Collage_Image-Library-43

Ma anche prima che i dati dei clienti raggiungano OpenAI, sono limitati a ciò che è assolutamente necessario dall'end di Guru, mantenendo così la stragrande maggioranza delle informazioni all'interno dell'ambiente di hosting protetto di Guru. In breve, non apriamo semplicemente i cancelli dei dati dei clienti per il consumo di OpenAI. Piuttosto, recuperiamo e riconciliamo i dati internamente in base al compito iniziale del cliente, consentendo solo a quel segmento di informazioni di entrare nel flusso di IA.

Cancellazione e manutenzione regolare dei dati

I dati dei clienti non possono esistere in perpetuo, e faremo della cancellazione dei dati una clausola standard in qualsiasi relazione con i fornitori di IA o in una soluzione auto-ospitata. Limiteremo il terreno digitale dell'IA generativa stabilendo regole di esclusione. L'obiettivo è mantenere il controllo positivo di tutti i dati dei clienti, implementando vincoli di “tempo di vita” ovunque possibile.

OpenAI riconosce che molti utenti non vogliono che le loro cronologie vengano salvate, quindi offrono la possibilità di eliminare le richieste passate. Ancora, secondo i loro termini di utilizzo, “Quando la cronologia delle chat è disabilitata, conserveremo nuove conversazioni per 30 giorni e le esamineremo solo quando necessario per monitorare abusi prima di eliminarle permanentemente.”

Sebbene l'IA generalmente benefici dall'accumulo e aggregazione di quanti più dati possibile, riteniamo che, per quanto riguarda gli utenti di Guru, la tranquillità che deriva dalla cancellazione dei dati superi il vantaggio della retention illimitata.

Guru, IA e il futuro

L'IA generativa offre una varietà di miglioramenti nel modo in cui i nostri utenti recuperano e danno senso alle informazioni. Mentre il modo in cui utilizziamo l'IA è limitato solo dalla nostra immaginazione, ci assicureremo di affrontare il tema con la dovuta attenzione e coerenza. I nostri processi di fornitori terzi sono testati nel tempo (e sottoposti a audit annuali), e i fornitori di IA subiranno la stessa scrutinio di qualsiasi altro fornitore che accede a Guru.

Mentre continuiamo a esplorare potenziali vie per il machine learning, non comprometteremo la nostra posizione di sicurezza sottostante nel processo. Comprendiamo che se erodiamo la fiducia e la fiducia nel prodotto, allora il vantaggio dell'IA non ha guadagnato nulla. Ci impegniamo a mantenere la verità sottostante che una fonte pronta di conoscenza consente alle persone di fare il loro lavoro migliore, e sfrutteremo le capacità dell'IA solo nella misura in cui migliorano Guru.

Scopri il potere della piattaforma Guru in prima persona - fai il nostro tour interattivo del prodotto
Fai un tour