Demystifying the Security Unknowns of AI Add-ons

חברות לא צריכות לסכן את הנתונים המאובטחים שלהן כדי לקצור את היתרונות של AI. הנה מה גורו עושה כדי להביא לכם חידושי AI ולשמור על נתוני החברה שלכם בטוחים.
תוכן העניינים

אבטחה היא תמיד בראש סדר העדיפויות של גורו, במיוחד כשמדובר באבטחת נתוני הלקוחות. תודות להתקדמות האחרונה בתחום הבינה המלאכותית, מעולם לא הייתה ממוקדת אבטחה כזו בעולם הטכנולוגי. כשהתאמנו לשחרר את המספר ההולך וגדל של תכונות בינה מלאכותית שניתן להשתמש בהם בגורו, אנחנו גם עבדנו קשה לשפר את תכונות האבטחה שלנו. למזלנו, זה די פשוט כאשר אתם כבר עובדים עם בסיס מוצק.

בסיס של אבטחה והגנה

גורו מצייתת לשיטות הטובות ביותר בכל הנוגע לאבטחת נתוני הלקוחות שלנו. אתם יכולים לקרוא על תהליכי האבטחה והציות שלנו במלואם בהעמוד האבטחה שלנו, אך אתם יכולים לקבל סקירה קצרה על מה שאתם צריכים לדעת כאן.

תמונת קולאז' של גורו-ספריה-39

בין אם מדובר ברצף עסקי או גישה לבניין, ניהול תצורה או סיבוב מפתחות, אנחנו עוקבים אחרי תקנים ותופסים מסמכים כדי לתמוך בציות שלנו. אנחנו סוקרים באופן שגרתי את התקנים בתעשייה ואת התקנות הפרטיות ומסתגלים לשלל הבקרות הפנימיות שלנו לפי הצורך. יחד עם הביקורת השנתית שלנו על SOC 2 להראות את הפיקוח שלנו על האבטחה במהלך כל השנה, אנחנו תמיד עובדים קשה כדי ליצור סביבה בטוחה ומאובטחת ביותר עבור הנתונים החשובים שלכם.

גורו, AI, ונתוני החברה שלכם

כמה שאנחנו מתמקדים באבטחה, האמונה שלנו בחדשנות גם לא פחות חזקה. אנחנו כל הזמן מחפשים דרכים לשלב תכונות ויכולות חדשות שמוסיפות ערך למוצר. אי אפשר להכחיש ש־AI התקדמה לנקודה שבה היא משלימה באופן לגיטימי מספר מוצרים של SaaS, כולל את גורו. סירוב לקחת בחשבון את AI ואת הפוטנציאל שלה עבור גורו פשוט אינו אופציה, ולכן עבדנו קשה כדי להביא את החדשנות הללו למוצר וללקוחות שלנו בהקדם האפשרי.

בינה מלאכותית יוצרת עשויה להתברר כאחת מההתקדמות הטכנולוגיות המהפכניות ביותר של עידן שלנו, אך היא מלווה בדאגות ייחודיות. זה מחזיר אותנו למגע הקדושה של נתוני הלקוחות. זה טבעי לחלוטין שהלקוחות והחברות הישארו מהוססים בנוגע להעביר מידע רגיש למקורות חדשים ובלתי ידועים. אנחנו מתחילים לראות מספר שאלות חוזרות: לאן הולך המידע שלי? איך הוא ישמש? מי אחראי על הגנתו? כמה זמן זה יישאר שם?

כשהגורו מתחיל לחקור שירותי AI של צד שלישי, אנחנו עושים זאת עם עקרונות אבטחה ברורים שמתמקדים סביב 3 נושאים מרכזיים: הפלטפורמות בהן אנחנו משתמשים, נתוני הלקוחות שאנו אוספים, והדרכים בהן אנו מנהלים את אחסון וחתימת המידע.

הערכות קריטיות של פלטפורמות AI של צד שלישי

כדי להיות ברורים: אנחנו לא נאפשר לשום שותף AI לגשת לנתוני גורו היקרים ללא בדיקה מעמיקה של הטכנולוגיה שלהם, עמידה בתקנות האבטחה, תנאי השירות ופרקטיקות הפרטיות. אנחנו כבר מצייתים לקבוצה ברורה של קריטריונים כאשר אנחנו מקבלים צדדים שלישיים, וספקי AI לא יהיו יוצאים מן הכלל. אנחנו נסקור את תיעוד הביצועים שלהם ואת יושרה של התשתית שלהם, ואז מחזיקים אותם באופן חוזי אחראיים להנחות פרטיות ואבטחה.

זו לא החלטה שמתקבלת על ידי אדם בודד, אלא תהליך משתף שמערב מומחים המתבוננים דרך עדשת האבטחה. אנחנו מעריכים את קריטיות הנתונים המדוברים, את בריאות החברה, את יושרת האחסון והכלים ואת תיעוד ההקפות (למשל: ביקורות חיצוניות, בדיקות חדירה וכו'). לספק מותר לגעת בנתוני הפקה של גורו רק לאחר אישור פורמלי מה-CTO שלנו, והשותפות הזו, לפי הסטנדרט, תאושר מחדש לפחות אחת לשנה.

שימוש בפחות נתונים כדי לעשות יותר

אבטחת הנתונים מתבצעת קצת יותר מסובכת עם AI בשל הטבע של מודלי אימון AI. בעוד שספקי AI מעוניינים לאמן את המודלים שלהם על ידי שילוב של כמה שתיקות נתונים ככל האפשר, ספקים מסורתיים מעבדים או מאחסנים נתוני לקוחות.

בעוד שמודלי אימון הם חלק טבעי והכרחי של שירות AI, גורו תצמצם את שחרור נתוני הלקוחות ביחס רק למשימה הנוכחית. אנחנו נזין את המודל של צד שלישי רק במה שהוא צריך כדי לבצע את הפונקציה ונדחה את שימושו באימון מודלים בקנה מידה רחב. זה משקף ישירות את מדיניות השימוש בנתונים של OpenAI, שאומרת: "ברירת מחדל, OpenAI לא תשתמש בנתוני API כדי לאמן את מודלי OpenAI או לשפר את הצעת השירות של OpenAI."

תמונת קולאז' של גורו-ספריה-43

אבל גם לפני שידיעות הלקוח מגיעות ל־OpenAI, זה מוגבל למה שנדרש באופן מוחלט בצד של גורו קודם, ובכך שומר את רוב המידע בתוך סביבת האחסון המוגנת של גורו. בקיצור, אנחנו לא פשוט פותחים את השערים לנתוני לקוחות לצריכה על ידי OpenAI. במקום זאת, אנחנו מחזיקים ומאמתים נתונים פנימיים בהתבסס על המשימה הראשונית של הלקוח, ומאפשרים רק לאותו מגזר מידע להיכנס לזרם AI.

מחיקת נתונים ותחזוקה רגילה

נתוני לקוחות לא יכולים לחיות לנצח, ואנחנו נעשה את מחיקת הנתונים התקופתית סעיף סטנדרטי בכל קשר עם ספקי AI או פתרונות self-hosted. אנחנו נצמצם את השטח הדיגיטלי של ה-AI המגנטי על ידי הקמת قواعد רודפות. המטרה היא לשמור על שליטה חיובית על כל נתוני הלקוחות, ולהטיל הגבלות של "זמן לחיות" בכל מקום שאפשר.

OpenAI מכירה בכך שכמה משתמשים לא רוצים שההיסטוריה שלהם תשמר, ולכן הם מציעים את האפשרות למחוק הנחיות קודמות. שוב, לפי תנאי השימוש שלהם, "כאשר היסטוריית השיחות מושבתת, אנחנו נשמור שיחות חדשות במשך 30 ימים ונבדוק אותן רק בעת הצורך כדי לפקח על ניצול לרעה לפני מחיקתן לצמיתות."

בעוד ש-AI בדרך כלל מרוויחה מהצטברות ומאגדת כמה שיותר נתונים, אנחנו מרגישים שכאשר מדובר במשתמשי גורו, השלווה שנובעת ממחיקת נתונים גוברת על התועלת מהחזקת נתונים ללא הגבלות.

גורו, AI, והעתיד

בינה מלאכותית יוצרת מציעה מגוון שיפורים באופן שבו המשתמשים שלנו שולפים ומבינים מידע. בעוד שהשימוש שלנו ב-AI מוגבל רק על ידי הדמיון שלנו, נדאג לגשת אליו בזהירות ובקביעות. תהליכי ספקי צד שלישי שלנו נבדקו על ידי זמן (ומבוקרים אחת לשנה), וספקי AI יעמדו באותה בדיקה כמו כל ספק אחר שיש לו גישה לגורו.

כשאנחנו ממשיכים לחקור דרכים פוטנציאליות ללמידת מכונה, לא נעמוד בפגיעות של עמדת האבטחה הבסיסית שלנו במהלך התהליך. אנחנו מבינים שאם נשחית את האמון והביטחון במוצר, אז הכוח של AI לא הביא לנו דבר. אנחנו מחויבים לאמת הבסיסית שבה מקור ידע מוכן empowers אנשים לעשות את העבודה הטובה ביותר שלהם, ואנחנו נמניע את יכולות ה-AI רק במידה שהן משפרות את גורו.

אבטחה היא תמיד בראש סדר העדיפויות של גורו, במיוחד כשמדובר באבטחת נתוני הלקוחות. תודות להתקדמות האחרונה בתחום הבינה המלאכותית, מעולם לא הייתה ממוקדת אבטחה כזו בעולם הטכנולוגי. כשהתאמנו לשחרר את המספר ההולך וגדל של תכונות בינה מלאכותית שניתן להשתמש בהם בגורו, אנחנו גם עבדנו קשה לשפר את תכונות האבטחה שלנו. למזלנו, זה די פשוט כאשר אתם כבר עובדים עם בסיס מוצק.

בסיס של אבטחה והגנה

גורו מצייתת לשיטות הטובות ביותר בכל הנוגע לאבטחת נתוני הלקוחות שלנו. אתם יכולים לקרוא על תהליכי האבטחה והציות שלנו במלואם בהעמוד האבטחה שלנו, אך אתם יכולים לקבל סקירה קצרה על מה שאתם צריכים לדעת כאן.

תמונת קולאז' של גורו-ספריה-39

בין אם מדובר ברצף עסקי או גישה לבניין, ניהול תצורה או סיבוב מפתחות, אנחנו עוקבים אחרי תקנים ותופסים מסמכים כדי לתמוך בציות שלנו. אנחנו סוקרים באופן שגרתי את התקנים בתעשייה ואת התקנות הפרטיות ומסתגלים לשלל הבקרות הפנימיות שלנו לפי הצורך. יחד עם הביקורת השנתית שלנו על SOC 2 להראות את הפיקוח שלנו על האבטחה במהלך כל השנה, אנחנו תמיד עובדים קשה כדי ליצור סביבה בטוחה ומאובטחת ביותר עבור הנתונים החשובים שלכם.

גורו, AI, ונתוני החברה שלכם

כמה שאנחנו מתמקדים באבטחה, האמונה שלנו בחדשנות גם לא פחות חזקה. אנחנו כל הזמן מחפשים דרכים לשלב תכונות ויכולות חדשות שמוסיפות ערך למוצר. אי אפשר להכחיש ש־AI התקדמה לנקודה שבה היא משלימה באופן לגיטימי מספר מוצרים של SaaS, כולל את גורו. סירוב לקחת בחשבון את AI ואת הפוטנציאל שלה עבור גורו פשוט אינו אופציה, ולכן עבדנו קשה כדי להביא את החדשנות הללו למוצר וללקוחות שלנו בהקדם האפשרי.

בינה מלאכותית יוצרת עשויה להתברר כאחת מההתקדמות הטכנולוגיות המהפכניות ביותר של עידן שלנו, אך היא מלווה בדאגות ייחודיות. זה מחזיר אותנו למגע הקדושה של נתוני הלקוחות. זה טבעי לחלוטין שהלקוחות והחברות הישארו מהוססים בנוגע להעביר מידע רגיש למקורות חדשים ובלתי ידועים. אנחנו מתחילים לראות מספר שאלות חוזרות: לאן הולך המידע שלי? איך הוא ישמש? מי אחראי על הגנתו? כמה זמן זה יישאר שם?

כשהגורו מתחיל לחקור שירותי AI של צד שלישי, אנחנו עושים זאת עם עקרונות אבטחה ברורים שמתמקדים סביב 3 נושאים מרכזיים: הפלטפורמות בהן אנחנו משתמשים, נתוני הלקוחות שאנו אוספים, והדרכים בהן אנו מנהלים את אחסון וחתימת המידע.

הערכות קריטיות של פלטפורמות AI של צד שלישי

כדי להיות ברורים: אנחנו לא נאפשר לשום שותף AI לגשת לנתוני גורו היקרים ללא בדיקה מעמיקה של הטכנולוגיה שלהם, עמידה בתקנות האבטחה, תנאי השירות ופרקטיקות הפרטיות. אנחנו כבר מצייתים לקבוצה ברורה של קריטריונים כאשר אנחנו מקבלים צדדים שלישיים, וספקי AI לא יהיו יוצאים מן הכלל. אנחנו נסקור את תיעוד הביצועים שלהם ואת יושרה של התשתית שלהם, ואז מחזיקים אותם באופן חוזי אחראיים להנחות פרטיות ואבטחה.

זו לא החלטה שמתקבלת על ידי אדם בודד, אלא תהליך משתף שמערב מומחים המתבוננים דרך עדשת האבטחה. אנחנו מעריכים את קריטיות הנתונים המדוברים, את בריאות החברה, את יושרת האחסון והכלים ואת תיעוד ההקפות (למשל: ביקורות חיצוניות, בדיקות חדירה וכו'). לספק מותר לגעת בנתוני הפקה של גורו רק לאחר אישור פורמלי מה-CTO שלנו, והשותפות הזו, לפי הסטנדרט, תאושר מחדש לפחות אחת לשנה.

שימוש בפחות נתונים כדי לעשות יותר

אבטחת הנתונים מתבצעת קצת יותר מסובכת עם AI בשל הטבע של מודלי אימון AI. בעוד שספקי AI מעוניינים לאמן את המודלים שלהם על ידי שילוב של כמה שתיקות נתונים ככל האפשר, ספקים מסורתיים מעבדים או מאחסנים נתוני לקוחות.

בעוד שמודלי אימון הם חלק טבעי והכרחי של שירות AI, גורו תצמצם את שחרור נתוני הלקוחות ביחס רק למשימה הנוכחית. אנחנו נזין את המודל של צד שלישי רק במה שהוא צריך כדי לבצע את הפונקציה ונדחה את שימושו באימון מודלים בקנה מידה רחב. זה משקף ישירות את מדיניות השימוש בנתונים של OpenAI, שאומרת: "ברירת מחדל, OpenAI לא תשתמש בנתוני API כדי לאמן את מודלי OpenAI או לשפר את הצעת השירות של OpenAI."

תמונת קולאז' של גורו-ספריה-43

אבל גם לפני שידיעות הלקוח מגיעות ל־OpenAI, זה מוגבל למה שנדרש באופן מוחלט בצד של גורו קודם, ובכך שומר את רוב המידע בתוך סביבת האחסון המוגנת של גורו. בקיצור, אנחנו לא פשוט פותחים את השערים לנתוני לקוחות לצריכה על ידי OpenAI. במקום זאת, אנחנו מחזיקים ומאמתים נתונים פנימיים בהתבסס על המשימה הראשונית של הלקוח, ומאפשרים רק לאותו מגזר מידע להיכנס לזרם AI.

מחיקת נתונים ותחזוקה רגילה

נתוני לקוחות לא יכולים לחיות לנצח, ואנחנו נעשה את מחיקת הנתונים התקופתית סעיף סטנדרטי בכל קשר עם ספקי AI או פתרונות self-hosted. אנחנו נצמצם את השטח הדיגיטלי של ה-AI המגנטי על ידי הקמת قواعد רודפות. המטרה היא לשמור על שליטה חיובית על כל נתוני הלקוחות, ולהטיל הגבלות של "זמן לחיות" בכל מקום שאפשר.

OpenAI מכירה בכך שכמה משתמשים לא רוצים שההיסטוריה שלהם תשמר, ולכן הם מציעים את האפשרות למחוק הנחיות קודמות. שוב, לפי תנאי השימוש שלהם, "כאשר היסטוריית השיחות מושבתת, אנחנו נשמור שיחות חדשות במשך 30 ימים ונבדוק אותן רק בעת הצורך כדי לפקח על ניצול לרעה לפני מחיקתן לצמיתות."

בעוד ש-AI בדרך כלל מרוויחה מהצטברות ומאגדת כמה שיותר נתונים, אנחנו מרגישים שכאשר מדובר במשתמשי גורו, השלווה שנובעת ממחיקת נתונים גוברת על התועלת מהחזקת נתונים ללא הגבלות.

גורו, AI, והעתיד

בינה מלאכותית יוצרת מציעה מגוון שיפורים באופן שבו המשתמשים שלנו שולפים ומבינים מידע. בעוד שהשימוש שלנו ב-AI מוגבל רק על ידי הדמיון שלנו, נדאג לגשת אליו בזהירות ובקביעות. תהליכי ספקי צד שלישי שלנו נבדקו על ידי זמן (ומבוקרים אחת לשנה), וספקי AI יעמדו באותה בדיקה כמו כל ספק אחר שיש לו גישה לגורו.

כשאנחנו ממשיכים לחקור דרכים פוטנציאליות ללמידת מכונה, לא נעמוד בפגיעות של עמדת האבטחה הבסיסית שלנו במהלך התהליך. אנחנו מבינים שאם נשחית את האמון והביטחון במוצר, אז הכוח של AI לא הביא לנו דבר. אנחנו מחויבים לאמת הבסיסית שבה מקור ידע מוכן empowers אנשים לעשות את העבודה הטובה ביותר שלהם, ואנחנו נמניע את יכולות ה-AI רק במידה שהן משפרות את גורו.

חוויית הפלטפורמה של Guru מהלך ראשון – קח את סיור המוצר האינטראקטיבי שלנו
קח סיור