لا ينبغي على الشركات أن تعرض بياناتها الآمنة للخطر لتحقيق فوائد الذكاء الاصطناعي. إليك ما يفعله Guru لجلب ابتكارات الذكاء الاصطناعي وحفظ بيانات شركتك آمنة.
تعتبر الأمن دائمًا في مقدمة اهتماماتنا في Guru، خاصة عندما يتعلق الأمر بأمان بيانات العملاء. بفضل التطورات الأخيرة في الذكاء الاصطناعي، لم يكن هناك تركيز أكثر على الأمن في عالم التكنولوجيا. بينما كنا نعمل على إصدار عدد متزايد من ميزات الذكاء الاصطناعي التي يمكنك استخدامها في Guru، كنا أيضًا مشغولين بتحسين ميزات الأمان لدينا. لحسن الحظ، هذا بسيط نوعًا ما عندما تكون بالفعل تعمل على أساس صلب.
أساس من الأمان والحماية
يتبع Guru أفضل الممارسات فيما يتعلق بتأمين بيانات عملائنا. يمكنك قراءة ممارسات الأمان والامتثال لدينا على صفحة الأمان لدينا بالكامل، لكن يمكنك الحصول على ملخص عن المعلومات التي تحتاج إلى معرفتها هنا.
سواء كانت استمرارية الأعمال أو الوصول إلى المباني، إدارة التكوين أو دوران المفاتيح، نحن نراقب المعايير ونجمع الأدلة لدعم امتثالنا. نراجع بانتظام المعايير الصناعية واللوائح الخاصة بالخصوصية ونعدل ضوابطنا الداخلية حسب الحاجة. بالإضافة إلى تدقيق SOC 2 السنوي لدينا لإظهار إشرافنا على الأمان على مدار العام، نحن دائمًا نعمل بجد لإنشاء بيئة آمنة ومأمونة لأهم بياناتك.
Guru والذكاء الاصطناعي وبيانات شركتك
بقدر ما نركز على الأمان، فإن إيماننا بالابتكار قوي بنفس القدر. نحن نسعى باستمرار لإيجاد طرق لدمج ميزات وقدرات جديدة تضيف قيمة إلى المنتج. لا يمكن إنكار أن الذكاء الاصطناعي قد تقدم إلى النقطة التي يكمل فيها عدد من منتجات SaaS، بما في ذلك Guru. إن تجاهل الذكاء الاصطناعي وإمكاناته لـ Guru ببساطة ليس خيارًا، وهذا هو السبب في أننا عملنا بجد لتقديم هذه الابتكارات بأمان إلى منتجنا وعملائنا في أسرع وقت ممكن.
قد يثبت الذكاء الاصطناعي التوليدي أنه واحد من أكثر التطورات التكنولوجية تحويلاً في عصرنا، لكنه يأتي مع مخاوفه الفريدة. هذا يأخذنا مرة أخرى إلى قدسية بيانات العملاء. من الطبيعي فقط أن يتردد العملاء والشركات في توجيه معلوماتهم الحساسة نحو مصادر جديدة وغير معروفة. نبدأ في رؤية بعض الأسئلة المتكررة: أين تذهب معلوماتي؟ كيف سيتم استخدامها؟ من المسؤول عن حمايتها؟ كم من الوقت ستظل هناك؟
بينما تبدأ Guru في استكشاف خدمات الذكاء الاصطناعي من طرف ثالث، نقوم بذلك مع مبادئ أمان واضحة تتمحور حول 3 مواضيع رئيسية: المنصات التي نستخدمها، بيانات العملاء التي نجمعها، وطرق إدارة تخزين البيانات وحذفها.
تقييمات مستمرة حاسمة للمنصات الذكاء الاصطناعي من الطرف الثالث
لنكون واضحين: لن نسمح لأي شريك من الذكاء الاصطناعي بالوصول إلى بيانات Guru القيمة دون فحص تقنيتهم، مطابقة الأمان، شروط الخدمة، وممارسات الخصوصية. نحن نلتزم بالفعل بمجموعة واضحة من المعايير عند إدخال الأطراف الثالثة، ولن تكون بائعي الذكاء الاصطناعي استثناءً. سنراجع سجل أدائهم ونزاهة بنيتهم التحتية، ثم نطالبهم بالامتثال العُقدي للمعايير الخصوصية والأمان.
هذا ليس قرارًا يُتخذ بواسطة فرد واحد، بل هو عملية تعاونية تشمل خبراء الموضوع الذين ينظرون من منظور الأمان. نقوم بتقييم أهمية البيانات المعنية، وصحة الشركة، ونزاهة الاستضافة والأدوات، وسجل موثق للامتثال (مثل: تدقيق خارجي، اختبارات الاختراق، إلخ). لا يُسمح للمزود بالاتصال ببيانات إنتاج Guru إلا بعد حصوله على تأييد رسمي من CTO لدينا، وستكون تلك الشراكة، حسب المعايير، مُعاد تقييمها على الأقل سنويًا.
استخدام بيانات أقل لأداء المزيد
تصبح أمان البيانات أكثر تعقيدًا مع الذكاء الاصطناعي بسبب طبيعة نماذج تدريب الذكاء الاصطناعي. حيث يقوم البائعون تقليديًا بمعالجة أو تخزين بيانات العملاء، يسعى مقدمو الذكاء الاصطناعي لتدريب نماذجهم من خلال دمج أكبر عدد ممكن من مجموعات البيانات.
بينما تعتبر نماذج التدريب جزءًا طبيعيًا وضروريًا من خدمة الذكاء الاصطناعي، سيقتصر Guru على إصدار بيانات العملاء فقط بالنسبة للمهمة الحالية. سنقوم بتغذية النموذج من الطرف الثالث فقط بما يحتاجه لتنفيذ الوظيفة وسنمنع استخدامه لتدريب النماذج على نطاق واسع. هذا يعكس مباشرة سياسة استخدام البيانات الخاصة بـ OpenAI، التي تقول: "بشكل افتراضي، لن تستخدم OpenAI بيانات API لتدريب نماذج OpenAI أو تحسين عرض خدمة OpenAI."
لكن حتى قبل وصول بيانات العملاء إلى OpenAI، يتم تحديدها بما هو ضروري فقط على جانب Guru أولاً، مما يحافظ على الغالبية العظمى من المعلومات في بيئة استضافة محمية من Guru. باختصار، نحن لا نفتح ببساطة البوابات بصورة غير مبررة لبيانات العملاء لتناولها من قبل OpenAI. بل نقوم باسترجاع البيانات وتسويتها داخليًا بناءً على المهمة الأصلية للعميل، مما يسمح فقط لدخول تلك المعلومات إلى تدفق الذكاء الاصطناعي.
حذف البيانات والصيانة المنتظمة
لا يمكن أن تعيش بيانات العملاء إلى الأبد، وسنجعل حذف البيانات بشكل دوري بندًا قياسيًا في أي علاقة مع مزود الذكاء الاصطناعي أو حل مستضاف ذاتيًا. سنقوم بتقييد النطاق الرقمي للذكاء الاصطناعي التوليدي من خلال وضع قواعد للحذف. الهدف هو الحفاظ على السيطرة الإيجابية على جميع بيانات العملاء، وتنفيذ قيود "مدة البقاء" كلما كان ذلك ممكنًا.
تدرك OpenAI أن العديد من المستخدمين لا يريدون حفظ تاريخهم، لذا فإنها تقدم القدرة على حذف المحفوظات السابقة. مرة أخرى، وفقًا لشروط استخدامهم، "عندما يتم تعطيل سجل الدردشة، سنحتفظ بالمحادثات الجديدة لمدة 30 يومًا وسنراجعها فقط عند الحاجة لمراقبة إساءة الاستخدام قبل حذفها بشكل دائم."
بينما يستفيد الذكاء الاصطناعي عمومًا من جمع وتجميع أكبر قدر ممكن من البيانات، نشعر أنه عندما يتعلق الأمر بمستخدمي Guru، فإن الاطمئنان الناتج عن حذف البيانات يفوق فائدة الاحتفاظ المفتوح.
Guru والذكاء الاصطناعي والمستقبل
يقدم الذكاء الاصطناعي التوليدي مجموعة متنوعة من التحسينات في كيفية استرجاع مستخدمينا للمعلومات وفهمها. بينما تقتصر الطريقة التي نستخدم بها الذكاء الاصطناعي فقط على خيالنا، سنضمن أننا نتعامل معه بعناية واتساق. تعد عمليات بائعينا من الطرف الثالث مجربة عبر الزمن (وتخضع سنويًا للمراجعة)، وستخضع مقدمو الذكاء الاصطناعي لنفس التدقيق كأي بائع آخر يصل إلى Guru.
بينما نواصل استكشاف فرص التعلم الآلي المحتملة، لن نؤثر على موقفنا الأساسي للأمان في هذه العملية. ندرك أنه إذا قمنا بتقويض الثقة والاطمئنان في المنتج، فإن فوائد الذكاء الاصطناعي لن تفيدنا بشيء. نحن ملتزمون بالحق الأساسي بأن مصدر المعرفة الجاهز يمكن أن يمكّن الأشخاص من تأدية أفضل أعمالهم، وسنستفيد من قدرات الذكاء الاصطناعي فقط بالقدر الذي تحسن تجربة Guru.
تعتبر الأمن دائمًا في مقدمة اهتماماتنا في Guru، خاصة عندما يتعلق الأمر بأمان بيانات العملاء. بفضل التطورات الأخيرة في الذكاء الاصطناعي، لم يكن هناك تركيز أكثر على الأمن في عالم التكنولوجيا. بينما كنا نعمل على إصدار عدد متزايد من ميزات الذكاء الاصطناعي التي يمكنك استخدامها في Guru، كنا أيضًا مشغولين بتحسين ميزات الأمان لدينا. لحسن الحظ، هذا بسيط نوعًا ما عندما تكون بالفعل تعمل على أساس صلب.
أساس من الأمان والحماية
يتبع Guru أفضل الممارسات فيما يتعلق بتأمين بيانات عملائنا. يمكنك قراءة ممارسات الأمان والامتثال لدينا على صفحة الأمان لدينا بالكامل، لكن يمكنك الحصول على ملخص عن المعلومات التي تحتاج إلى معرفتها هنا.
سواء كانت استمرارية الأعمال أو الوصول إلى المباني، إدارة التكوين أو دوران المفاتيح، نحن نراقب المعايير ونجمع الأدلة لدعم امتثالنا. نراجع بانتظام المعايير الصناعية واللوائح الخاصة بالخصوصية ونعدل ضوابطنا الداخلية حسب الحاجة. بالإضافة إلى تدقيق SOC 2 السنوي لدينا لإظهار إشرافنا على الأمان على مدار العام، نحن دائمًا نعمل بجد لإنشاء بيئة آمنة ومأمونة لأهم بياناتك.
Guru والذكاء الاصطناعي وبيانات شركتك
بقدر ما نركز على الأمان، فإن إيماننا بالابتكار قوي بنفس القدر. نحن نسعى باستمرار لإيجاد طرق لدمج ميزات وقدرات جديدة تضيف قيمة إلى المنتج. لا يمكن إنكار أن الذكاء الاصطناعي قد تقدم إلى النقطة التي يكمل فيها عدد من منتجات SaaS، بما في ذلك Guru. إن تجاهل الذكاء الاصطناعي وإمكاناته لـ Guru ببساطة ليس خيارًا، وهذا هو السبب في أننا عملنا بجد لتقديم هذه الابتكارات بأمان إلى منتجنا وعملائنا في أسرع وقت ممكن.
قد يثبت الذكاء الاصطناعي التوليدي أنه واحد من أكثر التطورات التكنولوجية تحويلاً في عصرنا، لكنه يأتي مع مخاوفه الفريدة. هذا يأخذنا مرة أخرى إلى قدسية بيانات العملاء. من الطبيعي فقط أن يتردد العملاء والشركات في توجيه معلوماتهم الحساسة نحو مصادر جديدة وغير معروفة. نبدأ في رؤية بعض الأسئلة المتكررة: أين تذهب معلوماتي؟ كيف سيتم استخدامها؟ من المسؤول عن حمايتها؟ كم من الوقت ستظل هناك؟
بينما تبدأ Guru في استكشاف خدمات الذكاء الاصطناعي من طرف ثالث، نقوم بذلك مع مبادئ أمان واضحة تتمحور حول 3 مواضيع رئيسية: المنصات التي نستخدمها، بيانات العملاء التي نجمعها، وطرق إدارة تخزين البيانات وحذفها.
تقييمات مستمرة حاسمة للمنصات الذكاء الاصطناعي من الطرف الثالث
لنكون واضحين: لن نسمح لأي شريك من الذكاء الاصطناعي بالوصول إلى بيانات Guru القيمة دون فحص تقنيتهم، مطابقة الأمان، شروط الخدمة، وممارسات الخصوصية. نحن نلتزم بالفعل بمجموعة واضحة من المعايير عند إدخال الأطراف الثالثة، ولن تكون بائعي الذكاء الاصطناعي استثناءً. سنراجع سجل أدائهم ونزاهة بنيتهم التحتية، ثم نطالبهم بالامتثال العُقدي للمعايير الخصوصية والأمان.
هذا ليس قرارًا يُتخذ بواسطة فرد واحد، بل هو عملية تعاونية تشمل خبراء الموضوع الذين ينظرون من منظور الأمان. نقوم بتقييم أهمية البيانات المعنية، وصحة الشركة، ونزاهة الاستضافة والأدوات، وسجل موثق للامتثال (مثل: تدقيق خارجي، اختبارات الاختراق، إلخ). لا يُسمح للمزود بالاتصال ببيانات إنتاج Guru إلا بعد حصوله على تأييد رسمي من CTO لدينا، وستكون تلك الشراكة، حسب المعايير، مُعاد تقييمها على الأقل سنويًا.
استخدام بيانات أقل لأداء المزيد
تصبح أمان البيانات أكثر تعقيدًا مع الذكاء الاصطناعي بسبب طبيعة نماذج تدريب الذكاء الاصطناعي. حيث يقوم البائعون تقليديًا بمعالجة أو تخزين بيانات العملاء، يسعى مقدمو الذكاء الاصطناعي لتدريب نماذجهم من خلال دمج أكبر عدد ممكن من مجموعات البيانات.
بينما تعتبر نماذج التدريب جزءًا طبيعيًا وضروريًا من خدمة الذكاء الاصطناعي، سيقتصر Guru على إصدار بيانات العملاء فقط بالنسبة للمهمة الحالية. سنقوم بتغذية النموذج من الطرف الثالث فقط بما يحتاجه لتنفيذ الوظيفة وسنمنع استخدامه لتدريب النماذج على نطاق واسع. هذا يعكس مباشرة سياسة استخدام البيانات الخاصة بـ OpenAI، التي تقول: "بشكل افتراضي، لن تستخدم OpenAI بيانات API لتدريب نماذج OpenAI أو تحسين عرض خدمة OpenAI."
لكن حتى قبل وصول بيانات العملاء إلى OpenAI، يتم تحديدها بما هو ضروري فقط على جانب Guru أولاً، مما يحافظ على الغالبية العظمى من المعلومات في بيئة استضافة محمية من Guru. باختصار، نحن لا نفتح ببساطة البوابات بصورة غير مبررة لبيانات العملاء لتناولها من قبل OpenAI. بل نقوم باسترجاع البيانات وتسويتها داخليًا بناءً على المهمة الأصلية للعميل، مما يسمح فقط لدخول تلك المعلومات إلى تدفق الذكاء الاصطناعي.
حذف البيانات والصيانة المنتظمة
لا يمكن أن تعيش بيانات العملاء إلى الأبد، وسنجعل حذف البيانات بشكل دوري بندًا قياسيًا في أي علاقة مع مزود الذكاء الاصطناعي أو حل مستضاف ذاتيًا. سنقوم بتقييد النطاق الرقمي للذكاء الاصطناعي التوليدي من خلال وضع قواعد للحذف. الهدف هو الحفاظ على السيطرة الإيجابية على جميع بيانات العملاء، وتنفيذ قيود "مدة البقاء" كلما كان ذلك ممكنًا.
تدرك OpenAI أن العديد من المستخدمين لا يريدون حفظ تاريخهم، لذا فإنها تقدم القدرة على حذف المحفوظات السابقة. مرة أخرى، وفقًا لشروط استخدامهم، "عندما يتم تعطيل سجل الدردشة، سنحتفظ بالمحادثات الجديدة لمدة 30 يومًا وسنراجعها فقط عند الحاجة لمراقبة إساءة الاستخدام قبل حذفها بشكل دائم."
بينما يستفيد الذكاء الاصطناعي عمومًا من جمع وتجميع أكبر قدر ممكن من البيانات، نشعر أنه عندما يتعلق الأمر بمستخدمي Guru، فإن الاطمئنان الناتج عن حذف البيانات يفوق فائدة الاحتفاظ المفتوح.
Guru والذكاء الاصطناعي والمستقبل
يقدم الذكاء الاصطناعي التوليدي مجموعة متنوعة من التحسينات في كيفية استرجاع مستخدمينا للمعلومات وفهمها. بينما تقتصر الطريقة التي نستخدم بها الذكاء الاصطناعي فقط على خيالنا، سنضمن أننا نتعامل معه بعناية واتساق. تعد عمليات بائعينا من الطرف الثالث مجربة عبر الزمن (وتخضع سنويًا للمراجعة)، وستخضع مقدمو الذكاء الاصطناعي لنفس التدقيق كأي بائع آخر يصل إلى Guru.
بينما نواصل استكشاف فرص التعلم الآلي المحتملة، لن نؤثر على موقفنا الأساسي للأمان في هذه العملية. ندرك أنه إذا قمنا بتقويض الثقة والاطمئنان في المنتج، فإن فوائد الذكاء الاصطناعي لن تفيدنا بشيء. نحن ملتزمون بالحق الأساسي بأن مصدر المعرفة الجاهز يمكن أن يمكّن الأشخاص من تأدية أفضل أعمالهم، وسنستفيد من قدرات الذكاء الاصطناعي فقط بالقدر الذي تحسن تجربة Guru.
تجربة قوة منصة Guru بشكل مباشر - قم بجولة تفاعلية في المنتج