Компаниям не следует рисковать своими защищёнными данными, чтобы извлечь преимущества от ИИ. Вот что Guru делает, чтобы предоставить вам инновации в области ИИ и защитить данные вашей компании.
Безопасность всегда на первом месте в Guru, особенно когда дело касается безопасности данных клиентов. Благодаря недавним достижениям в области ИИ, никогда не было такой высокой концентрации на безопасности в технологическом мире. Работая над выпуском постоянно растущего числа функций ИИ, которые вы можете использовать в Guru, мы также интенсивно работали над улучшением наших функций безопасности. К счастью, это довольно просто, когда вы уже работаете на надежной основе.
Основы безопасности и защиты
Guru придерживается лучших практик в отношении защиты данных наших клиентов. Вы можете прочитать о наших практиках безопасности и соблюдения норм полностью на нашей странице безопасности, но вы можете получить краткое изложение того, что вам нужно знать здесь.
Составляя стандартные инструкции и собирая артефакты, чтобы поддерживать наше соблюдение норм, мы контролируем управление конфигурацией, непрерывность бизнеса или доступ к зданию, ротацию ключей. Мы регулярно продолжаем ознакомиться со стандартами отрасли и правилами конфиденциальности и адаптируем наши внутренние контрольные механизмы по мере необходимости. Помимо нашего ежегодного аудита SOC 2 для демонстрации нашего надзора за безопасностью в течение года, мы всегда усердно работаем над созданием безопасной и надежной среды для ваших самых важных данных.
Guru, ИИ и ваши корпоративные данные
Хоть мы и сосредоточены на безопасности, наша вера в инновации столь же сильна. Мы постоянно ищем способы интегрировать новые функции и возможности, которые добавляют ценность продукту. Невозможно отрицать, что ИИ достиг такого уровня, что он действительно дополняет ряд продуктов SaaS, включая Guru. Игнорирование ИИ и его потенциала для Guru просто невозможно, поэтому мы так усердно работали, чтобы безопасно внедрить эти инновации в наш продукт и к нашим клиентам как можно быстрее.
Генеративный ИИ может стать одним из самых трансформирующих технологических достижений нашего времени, но он приносит с собой свои уникальные проблемы. Это возвращает нас к святости данных клиентов. Это естественно, что клиенты и компании могут быть осторожны, указывая свою чувствительную информацию на новые и неизвестные источники. Мы начинаем видеть некоторые повторяющиеся вопросы: Куда уходит моя информация? Как она будет использована? Кто отвечает за ее защиту? Как долго это останется там?
Когда Guru начинает исследовать сторонние службы ИИ, мы делаем это с ясными принципами безопасности, которые сосредоточены вокруг трех основных тем: платформ, которые мы используем, данных клиентов, которые мы собираем, и способов управления хранением и удалением данных.
Чтобы было ясно: Мы не позволим никакому партнеру ИИ получить доступ к ценным данным Guru без тщательной проверки их технологий, безопасности, условий обслуживания и практик конфиденциальности. Мы уже придерживаемся четкого набора критериев при интеграции третьих лиц, и поставщики ИИ не станут исключением. Мы будем проверять их историю производительности и целостность их инфраструктуры, а затем держать их на контрактной основе подотчетными нормам конфиденциальности и безопасности.
Это не решение, которое принимает отдельное лицо, а совместный процесс, в котором участвуют эксперты, работающие с точки зрения безопасности. Мы оцениваем критичность данных, компанию, ее состояние, целостность хостинга и инструментов, а также имеющуюся документацию о соблюдении норм (например: внешние аудиты, тесты на проникновение и т.д.). Поставщику разрешено обращаться к данным Guru только после формального одобрения нашего CTO, а это партнерство, по стандарту, будет проверяться по крайней мере один раз в год.
Используя меньше данных для выполнения большего
Безопасность данных становится немного более сложной с ИИ из-за особенностей моделей обучения ИИ. Где поставщики традиционно обрабатывают или хранят данные клиентов, поставщики ИИ стремятся обучить свои модели, включив как можно больше наборов данных.
Хотя обучение моделей является естественной и необходимой частью услуги ИИ, Guru ограничит выпуск данных клиентов исключительно теми задачами, которые стоят перед ним. Мы будем предоставлять третьей стороне только то, что необходимо для выполнения функции, и запрещать его использование для широкомасштабного обучения модели. Это прямо отражает политику использования данных OpenAI, в которой говорится: "По умолчанию OpenAI не будет использовать данные API для обучения моделей OpenAI или улучшения предложения услуг OpenAI."
Но даже до того, как данные клиентов достигнут OpenAI, они ограничены тем, что на стороне Guru абсолютно необходимо, тем самым сохраняя подавляющее большинство информации в защищенной среде хостинга Guru. Короче говоря, мы не просто распахиваем ворота для данных клиентов, чтобы их могли использовать в OpenAI. Скорее, мы извлекаем и согласовываем данные внутри по первоначальной задаче клиента, разрешая лишь этот сегмент информации войти в поток ИИ.
Регулярное удаление и обслуживание данных
Данные клиентов не могут существовать бесконечно, и мы сделаем стандартным пунктом в любых отношениях с поставщиком ИИ или в собственных решениях ситуаций постепенное удаление данных. Мы ограничим цифровое пространство генеративного ИИ, установив правила разложения. Цель состоит в том, чтобы поддерживать положительный контроль над всеми данными клиентов, внедряя ограничения "время жизни" где это возможно.
OpenAI признает, что многие пользователи не хотят, чтобы их истории сохранялись, поэтому они предлагают возможность удаления предыдущих запросов. Опять же, согласно их условиям использования: "Когда история чата отключена, мы будем сохранять новые разговоры в течение 30 дней и просматривать их только при необходимости, чтобы следить за нарушениями, прежде чем навсегда удалить."
Хотя ИИ в целом выигрывает от накопления и агрегации как можно большего количества данных, мы считаем, что для пользователей Guru спокойствие, связанное с удалением данных, перевешивает преимущества безсрочного хранения.
Guru, ИИ и будущее
Генеративный ИИ предлагает множество улучшений в том, как наши пользователи извлекают и осмысливают информацию. Хотя способ, которым мы используем ИИ, ограничен только нашим воображением, мы обеспечим подход к его использованию с должным вниманием и последовательностью. Наши процессы работы с поставщиками третьих людей проверены временем (и проходят ежегодный аудит), и поставщики ИИ будут подвергаться тому же контролю, что и любые другие поставщики, получающие доступ к Guru.
По мере того как мы продолжаем исследовать потенциальные направления для машинного обучения, мы не будем ставить под угрозу нашу основную позицию безопасности в этом процессе. Мы понимаем, что если мы подорвем доверие и уверенность в продукте, то выгода от ИИ не принесет ничего. Мы остаемся преданными основной истине, что готовый источник знаний позволяет людям делать свою лучшую работу, и мы будем использовать возможности ИИ только в том случае, если они улучшат Guru.
Безопасность всегда на первом месте в Guru, особенно когда дело касается безопасности данных клиентов. Благодаря недавним достижениям в области ИИ, никогда не было такой высокой концентрации на безопасности в технологическом мире. Работая над выпуском постоянно растущего числа функций ИИ, которые вы можете использовать в Guru, мы также интенсивно работали над улучшением наших функций безопасности. К счастью, это довольно просто, когда вы уже работаете на надежной основе.
Основы безопасности и защиты
Guru придерживается лучших практик в отношении защиты данных наших клиентов. Вы можете прочитать о наших практиках безопасности и соблюдения норм полностью на нашей странице безопасности, но вы можете получить краткое изложение того, что вам нужно знать здесь.
Составляя стандартные инструкции и собирая артефакты, чтобы поддерживать наше соблюдение норм, мы контролируем управление конфигурацией, непрерывность бизнеса или доступ к зданию, ротацию ключей. Мы регулярно продолжаем ознакомиться со стандартами отрасли и правилами конфиденциальности и адаптируем наши внутренние контрольные механизмы по мере необходимости. Помимо нашего ежегодного аудита SOC 2 для демонстрации нашего надзора за безопасностью в течение года, мы всегда усердно работаем над созданием безопасной и надежной среды для ваших самых важных данных.
Guru, ИИ и ваши корпоративные данные
Хоть мы и сосредоточены на безопасности, наша вера в инновации столь же сильна. Мы постоянно ищем способы интегрировать новые функции и возможности, которые добавляют ценность продукту. Невозможно отрицать, что ИИ достиг такого уровня, что он действительно дополняет ряд продуктов SaaS, включая Guru. Игнорирование ИИ и его потенциала для Guru просто невозможно, поэтому мы так усердно работали, чтобы безопасно внедрить эти инновации в наш продукт и к нашим клиентам как можно быстрее.
Генеративный ИИ может стать одним из самых трансформирующих технологических достижений нашего времени, но он приносит с собой свои уникальные проблемы. Это возвращает нас к святости данных клиентов. Это естественно, что клиенты и компании могут быть осторожны, указывая свою чувствительную информацию на новые и неизвестные источники. Мы начинаем видеть некоторые повторяющиеся вопросы: Куда уходит моя информация? Как она будет использована? Кто отвечает за ее защиту? Как долго это останется там?
Когда Guru начинает исследовать сторонние службы ИИ, мы делаем это с ясными принципами безопасности, которые сосредоточены вокруг трех основных тем: платформ, которые мы используем, данных клиентов, которые мы собираем, и способов управления хранением и удалением данных.
Чтобы было ясно: Мы не позволим никакому партнеру ИИ получить доступ к ценным данным Guru без тщательной проверки их технологий, безопасности, условий обслуживания и практик конфиденциальности. Мы уже придерживаемся четкого набора критериев при интеграции третьих лиц, и поставщики ИИ не станут исключением. Мы будем проверять их историю производительности и целостность их инфраструктуры, а затем держать их на контрактной основе подотчетными нормам конфиденциальности и безопасности.
Это не решение, которое принимает отдельное лицо, а совместный процесс, в котором участвуют эксперты, работающие с точки зрения безопасности. Мы оцениваем критичность данных, компанию, ее состояние, целостность хостинга и инструментов, а также имеющуюся документацию о соблюдении норм (например: внешние аудиты, тесты на проникновение и т.д.). Поставщику разрешено обращаться к данным Guru только после формального одобрения нашего CTO, а это партнерство, по стандарту, будет проверяться по крайней мере один раз в год.
Используя меньше данных для выполнения большего
Безопасность данных становится немного более сложной с ИИ из-за особенностей моделей обучения ИИ. Где поставщики традиционно обрабатывают или хранят данные клиентов, поставщики ИИ стремятся обучить свои модели, включив как можно больше наборов данных.
Хотя обучение моделей является естественной и необходимой частью услуги ИИ, Guru ограничит выпуск данных клиентов исключительно теми задачами, которые стоят перед ним. Мы будем предоставлять третьей стороне только то, что необходимо для выполнения функции, и запрещать его использование для широкомасштабного обучения модели. Это прямо отражает политику использования данных OpenAI, в которой говорится: "По умолчанию OpenAI не будет использовать данные API для обучения моделей OpenAI или улучшения предложения услуг OpenAI."
Но даже до того, как данные клиентов достигнут OpenAI, они ограничены тем, что на стороне Guru абсолютно необходимо, тем самым сохраняя подавляющее большинство информации в защищенной среде хостинга Guru. Короче говоря, мы не просто распахиваем ворота для данных клиентов, чтобы их могли использовать в OpenAI. Скорее, мы извлекаем и согласовываем данные внутри по первоначальной задаче клиента, разрешая лишь этот сегмент информации войти в поток ИИ.
Регулярное удаление и обслуживание данных
Данные клиентов не могут существовать бесконечно, и мы сделаем стандартным пунктом в любых отношениях с поставщиком ИИ или в собственных решениях ситуаций постепенное удаление данных. Мы ограничим цифровое пространство генеративного ИИ, установив правила разложения. Цель состоит в том, чтобы поддерживать положительный контроль над всеми данными клиентов, внедряя ограничения "время жизни" где это возможно.
OpenAI признает, что многие пользователи не хотят, чтобы их истории сохранялись, поэтому они предлагают возможность удаления предыдущих запросов. Опять же, согласно их условиям использования: "Когда история чата отключена, мы будем сохранять новые разговоры в течение 30 дней и просматривать их только при необходимости, чтобы следить за нарушениями, прежде чем навсегда удалить."
Хотя ИИ в целом выигрывает от накопления и агрегации как можно большего количества данных, мы считаем, что для пользователей Guru спокойствие, связанное с удалением данных, перевешивает преимущества безсрочного хранения.
Guru, ИИ и будущее
Генеративный ИИ предлагает множество улучшений в том, как наши пользователи извлекают и осмысливают информацию. Хотя способ, которым мы используем ИИ, ограничен только нашим воображением, мы обеспечим подход к его использованию с должным вниманием и последовательностью. Наши процессы работы с поставщиками третьих людей проверены временем (и проходят ежегодный аудит), и поставщики ИИ будут подвергаться тому же контролю, что и любые другие поставщики, получающие доступ к Guru.
По мере того как мы продолжаем исследовать потенциальные направления для машинного обучения, мы не будем ставить под угрозу нашу основную позицию безопасности в этом процессе. Мы понимаем, что если мы подорвем доверие и уверенность в продукте, то выгода от ИИ не принесет ничего. Мы остаемся преданными основной истине, что готовый источник знаний позволяет людям делать свою лучшую работу, и мы будем использовать возможности ИИ только в том случае, если они улучшат Guru.
Опробуйте мощь платформы Гуру на практике - пройдите интерактивный тур по нашему продукту