Demystifying the Security Unknowns of AI Add-ons

기업들은 AI의 이점을 누리기 위해 안전한 데이터를 위험에 처하게 할 필요가 없어야 합니다. 여기에서 Guru가 AI 혁신을 가져오고 귀사의 데이터를 안전하게 유지하기 위해 하고 있는 일입니다.
Table of Contents

Guru에서는 고객 데이터의 보안이 항상 최우선 과제입니다. 최근 AI 발전 덕분에 기술 분야에서 보안에 대한 집중이 그 어느 때보다 높아졌습니다. 우리는 Guru에서 사용할 수 있는 지속적으로 증가하는 AI 기능을 출시하기 위해 노력한 동시에, 보안 기능을 강화하기 위해 전력 질주했습니다. 운이 좋게도 이미 견고한 기반 위에서 일하고 있기 때문에 이것은 다소 간단합니다.

보안 및 보호의 기반

Guru는 고객 데이터 보안에 관한 모범 사례를 준수합니다. 우리의 보안 및 준수 관행에 대한 자세한 내용은 보안 페이지에서 확인할 수 있지만, 여기서 알아야 할 내용을 간략하게 설명합니다.

Guru Collage Image-Library-39

비즈니스 연속성이나 건물 접근, 구성 관리 또는 키 회전과 상관없이, 우리는 표준을 모니터링하고 규정 준수를 지원하기 위해 문서를 수집합니다. 우리는 업계 표준 및 개인정보 보호 규정을 정기적으로 검토하고 필요에 따라 내부 통제를 조정합니다. 연중 내내 우리의 보안 감시를 증명하기 위한 연간 SOC 2 감사와 함께, 우리는 귀하의 가장 중요한 데이터를 위해 안전하고 보안된 환경을 만들기 위해 항상 열심히 노력하고 있습니다.

Guru, AI, 및 귀사의 데이터

우리는 보안에 집중하고 있지만, 혁신에 대한 우리의 믿음도 마찬가지로 강력합니다. 우리는 제품에 가치를 더할 수 있는 새로운 기능과 능력을 통합하기 위한 방법을 끊임없이 모색하고 있습니다. AI가 상당한 수의 SaaS 제품과 진정으로 보완될 수 있는 지경에 이르렀음은 부인할 수 없습니다. Guru도 포함됩니다. AI와 그 잠재력을 Guru에서 간과하는 것은 선택 사항이 아니며, 그래서 우리는 이러한 혁신을 고객과 제품으로 가능한 한 빨리 안전하게 가져오기 위해 열심히 노력했습니다.

생성적 AI는 우리 시대의 가장 혁신적인 기술 발전 중 하나로 판명될 수 있지만, 그 자체로 고유한 우려를 동반합니다. 이것은 고객 데이터의 신성함으로 다시 돌아갑니다. 고객과 회사가 새로운 알려지지 않은 출처로 민감한 정보를 전달하는 것에 대해 주저하는 것은 전혀 자연스러운 일입니다. 우리는 반복적인 질문들이 조금씩 나타나고 있다는 것을 보고 있습니다: 내 정보는 어디로 가고 있나요? 어떻게 사용될까요? 누가 그것을 보호할 책임이 있나요? 그곳에 얼마나 오랫동안 있을까요?

Guru가 서드파티 AI 서비스를 탐색하기 시작하면서, 우리는 사용하는 플랫폼, 수집하는 고객 데이터, 데이터 저장 및 삭제를 관리하는 방법에 대해 3가지 핵심 주제를 중심으로 하는 명확한 보안 원칙을 가지고 있습니다.

3자 AI 플랫폼에 대한 중요한 지속적인 평가

명확히 하자면: 우리는 어떠한 AI 파트너가 Guru의 소중한 데이터에 접근하는 것을 허용하지 않을 것입니다. 그들의 기술, 보안 준수, 서비스 조건 및 개인 정보 보호 관행을 철저히 조사하기 전까지는요. 우리는 이미 제3자를 온보드할 때 명확한 기준 집합을 준수하고 있으며, AI 공급업체도 예외는 아닙니다. 우리는 그들의 성과 기록과 인프라의 무결성을 검토한 다음, 개인정보 보호 및 보안 기준에 대해 계약상 책임을 물을 것입니다.

이것은 단일 개인이 내리는 결정이 아니라, 보안의 관점에서 살펴보는 주제 전문가들이 포함된 공동 프로세스입니다. 우리는 문제의 데이터의 중요성, 회사의 건전성, 호스팅 및 도구의 무결성, 그리고 문서화된 준수 기록(예: 외부 감사, 침투 테스트 등)을 평가합니다. 제공자는 CTO의 공식적인 승인이 있기 전에는 Guru 생산 데이터에 접근할 수 없으며, 이 파트너십은 기준에 따라 최소한 매년 재검증될 것입니다.

적은 데이터로 더 많은 일을 수행하기

AI 훈련 모델의 특성으로 인해 데이터 보안이 다소 복잡해집니다. 업체가 전통적으로 고객 데이터를 처리하거나 저장하는 경우, AI 공급자는 가능한 많은 데이터 세트를 포함하여 모델을 훈련하려고 합니다.

훈련 모델은 AI 서비스의 자연스럽고 필요한 부분이지만, Guru는 고객 데이터의 공개를 현재의 작업에 한정할 것입니다. 우리는 서드파티 모델에 필요한 것만 제공하여 기능을 실행하며, 광범위한 모델 훈련을 위한 사용은 금지할 것입니다. 이는 OpenAI의 데이터 사용 정책을 직접적으로 반영하며, “기본적으로 OpenAI는 API 데이터를 사용하여 OpenAI 모델을 훈련하거나 OpenAI의 서비스 제안을 향상시키지 않습니다.”라고 명시하고 있습니다.

Guru_Collage_Image-Library-43

고객 데이터가 OpenAI에 도달하기 전에도, 첫 번째에서 Guru 쪽에서 필요한 것만 제한됩니다. 따라서 대부분의 정보는 Guru의 안전한 호스팅 환경 내에 유지됩니다. 간단히 말해서, 우리는 고객 데이터를 OpenAI가 소비할 수 있도록 막 열어두지 않습니다. 오히려, 우리는 초기 고객 작업에 따라 내부적으로 데이터를 검색하고 조정하여, 해당 정보 부분만 AI 스트림에 들어가도록 허용합니다.

정기적인 데이터 삭제 및 유지 관리

고객 데이터는 영구하지 않으며, 우리는 AI 공급업체 관계나 자체 호스팅 솔루션에서 구체적인 데이터를 삭제하는 것을 기본 조항으로 삼을 것입니다. 우리는 생성적 AI의 디지털 지형을 제한하기 위해 규정 삭제 규칙을 설정할 것입니다. 목표는 모든 고객 데이터에 대한 긍정적 통제를 유지하며 가능한 경우에 “만료 시간” 제약을 시행하는 것입니다.

OpenAI는 많은 사용자들이 그들의 기록이 저장되기를 원하지 않음을 인식하고 있어, 과거 프롬프트를 삭제할 수 있는 기능을 제공합니다. 다시 말하지만, 사용 조건에 따라, “채팅 기록이 비활성화되면, 우리는 새로운 대화를 30일 동안 보관하고, 남용을 모니터링하기 위해서만 필요할 때 검토하며, 이후에 영구적으로 삭제합니다.”라고 명시하고 있습니다.

AI는 일반적으로 가능한 많은 데이터를 수집하고 집계하는 것에서 이점을 얻지만, 우리는 Guru 사용자에게 있어 데이터 삭제로 인한 심리적 안심이 무기한 저장의 이점을 능가한다고 느낍니다.

Guru, AI 및 미래

생성적 AI는 사용자가 정보를 검색하고 이해하는 방식에서 다양한 개선을 제공합니다. 우리가 AI를 사용하는 방식은 우리의 상상력에만 제한되지만, 우리는 신중하고 일관된 방식으로 접근하도록 하겠습니다. 우리의 제3자 공급업체 프로세스는 검증된 시간이 지나왔으며(매년 감사됨), AI 공급자는 Guru에 접근하는 다른 공급업체와 동일한 검토를 받을 것입니다.

우리는 기계 학습을 위한 잠재적 경로를 계속 탐색하면서, 그 과정에서 기본 보안 입장을 저해하지 않도록 할 것입니다. 우리는 제품에 대한 신뢰와 신뢰를 약화시키면 AI의 이점이 아무것도 얻지 못하게 된다는 점을 이해합니다. 우리는 사람들이 최고의 작업을 위해 준비된 지식의 원천을 활용할 수 있도록 하는 기본 진리에 전념하고 있으며, 우리는 AI의 능력을 그들이 Guru를 개선하는 정도로만 활용할 것입니다.

Guru에서는 고객 데이터의 보안이 항상 최우선 과제입니다. 최근 AI 발전 덕분에 기술 분야에서 보안에 대한 집중이 그 어느 때보다 높아졌습니다. 우리는 Guru에서 사용할 수 있는 지속적으로 증가하는 AI 기능을 출시하기 위해 노력한 동시에, 보안 기능을 강화하기 위해 전력 질주했습니다. 운이 좋게도 이미 견고한 기반 위에서 일하고 있기 때문에 이것은 다소 간단합니다.

보안 및 보호의 기반

Guru는 고객 데이터 보안에 관한 모범 사례를 준수합니다. 우리의 보안 및 준수 관행에 대한 자세한 내용은 보안 페이지에서 확인할 수 있지만, 여기서 알아야 할 내용을 간략하게 설명합니다.

Guru Collage Image-Library-39

비즈니스 연속성이나 건물 접근, 구성 관리 또는 키 회전과 상관없이, 우리는 표준을 모니터링하고 규정 준수를 지원하기 위해 문서를 수집합니다. 우리는 업계 표준 및 개인정보 보호 규정을 정기적으로 검토하고 필요에 따라 내부 통제를 조정합니다. 연중 내내 우리의 보안 감시를 증명하기 위한 연간 SOC 2 감사와 함께, 우리는 귀하의 가장 중요한 데이터를 위해 안전하고 보안된 환경을 만들기 위해 항상 열심히 노력하고 있습니다.

Guru, AI, 및 귀사의 데이터

우리는 보안에 집중하고 있지만, 혁신에 대한 우리의 믿음도 마찬가지로 강력합니다. 우리는 제품에 가치를 더할 수 있는 새로운 기능과 능력을 통합하기 위한 방법을 끊임없이 모색하고 있습니다. AI가 상당한 수의 SaaS 제품과 진정으로 보완될 수 있는 지경에 이르렀음은 부인할 수 없습니다. Guru도 포함됩니다. AI와 그 잠재력을 Guru에서 간과하는 것은 선택 사항이 아니며, 그래서 우리는 이러한 혁신을 고객과 제품으로 가능한 한 빨리 안전하게 가져오기 위해 열심히 노력했습니다.

생성적 AI는 우리 시대의 가장 혁신적인 기술 발전 중 하나로 판명될 수 있지만, 그 자체로 고유한 우려를 동반합니다. 이것은 고객 데이터의 신성함으로 다시 돌아갑니다. 고객과 회사가 새로운 알려지지 않은 출처로 민감한 정보를 전달하는 것에 대해 주저하는 것은 전혀 자연스러운 일입니다. 우리는 반복적인 질문들이 조금씩 나타나고 있다는 것을 보고 있습니다: 내 정보는 어디로 가고 있나요? 어떻게 사용될까요? 누가 그것을 보호할 책임이 있나요? 그곳에 얼마나 오랫동안 있을까요?

Guru가 서드파티 AI 서비스를 탐색하기 시작하면서, 우리는 사용하는 플랫폼, 수집하는 고객 데이터, 데이터 저장 및 삭제를 관리하는 방법에 대해 3가지 핵심 주제를 중심으로 하는 명확한 보안 원칙을 가지고 있습니다.

3자 AI 플랫폼에 대한 중요한 지속적인 평가

명확히 하자면: 우리는 어떠한 AI 파트너가 Guru의 소중한 데이터에 접근하는 것을 허용하지 않을 것입니다. 그들의 기술, 보안 준수, 서비스 조건 및 개인 정보 보호 관행을 철저히 조사하기 전까지는요. 우리는 이미 제3자를 온보드할 때 명확한 기준 집합을 준수하고 있으며, AI 공급업체도 예외는 아닙니다. 우리는 그들의 성과 기록과 인프라의 무결성을 검토한 다음, 개인정보 보호 및 보안 기준에 대해 계약상 책임을 물을 것입니다.

이것은 단일 개인이 내리는 결정이 아니라, 보안의 관점에서 살펴보는 주제 전문가들이 포함된 공동 프로세스입니다. 우리는 문제의 데이터의 중요성, 회사의 건전성, 호스팅 및 도구의 무결성, 그리고 문서화된 준수 기록(예: 외부 감사, 침투 테스트 등)을 평가합니다. 제공자는 CTO의 공식적인 승인이 있기 전에는 Guru 생산 데이터에 접근할 수 없으며, 이 파트너십은 기준에 따라 최소한 매년 재검증될 것입니다.

적은 데이터로 더 많은 일을 수행하기

AI 훈련 모델의 특성으로 인해 데이터 보안이 다소 복잡해집니다. 업체가 전통적으로 고객 데이터를 처리하거나 저장하는 경우, AI 공급자는 가능한 많은 데이터 세트를 포함하여 모델을 훈련하려고 합니다.

훈련 모델은 AI 서비스의 자연스럽고 필요한 부분이지만, Guru는 고객 데이터의 공개를 현재의 작업에 한정할 것입니다. 우리는 서드파티 모델에 필요한 것만 제공하여 기능을 실행하며, 광범위한 모델 훈련을 위한 사용은 금지할 것입니다. 이는 OpenAI의 데이터 사용 정책을 직접적으로 반영하며, “기본적으로 OpenAI는 API 데이터를 사용하여 OpenAI 모델을 훈련하거나 OpenAI의 서비스 제안을 향상시키지 않습니다.”라고 명시하고 있습니다.

Guru_Collage_Image-Library-43

고객 데이터가 OpenAI에 도달하기 전에도, 첫 번째에서 Guru 쪽에서 필요한 것만 제한됩니다. 따라서 대부분의 정보는 Guru의 안전한 호스팅 환경 내에 유지됩니다. 간단히 말해서, 우리는 고객 데이터를 OpenAI가 소비할 수 있도록 막 열어두지 않습니다. 오히려, 우리는 초기 고객 작업에 따라 내부적으로 데이터를 검색하고 조정하여, 해당 정보 부분만 AI 스트림에 들어가도록 허용합니다.

정기적인 데이터 삭제 및 유지 관리

고객 데이터는 영구하지 않으며, 우리는 AI 공급업체 관계나 자체 호스팅 솔루션에서 구체적인 데이터를 삭제하는 것을 기본 조항으로 삼을 것입니다. 우리는 생성적 AI의 디지털 지형을 제한하기 위해 규정 삭제 규칙을 설정할 것입니다. 목표는 모든 고객 데이터에 대한 긍정적 통제를 유지하며 가능한 경우에 “만료 시간” 제약을 시행하는 것입니다.

OpenAI는 많은 사용자들이 그들의 기록이 저장되기를 원하지 않음을 인식하고 있어, 과거 프롬프트를 삭제할 수 있는 기능을 제공합니다. 다시 말하지만, 사용 조건에 따라, “채팅 기록이 비활성화되면, 우리는 새로운 대화를 30일 동안 보관하고, 남용을 모니터링하기 위해서만 필요할 때 검토하며, 이후에 영구적으로 삭제합니다.”라고 명시하고 있습니다.

AI는 일반적으로 가능한 많은 데이터를 수집하고 집계하는 것에서 이점을 얻지만, 우리는 Guru 사용자에게 있어 데이터 삭제로 인한 심리적 안심이 무기한 저장의 이점을 능가한다고 느낍니다.

Guru, AI 및 미래

생성적 AI는 사용자가 정보를 검색하고 이해하는 방식에서 다양한 개선을 제공합니다. 우리가 AI를 사용하는 방식은 우리의 상상력에만 제한되지만, 우리는 신중하고 일관된 방식으로 접근하도록 하겠습니다. 우리의 제3자 공급업체 프로세스는 검증된 시간이 지나왔으며(매년 감사됨), AI 공급자는 Guru에 접근하는 다른 공급업체와 동일한 검토를 받을 것입니다.

우리는 기계 학습을 위한 잠재적 경로를 계속 탐색하면서, 그 과정에서 기본 보안 입장을 저해하지 않도록 할 것입니다. 우리는 제품에 대한 신뢰와 신뢰를 약화시키면 AI의 이점이 아무것도 얻지 못하게 된다는 점을 이해합니다. 우리는 사람들이 최고의 작업을 위해 준비된 지식의 원천을 활용할 수 있도록 하는 기본 진리에 전념하고 있으며, 우리는 AI의 능력을 그들이 Guru를 개선하는 정도로만 활용할 것입니다.

Experience the power of the Guru platform firsthand – take our interactive product tour
투어 신청