Box AI
원칙 및 접근 방식
Box는 권한 및 데이터 보안 프로토콜을 준수하면서 투명성을 보장하고 책임감 있게 Box AI를 개발하기 위해 최선을 다하고 있습니다.
발효일: 2023년 5월 2일
인공지능(AI)은 엔터프라이즈가 자사 콘텐츠의 가치를 관리, 분석, 생성, 추출하는 방식을 혁신할 수 있는 중요한 기회를 제공합니다. 특히 대형 언어 모델 및 기타 고급 모델의 새로운 발전 덕분에 이제 AI는 비정형 콘텐츠를 처리할 수 있는 놀라운 기능을 갖추게 되었습니다. 이를 통해 워크플로를 간소화하고, 의사결정 과정을 개선하며, 비즈니스 운영의 모든 측면에서 잠재력을 발휘할 수 있습니다.
하지만 AI의 도입에는 고유의 과제와 위험성이 뒤따르며 이에 대해 책임감 있게 대처해야 합니다. 가장 중요한 기업 콘텐츠에 대해 보안과 개인정보 보호, AI의 양심적 사용을 보장하는 것은 Box의 사명 중에서도 핵심적인 사항입니다.
이에 따른 Box AI 원칙에는 고객과 사용자의 이익 그리고 콘텐츠 보호를 우선하는 방식으로 AI의 힘을 활용하고자 하는 Box의 약속이 담겨 있습니다. 본 원칙은 Box에서 AI를 책임감 있고 안전하게 활용하기 위한 기틀을 제공하고, Box에서 AI를 사용하는 방식에 대한 투명성을 보장하는 역할을 합니다. 우리 모두는 이러한 원칙과 가이드라인을 준수함으로써, 독점 데이터나 운영에 대한 무결성을 훼손하지 않고 AI의 이점을 활용할 수 있을 것입니다.
Box AI 약속
Box 제품에 AI 기능을 사용하고 제공할 때 Box는 다음의 원칙을 준수하며, 이 분야에 대한 경험이 깊어짐에 따라 아래 목록은 더 늘어날 수 있습니다.
- 고객이 AI 사용에 관해 완전한 제어권을 갖습니다. Box는 고객이 데이터와 프로세스에 대한 제어권을 유지할 수 있도록 최선을 다하고 있습니다. 고객은 AI 사용을 활성화 또는 비활성하고, 콘텐츠에 AI 적용할지를 결정할 수 있습니다.
- 명시적 승인 없이는 고객의 콘텐츠를 모델 학습에 사용하지 않습니다. Box는 고객의 명시적 승인을 받지 않고는 고객의 콘텐츠를 AI 모델 학습에 사용하지 않습니다. 예를 들어, 고객이 자신의 콘텐츠에 기반한 맞춤형 AI 모델을 생성하고 싶다면 콘텐츠에 AI 적용을 허락한다고 명시적으로 동의해야 합니다.
- AI 결과물에 대해 설명합니다. Box는 합당한 상황에서 AI 시스템의 작동 방식과 AI를 적용한 결과물의 근거에 대한 맥락을 사용자가 명확히 이해할 수 있도록 설명을 제공합니다.
- 권한을 엄격히 준수합니다. AI 시스템은 Box 전반의 콘텐츠에 대한 액세스를 결정하는 것과 동일한 수준의 엄격한 제어 정책과 권한 정책을 준수합니다. 당사의 아키텍처는 데이터 유출과 무단 액세스를 강력히 방지합니다.
- 데이터를 안전하게 보호합니다. 암호화 및 데이터 보안 우수 사례 등 강력한 보안 프로토콜을 구현하여 기밀성을 엄격히 유지하고 보안을 강화하여 고객 데이터를 보호합니다.
- 투명성을 제공합니다. Box는 AI 관행, 기술, 공급업체 및 데이터 사용에 관해 투명성을 유지하기 위해 최선을 다하고 있습니다.
- 사용자 및 엔터프라이즈 데이터를 보호합니다. Box는 최종 사용자 및 엔터프라이즈 데이터의 지속적인 보호를 우선시하여 개인정보 보호, 보안 및/또는 관련 규정을 준수하기 위해 최선을 다하고 있습니다.
- 신뢰할 수 있는 AI 모델을 사용합니다. Box는 신뢰할 수 있는 공급업체의 고품질 AI 모델을 사용하여 AI 솔루션의 정확성, 신뢰성 및 안전성을 지원할 수 있도록 노력하고 있습니다.
엔터프라이즈의 책임 및 이용 목적 제한
Box AI를 사용할 때 Box 고객도 AI 입력과 결과를 책임감 있게 사용해야 할 책임이 있습니다. 따라서 고객은 AI의 한계를 이해하고, 불법 또는 위험한 행위를 자제하며, 사람의 검토 없이는 해를 끼칠 수 있는 AI의 자동 의사 결정을 방지하고, 법률 및 규정을 준수하여야 합니다. 엔터프라이즈의 책임에 대한 자세한 정보는 Box AI 이용 목적 제한 정책 및 이행 원칙에서 확인할 수 있습니다.
Box의 AI Governance: 안전한 혁신 실현
Box는 고객 콘텐츠의 개인정보 보호와 보안에 대한 보장을 콘텐츠 클라우드의 핵심 원칙으로 삼고 있습니다. 이에 따라 당사는 미국 국립표준기술연구소(NIST)의 AI 위험 관리 프레임워크(AI RMF)에 부합하는 철저한 AI governance 프로그램을 구축했습니다.
NIST AI RMF는 대형 언어 모델을 기반으로 하는 생성형 AI와 같은 AI 기술 통합과 관련된 위험을 평가하고, 제어하며, 감소시키기 위해 구조화된 접근 방식을 제공합니다. 또한 NIST AI RMF는 자발적인 사항이지만 기업의 역할, 사용 사례, 규모, 복잡성 및 기타 관련 요소에 맞는 구체적인 표준을 설정합니다. 다음으로는 이 프레임워크의 네 가지 핵심 요소를 자체 AI Governance 프로그램에 어떻게 통합했는지(해당되는 경우)에 대해 간략하게 설명합니다.
- 관리. Box는 AI 기술 사용 시 법률, 규정, 인증 및 업계 표준을 준수할 수 있도록 AI 정책 및 관행을 유지합니다. 당사는 Box 및 자사 제품이 AI 기술 서비스 파트너와 통합될 때 직원이 따라야 할 명확한 원칙을 제시합니다. 또한, 이러한 정책은 우수 사례에 대한 피드백을 제공하는 프로세스를 구축합니다.
- 안내.Box AI 이용 목적 제한 정책 및 이행 원칙에는 Box의 고객과 최종 사용자의 책임 사항 및 금지되는 사용 등 Box AI 기술을 활용하는 방식에 대해 상세히 설명되어 있습니다. 이러한 원칙을 준수하면 AI의 이점을 극대화하면서도 그에 따른 위험을 최소화하고 관련 법적 의무를 준수하는 데 도움이 됩니다.
- 측정. 당사는 Box AI로 생성된 결과물의 실행 가능성 및 신뢰성을 포함하여 AI 서비스 파트너가 제공하는 AI 기술과의 통합을 지속적으로 모니터링합니다.
- 관리. 당사는 AI 서비스 파트너가 제공하는 AI 기술과 Box 시스템의 통합을 감독하기 위해 다양한 부서로 구성된 AI governance 팀을 구성했습니다. AI governance 팀에는 Box의 법률, 보안, 규정 준수, 제품, 엔지니어링, 공급업체 관리, 고용 분야의 고위급 리더들이 포함되어 있어, Box의 정책 및 업계 우수 사례에 부합하는 AI 서비스 파트너와만 통합할 수 있도록 보장합니다.
데이터 보호
개인 계정을 보유한 한 명의 Box 사용자부터 대규모 엔터프라이즈 고객까지, Box는 엔터프라이즈급 보안, 규정 준수, 개인정보 보호 및 신뢰를 유지하여 고객 콘텐츠를 보호합니다. Box의 데이터 암호화 전략은 HIPAA/HITECH 법률, PCI DSS, ISO 27001, NIST 권장 알고리즘 및 방법 준수 등과 같은 표준의 요구사항을 기반으로 합니다. Box에 업로드된 콘텐츠는 당사 웹사이트 및 Box 제작 애플리케이션을 통해 전송될 때 암호화되어 전송됩니다. 또한 콘텐츠는 미사용 상태에서도 암호화됩니다. Box에서 보안, 규정 준수, 데이터 개인정보 보호 및 안정성을 우선시하는 방식에 대해 자세히 알아보려면 Box Trust Center를 방문하십시오.