고객에게 생성 AI 엔터프라이즈 도구를 신뢰할 수 있음을 보여주는 4가지 방법

블로그

홈페이지홈페이지 / 블로그 / 고객에게 생성 AI 엔터프라이즈 도구를 신뢰할 수 있음을 보여주는 4가지 방법

Jul 27, 2023

고객에게 생성 AI 엔터프라이즈 도구를 신뢰할 수 있음을 보여주는 4가지 방법

기업이 온프레미스에서 클라우드로 데이터를 이동하는 클라우드 혁명이 시작될 당시 Amazon, Google 및 Microsoft는 보안에 대한 관심 덕분에 적어도 부분적으로 성공했습니다.

기업이 데이터를 온프레미스에서 클라우드로 옮기는 클라우드 혁명이 시작될 당시 Amazon, Google 및 Microsoft는 보안을 근본적인 관심사로 삼았기 때문에 적어도 부분적으로 성공했습니다. 대규모 고객은 SOC2 인증을 받지 않은 클라우드 회사와 협력하는 것을 고려조차 하지 않습니다.

오늘날 또 다른 세대의 변화가 일어나고 있으며, 이미 근로자의 65%가 AI를 매일 사용하고 있다고 답했습니다. ChatGPT와 같은 대규모 언어 모델(LLM)은 클라우드 컴퓨팅 및 SaaS 구독 모델이 이전에 했던 것과 동일한 방식으로 비즈니스를 뒤흔들 가능성이 높습니다.

그러나 이 초기 기술에는 역시 회의적인 시각이 따릅니다. LLM은 조작된 정보를 "환각"시키고, 실제 정보를 부정확하게 공유하며, 정보를 모르는 직원이 입력한 민감한 회사 정보를 유지할 위험이 있습니다.

LLM이 관여하는 모든 산업에는 야심찬 서비스 제공업체와 B2B 고객 사이에 엄청난 수준의 신뢰가 필요하며, 이들 고객은 궁극적으로 성과 저하의 위험을 감수하게 됩니다. 그들은 귀하의 평판, 데이터 무결성, 보안 및 인증을 자세히 살펴보고 싶어할 것입니다. LLM의 "무작위성" 가능성을 줄이고 가장 큰 신뢰를 구축하기 위해 적극적인 조치를 취하는 제공업체가 대규모 승자가 될 것입니다.

현재로서는 잠재 고객에게 자랑할 수 있는 "신뢰할 수 있는" 승인 스탬프를 제공할 수 있는 규제 기관이 없습니다. 그러나 생성적 AI 조직이 오픈북으로 구축하여 잠재 고객과 신뢰를 구축할 수 있는 방법은 다음과 같습니다.

현재 생성 AI의 데이터 보안과 관련된 특정 인증은 없지만 SOC2 규정 준수, ISO/IEC 27001 표준, GDPR(일반 데이터 보호 규정) 인증과 같은 가능한 한 많은 인접 인증을 획득하는 것이 신뢰성에 도움이 될 뿐입니다.

또한 지역마다 다른 데이터 개인 정보 보호 규정에 대한 최신 정보를 알고 싶습니다. 예를 들어 Meta가 최근 Twitter 경쟁사인 Threads를 출시했을 때 데이터 추적 및 프로파일링 관행의 합법성에 대한 우려로 인해 EU에서 출시가 금지되었습니다.

새롭게 떠오르는 틈새시장에서 새로운 길을 개척하면서 규제 형성에 도움을 줄 수 있는 위치에 있을 수도 있습니다. 과거의 빅테크 발전과 달리 FTC와 같은 조직은 생성 AI 플랫폼의 안전성을 조사하기 위해 훨씬 더 빠르게 움직이고 있습니다.

샘 알트만(Sam Altman)과 같은 글로벌 국가 정상과 악수를 할 수는 없더라도 현지 정치인 및 위원회 구성원에게 연락하여 전문 지식과 협력을 제공하는 것을 고려해 보십시오. 가드레일을 만들려는 의지를 보여줌으로써 귀하는 봉사하려는 사람들에게만 최선을 다하고 있음을 나타냅니다.

공식 규정이 없으면 자체적으로 안전 기준을 설정해야 합니다. 신뢰성 증명을 고려하는 이정표가 포함된 로드맵을 만드세요. 여기에는 품질 보증 프레임워크 설정, 특정 수준의 암호화 달성, 여러 테스트 실행 등이 포함될 수 있습니다.