News Feed

오픈AI, 챗GPT 기반 데이터 통합 서비스로 기업 생산성 확대 노린다

컨텐츠 정보

  • 조회 439

본문

오픈AI가 10월 24일(현지시간) 기업 데이터 수집 및 분석 기능을 통합한 신기능 ‘컴퍼니 지식(Company Knowledge)’을 공개했다.

그동안 다양한 업체가 엔터프라이즈 데이터에 접근해왔지만, 이번 서비스는 그 수준과 성격에서 기존 접근과 뚜렷한 차이를 보인다는 평가가 나왔다.

여러 애널리스트는 이 서비스의 차별점으로 매우 깊은 데이터 접근 권한과 민감한 정보를 어떻게 보호하고 활용할지에 대한 불확실성을 지적했다.

오픈AI라는 기업 자체에 대한 신뢰도도 핵심 변수로 작용하고 있다. 기업 IT 리더 입장에서는 상대적으로 역사가 짧은 기업에 이처럼 광범위한 데이터 접근을 허용하는 것에 대한 우려가 크다.

이와 더불어 오픈AI의 비즈니스 모델이 불투명하다는 점도 신뢰 확보를 어렵게 만든다. 민감한 데이터를 익명화해 판매하거나, 차기 모델 학습에 활용할지 여부가 명확히 제시되지 않았기 때문이다.

포레스터 부사장 제프 폴라드는 “이번 발표의 본질은 신뢰 문제”라고 언급했다. 또한 “마이크로소프트 코파일럿 M365, 제미나이 엔터프라이즈, 앤트로픽의 클로드 엔터프라이즈 액세스, 그리고 오픈AI 컴퍼니 지식까지, 결국 선택은 ‘이미 함께 일하는 업체냐, 아니면 새로운 신뢰를 줄 대상이냐’의 문제”라고 설명했다.

폴라드는 “이들 서비스는 기능적으로 유사하며, 인공지능을 활용한 효율 향상과 지식 관리 개선이라는 명확한 이점이 있다”라고 평가했다.

또한 “데이터 프라이버시·보안·규제 준수·업체 종속·AI 신뢰성 문제 등 리스크도 결코 작지 않다”며 “그럼에도 불구하고 많은 기업이 생산성 향상이라는 이점을 위해 위험을 감수하려는 경향이 있다”라고 분석했다.

ROI 논쟁

AI 전략의 핵심에는 항상 ROI(투자 대비 수익) 논의가 있다. 이번 발표 역시 예외가 아니다.

폴라드는 “기업 IT 리더는 엔터프라이즈 AI가 개별 애플리케이션 중심에서 상호 연결된 에이전트 및 시스템 기반으로 전환되고 있다는 점을 기억해야 한다”라고 말했다.

이러한 통합은 높은 위험과 높은 보상을 동반하며, 피하기 어려운 변화로 평가된다. 폴라드는 “아이덴티티 및 접근 관리(IAM), 데이터 분류·보안, 규제 준수 등 기존 문제를 심화시키지만, 생산성 향상의 유혹이 너무 크다”라고 분석했다.

오픈AI의 접근 방식

오픈AI는 보도자료에서 다양한 업무용 앱 데이터와의 깊은 통합을 강조했다. 오픈AI는 “컴퍼니 지식은 슬랙, 셰어포인트, 구글 드라이브, 깃허브 같은 앱의 정보를 더 유용하게 활용할 수 있도록 돕는다. GPT-5 기반 모델이 여러 출처를 통합해 보다 정확한 답변을 제공하도록 학습된 덕분이다. 모든 응답은 출처 인용(citation)을 명시해 결과를 신뢰할 수 있게 한다”라고 밝혔다.

또한 “예를 들어 클라이언트 미팅을 앞둔 사용자는, 슬랙 메시지·이메일·구글 문서·인터컴(Intercom) 지원 티켓 등 다양한 출처의 최신 정보를 바탕으로 챗GPT가 자동 브리핑을 생성할 수 있다”라고 덧붙였다.

데이터 활용의 불확실성

오픈AI는 공식 입장에서 “각 사용자가 이미 접근 권한을 가진 정보만 조회한다”라고 설명했으나, 자체적인 데이터 활용 방침에 대한 언급은 없었다.

업계 관계자들은 “실제 통제는 서비스 수준 계약(SLA) 같은 법적 계약에 의존할 수밖에 없으며, 데이터 접근 주체가 직원·외주업체·3자 공급자 등 다양하다는 점에서 추적 불가능성이 큰 문제”라고 지적했다.

마켓트리(Marketri) AI 혁신 총괄 브래디 루이스는 “데이터가 유출되더라도 그 출처를 입증하기 어렵고, 책임 회피 가능성이 크다”라고 분석했다.

루이스는 “겉보기에는 훌륭한 아이디어지만, 실제 기업 입장에서는 위험이 크다”며 “PII(개인 식별 정보)나 PCI(결제 데이터)가 포함된 기업 정보를 직원이 감독 없이 챗GPT에 업로드하는 사례가 많다”라고 말했다.

또한, “오픈AI가 엔터프라이즈급 보안 기능을 구축하더라도, 진짜 문제는 기업이 직원 거버넌스 체계를 갖췄는가”라고 경고하며 “오픈AI는 신뢰성과 약속 이행력을 입증하지 못했다”며 “과도한 약속과 부족한 성과로 인식되고 있다”라고 덧붙였다.

무시할 수 없는 보안 위험

AI 거버넌스 플랫폼 트러스터블(Trustible) CTO 앤드루 가미노-청은 “이 기능의 가장 큰 위험은 우발적 데이터 유출이며, 감사 추적(audit trail)이 남지 않는다면 문제는 더 커진다”며 “현재로선 사용을 권장하지 않는다”라고 밝혔다.

소프트웨어 개발 업체 일루마인엑스(IllumineX) CEO 게리 롱사인은 “오픈AI는 여전히 정체성을 확립하지 못한 스타트업이며, 수익화 모델이 불분명하다”라고 언급했다. 또한 “기업 데이터 보호를 위해서는 독립 인스턴스 LLM 구축이 필요하며, 이는 데이터센터 직접 운영 수준의 자금이 요구된다”라고 강조했다.

사이버보안 컨설팅 업체 프로서큘러(ProCircular) 공격 대응 책임자 바비 쿠즈마는 “엄격한 데이터 분류 체계를 갖춘 기업에게만 제한적 이점이 있을 것”이라며, “대다수 기업에는 여전히 너무 위험하다”라고 분석했다.

쿠즈마는 “오픈AI가 사용자 개별 접근 권한을 활용한다는 점은 좋지만, 그 접근 토큰이 얼마나 오래 유지되는지, 장기 저장이 가능한지가 불분명하다”라고 언급했다. 또한 “미국 정부가 국가안보 서한(National Security Letter)을 발부해 오픈AI의 데이터 접근을 요구할 경우 어떤 일이 발생할지도 의문”이라고 덧붙였다.

쿠즈마는 “글로벌 제조기업 데이터를 익명화해 수집할 경우, 그 경제적 가치와 데이터 상업화 유혹이 매우 크다”라고 경고했다.

마지막으로 “엔터프라이즈 IT 리더에게 줄 조언은 단 하나, ‘지금은 도입하지 말라’다. 오픈AI는 아직 데이터 접근 및 보안 운영에 대한 충분한 이력을 증명하지 못했다”라고 말했다.
dl-itworldkorea@foundryco.com

관련자료

댓글 0
등록된 댓글이 없습니다.