AI 시대 최대 공급망 병목은 ‘사람’
컨텐츠 정보
- 조회 524
본문
인공지능에서 가장 큰 위험 요소는 프롬프트 인젝션이나 데이터 오염이 아니다. 진짜 위험은 사람, 즉 숙련된 인력의 부족이다.
만약 기업이 실제 비즈니스에 인공지능을 적용할 수 있는 충분한 인력을 확보하지 못한다면, 막대한 기술 투자를 하더라도 아무런 성과를 얻지 못할 것이다.
인력 문제가 처음 등장하는 것은 아니다. 클라우드 컴퓨팅 확산기나 빅데이터 붐 당시에도, 기술 발전 속도에 비해 인재의 성장 속도가 뒤처지는 현상이 반복됐었다.
지금 가장 현명한 기업은 인재 확보 경쟁을 건너뛰고, 기존의 엔지니어·애널리스트·아키텍트·개발자를 인공지능 생산자로 전환하고 있다.
이유는 명확하다. 도메인 지식이야말로 기술을 해석하고 활용하는 열쇠이기 때문이다. 그리고 그 지식을 이미 가진 인력은 이미 기업 안에 있다.
가트너 애널리스트 스베틀라나 시큘라는 몇 년 전 “기업에는 이미 자사 데이터를 데이터 과학자보다 더 잘 아는 사람들이 존재한다”라고 언급했다.
기업은 이미 익숙한 기술을 활용해 내부 인재 육성 속도를 더욱 높일 수 있다. 새로운 기술 학습을 회피하자는 뜻이 아니라, 맥락 전환을 최소화해 더 많은 인력이 기여할 수 있도록 하자는 접근이다.
바로 그래서 ‘데이터에 인공지능을 가져오라(Bring AI to your data)’는 원칙이 중요하다. 예를 들어, 핵심 시스템이 관계형 데이터베이스 위에서 작동한다면, SQL을 유지한 채 임베딩·벡터 유사도·JSON 및 문서형 패턴을 추가하는 기능을 활용하는 것이 바람직하다.
실제로는 어떻게 작동하는지 살펴보자.
인력 병목
임금 프리미엄은 공급 부족을 측정하는 가장 직관적인 지표이며, 이 기준으로 볼 때 인공지능 역량 격차는 매우 심각하다.
노동 시장 분석 업체 라이트캐스트(Lightcast)가 13억 건의 구인 공고를 분석한 결과, 인공지능 역량이 요구되는 직무는 평균 연봉이 28% 높았다. 즉 연간 약 1만8,000달러의 추가 임금이 지급되는 것으로 나타났다.
PwC의 글로벌 분석 결과는 더욱 큰 대조를 보인다. 인공지능 역량을 가진 직원은 산업 전반에서 평균 56%의 임금 프리미엄을 받고 있다.
과장이 아니라, CFO가 실제 급여 데이터에서 확인하는 현실 수치다. 한편, 기업 내부의 역량 개발 속도는 시장 수요를 따라가지 못하고 있다.
마이크로소프트의 2024년 워크 트렌드 인덱스(Work Trend Index)는 31개국 3만1,000명 노동자와 마이크로소프트 365 및 링크드인 데이터를 조사했다.
전체 지식 노동자의 75%가 이미 업무에 인공지능을 사용 중이지만, 고용주로부터 공식 교육을 받은 비율은 39%에 불과했다.
또한 응답자 리더의 2/3는 인공지능 역량이 없는 사람을 채용하지 않겠다고 응답했다. ‘섀도우 인공지능’ 확산, 불균형한 성과, 위험 증가로 이어지는 전형적 조합이다.
본질적으로는 전혀 새롭지 않다.
아직 생성형 AI가 등장하기 전인 10년 전, 가트너는 인재 부족이 신기술 도입의 가장 큰 장애 요인이라고 지적했다. 인재부족은 비용이나 보안보다 더 큰 제약으로 작용했다. 이제는 거의 모든 비즈니스 프로세스가 자동화 혹은 어시스턴트의 대상이 되었다.
클라우드 전환기를 떠올려 보자.
IDC는 2012년 마이크로소프트 후원 연구에서 2015년까지 700만~1,400만 개의 클라우드 관련 일자리가 생길 것으로 예측했지만, 170만 개는 인재 부족으로 채워지지 않을 것이라고 전망했다.
대학도 관련 교육을 확대했으나, 가장 빠른 변화는 기업과 노동자가 내부에서 자체 역량을 강화한 사례였다. 자격 인증, 사내 아카데미, 시스템 운영팀의 실무 학습이 주된 방법이었다.
빅데이터 시대에도 유사한 흐름이 있었다.
2011년 맥킨지(McKinsey)는 미국 내 심화 분석 역량을 가진 인재 14만~19만 명이 부족하고, 데이터 기반 의사결정이 가능한 관리자·애널리스트 150만 명이 필요할 것이라고 예측했다.
당시 가트너의 시큘라는 “새로운 유형의 데이터 과학자를 기다리지 말고, 이미 기업에 있는 사람을 훈련시켜라”라고 조언했다. 필자 역시 과거에 “기업은 빅데이터의 가능성을 원하지만, 실제 노하우가 부족하다. 해법은 교육”이라고 강조한 바 있는데, 여기서 ‘하둡’을 ‘대규모 언어 모델’로 바꾸면 지금도 여전히 유효한 조언이다.
이 접근이 효과적인 이유는, 기술 자체보다 인간 중심의 문제를 다루고 있기 때문이다. 예를 들어, 클라우드 도입기에는 핵심 기술이 AWS나 애저가 아니라, 자사 제약 안에서 분산 시스템을 안정적으로 운영하는 역량이었다.
빅데이터 시기에도 진정한 역량은 하둡이 아니라, 데이터에 올바른 질문을 던지고 결과를 실무에 반영하는 능력이었다. 인공지능도 다르지 않다. 지속 가능한 경쟁력은 특정 모델에 있지 않다.
언제 인공지능을 활용해야 하는지, 어떻게 비즈니스에 통합해야 하는지, 어떻게 안전하고 측정 가능한 상태로 유지할지를 아는 인력에 있다.
인재 풀을 여는 방법
가장 빠르고 안전한 인공지능 역량 확보 방법은 기존 인력을 기반으로 내부에서 역량을 구축하는 것이다.
단순한 낙관이 아니라, 이미 업계 선도 기업이 실행 중인 전략이다. IT 의사결정자라면, 인재 전략과 기술 전략 모두를 결정짓는 핵심 방향으로 삼아야 한다.
- 재교육(Upskilling)에 집중하라.
인공지능 이해력과 안전한 활용 원칙을 모든 기술 인력의 기본 역량으로 만들어야 한다. 단순히 자리를 채우는 것을 넘어, 아이디어가 실현 가치로 이어지는 시간을 단축하는 데 직접적인 효과를 낸다.
모든 인력은 다음 네 가지 질문에 답할 수 있어야 한다.
- 인공지능으로 어떤 문제를 해결하려 하는가?
- 필요한 데이터와 보호 장치는 무엇인가?
- 결과를 어떻게 평가할 것인가?
- 실제 운영 환경에서 어떻게 실행할 것인가?
그러기 위해서 박사급 인력이 필요한 것은 아니다. 기업을 이해하고 도구를 학습할 수 있는 규율 있는 엔지니어와 애널리스트면 충분하다.
2. 이미 익숙한 기술 스택을 활용하라.
인재가 부족한 상황에서는 기술 스택 자체가 효율 증폭 장치가 된다. 가트너는 2028년까지 전체 생성형 인공지능 비즈니스 애플리케이션의 80%가 기존 데이터 관리 플랫폼 위에서 개발될 것이라고 전망한다. 일반 상식과도 일치한다.
새로운 시스템으로 교체하기보다, 기존 데이터와 시스템에 인공지능을 통합할 때 더 빠르고 더 많은 인력이 참여할 수 있다.
3. 이미 가진 기술로 인공지능을 연결하라.
현재 팀이 강점을 가진 영역(SQL, 데이터 모델링, 운영 절차)을 파악하라. 예를 들어 SQL은 여전히 전문 개발자 중 가장 많이 사용하는 언어다. 스택 오버플로(Stack Overflow)의 2025년 조사에 따르면 전체 전문 개발자의 61%, 인공지능 도구 사용자 중 62%가 SQL을 사용한다.
즉, 초기 인공지능 활용 성공 사례를 기존 쿼리, 조인, 접근 제어, 데이터 계보, 서비스 수준 협약(SLA) 같은 친숙한 패턴 위에서 구축할 수 있음을 의미한다. 여기에 임베딩, 벡터 검색, 검색 기반 접근(Retrieval)을 추가하면 된다.
이 방식은 맞춤형 모델 스택을 구축하는 것보다 덜 화려해 보일 수 있다. 그러나 인공지능의 비즈니스 가치는 본질적으로 ‘화려함’과 무관하다.
핵심은 적절한 데이터 검색, 합리적 워크플로, 그리고 성과를 개선하는 피드백 루프다.
즉, 중요한 것은 ‘지루해 보이는 부분’이다. 기억하라, 지루함이 곧 안정성이다.
기업에는 SQL에 능숙한 개발자·데이터 엔지니어가 훨씬 많다. 이들에게 인-데이터베이스 벡터 검색과 검색 기반 접근법을 가르치는 것은, 완전히 새로운 데이터 스택을 배우게 하는 것보다 훨씬 부담이 적다.
같은 맥락에서, 백업·장애 조치·인증·권한 관리 등의 실행 절차는 이미 플랫폼 안에 존재한다. 이것을 ‘인공지능화’하는 것이 현실적 접근이다.
물론, 전문 도구의 필요성을 부정하는 것은 아니다. 특정 워크로드는 전문 도구가 더 적합할 수 있다. 그러나 대다수 기업은 기존 프로세스와 데이터, 그리고 인력을 활용해 인공지능을 도입할 때 훨씬 더 빠르고 안전하며 비용 효율적인 결과를 얻을 것이다.
dl-itworldkorea@foundryco.com
관련자료
-
링크
-
이전
-
다음





