AI를 업무에 도입한다고 할 때, 사람마다 떠올리는 그림이 다릅니다. 누군가는 AI에게 이메일 초안을 시키는 걸 생각하고, 누군가는 AI가 알아서 매출을 만들어주는 걸 상상합니다. 같은 'AI 도입'이라는 말을 쓰지만, 실제로는 완전히 다른 단계를 이야기하고 있습니다. 

이걸 정리해보면 인간과 AI의 관계가 어떻게 바뀌는지, 그리고 각 단계에서 진짜 리스크가 무엇인지를 중심으로 네 단계로 구분해볼 수 있습니다. 

1기: AI는 보조합니다 — 도구로서의 AI

가장 익숙한 단계입니다. 사람이 주도하고, AI가 돕습니다.

글을 쓸 때 초안을 뽑아달라고 합니다. 코드를 짤 때 함수 하나를 생성해달라고 합니다. 데이터를 요약해달라고 합니다. 모든 결정과 실행의 주체는 사람이고, AI는 부분적인 작업을 빠르게 처리해주는 도구입니다.

이 단계에서 AI는 계산기나 검색 엔진과 본질적으로 같습니다. 시키면 하고, 안 시키면 아무것도 안 합니다. 품질 관리는 전적으로 사람의 몫입니다. 대부분의 사람들은 지금 여기에 있습니다.

2기: AI가 계획하고, 사람이 승인합니다 — Human in the Loop

AI의 역할이 '부분 실행'에서 '계획 수립'으로 올라갑니다. 지금 가장 활발하게 확산되고 있는 단계입니다. 대부분의 AI 코딩 도구, 업무 자동화 에이전트가 여기에 해당합니다.

AI가 작업 전체를 계획하고 실행안을 제시합니다. 사람은 그 계획을 검토하고 승인하거나 수정합니다. 클로드 코드에서 플랜 모드를 쓰는 것, AI 에이전트가 작업 목록을 만들고 사람이 "진행해" 명령을 내리는 것이 이 단계입니다.

이 구조를 'Human in the Loop'라고 부릅니다. 사람이 의사결정 루프 안에 있다는 뜻입니다. AI가 제안하고, 사람이 결정하고, AI가 실행합니다. 모든 핵심 판단에 사람의 승인이 필요합니다.

장점은 AI가 실수하더라도 사람이 걸러낼 수 있는 여지가 많다는 것입니다. 단점은 속도입니다. 매 단계마다 사람의 확인을 기다려야 하니, AI의 처리 속도를 온전히 활용하지 못합니다. 병목이 인간의 존재에서 나오는 것이죠. IBM은 이 모델이 "정확성과 신뢰를 높이지만, 특히 빠른 환경에서 병목이 된다"고 분석합니다.

3기: AI가 일하고, 사람은 감독합니다 — Human on the Loop

결정적인 전환이 일어나는 단계입니다. 사람이 루프 '안'에서 '위'로 올라갑니다.

즉, 사람은 매 단계를 승인하지 않습니다. AI가 스스로 판단하고 실행하는 전체 흐름을 모니터링하면서, 이상이 생겼을 때만 개입하는 것이죠. 권한이 있는 사람이 업무 방향을 재설정할 수 있지만, 일상적인 실행에는 관여하지 않습니다.

이 구조를 'Human on the Loop'라고 부릅니다. 군사 분야에서 먼저 정립된 개념입니다. 자율 감시 드론이 독립적으로 순찰하되, 원격 조종사가 실시간으로 모니터링하며 필요할 때 개입하는 방식이 대표적입니다.

업무 영역에서는 이런 모습입니다. AI 에이전트 10개가 동시에 다른 작업을 수행합니다. 코드를 짜고, PR을 만들고, 테스트를 돌리고, 버그를 고칩니다. 사람은 대시보드를 보면서 전체 진행 상황을 확인하고, 방향이 틀어진 작업만 잡아줍니다. Y콤비네이터의 개리 탄이 gstack으로 10~15개 병렬 스프린트를 돌리는 방식이 이 단계에 가깝습니다.

핵심 리스크는 '자동화 안주automation complacency​'입니다. AI가 잘 돌아간다고 감독을 소홀히 하다가, 문제가 누적되어 한꺼번에 터지는 상황. 사람이 개입하는 시점과 AI의 실행 시점 사이에 간극이 생기면서, 실패의 영향 범위가 커집니다.

EU AI법(제14조)이 '고위험 AI 시스템에 대한 효과적인 인간 감독'을 의무화한 것도 이 단계의 리스크를 인식하고 있기 때문입니다.

4기: AI가 스스로 수익을 만듭니다 — Human out of the Loop

아직 본격적으로 도래하지 않았지만, 방향은 명확합니다. AI가 인간 감독 없이 자율적으로 운영되면서, 수익화까지 수행하는 것입니다. 고객을 찾고, 서비스를 제공하고, 비용을 관리하고, 매출을 만드는 꿈같은 일입니다.

이것을 'Human out of the Loop'라고 부릅니다. 사람은 목표와 제약 조건, 성공 기준을 정의하지만, 일상적 운영에는 개입하지 않습니다.

알고리즘 트레이딩의 일부가 이미 이 영역에 근접해 있고, 자율주행의 최종 단계(SAE 레벨 5)가 이 개념과 같습니다.

이 단계에서 가장 큰 리스크는 기술이 아니라 책임 소재입니다. AI가 자율적으로 내린 판단이 손실을 일으켰을 때, 누가 책임지는지. AI가 고객에게 잘못된 서비스를 제공했을 때, 법적 주체가 누구인지. 기술적으로는 가능해지더라도, 법률과 사회적 합의가 뒷받침되지 않으면 실현되기 어려운 단계입니다.

단계는 동시에 공존한다

현실에서는 이 네 단계가 순차적으로 오는 게 아니라 동시에 공존합니다. 같은 회사 안에서도, 같은 워크플로 안에서도 단계가 섞입니다.

항공사가 항공편 취소 시 승객을 재배치하는 과정을 예로 들면 이렇습니다. 일반 승객의 단순 재배치는 AI가 자율 처리합니다(4기에 가까움). 퍼스트클래스 승객의 복잡한 국제 연결편은 AI가 맥락을 정리해서 시니어 직원에게 승인을 요청합니다(2기). 관리자는 전체 재배치 흐름을 모니터링하면서 비용 이상이나 패턴 오류를 감시합니다(3기).

하나의 워크플로 안에서 의사결정의 위험도에 따라 다른 단계가 적용됩니다. 앞으로 AI 도입을 설계할 때, "우리 회사에 AI를 도입한다"는 뭉뚱그린 접근이 아니라, "이 업무는 몇 기에 해당하는가"를 판단하는 것이 핵심이 될 겁니다.

현재 위치와 미래 전망

대부분의 개인과 조직은 1기와 2기 사이에 있습니다. AI를 보조 도구로 쓰거나, 에이전트가 계획을 세우면 사람이 승인하는 단계입니다.

그러나 3기로 넘어가는 움직임이 빨라지고 있습니다. 클로드 코드나 gstack처럼 AI 에이전트가 자율적으로 코드를 작성하고 테스트하고 배포하되, 사람은 감독자로서 핵심 결정만 내리는 방식이 확산되고 있습니다.

4기는 아직 먼 이야기처럼 들리지만, 부분적으로는 이미 시작됐습니다. AI가 자동으로 광고를 집행하고, 가격을 조정하고, 고객 응대를 처리하는 영역이 넓어지고 있습니다. 다만 수익화 전체를 AI에 맡기는 것은 기술보다 제도와 신뢰의 문제입니다.

단계가 올라갈수록 AI의 자율성은 커지고, 인간의 역할은 '실행'에서 '설계'로 이동합니다. 그리고 리스크의 성격도 '기술적 오류'에서 '구조적 책임'으로 바뀝니다.

중요한 건, 어떤 단계인가를 단순히 파악하는 것이 아니라 우리가 어떤 자세를 갖고 있어야하는가를 생각하고 있어야 한다는 점입니다. 그래서 저는 기획자, 프로젝트매니저로서의 태도가 필요하다고 결론짓고 싶습니다. 제품이나 서비스를 기획해서 제공하기까지의 전 과정을 구체적으로 이해하고 통제할수있는 사람이 결국 AI의 루프 밖에서 관리하는 경영자가 될 수 있지 않을까요.