짧은 견해

AI가 회계사 ‘일자리’보다 먼저 무너뜨리는 것 — 검증 없는 서명과 책임선 붕괴, 지금 법이 막아야 한다

dokwang82 2026. 1. 3. 20:18

AI가 회계사 ‘일자리’보다 먼저 무너뜨리는 것 — 검증 없는 서명과 책임선 붕괴, 지금 법이 막아야 한다

요즘 “회계사가 많이 배출되는데 일할 곳이 없다”는 이야기가 자주 나온다.
시험에 합격하고도 실무수습 기관을 찾지 못한 ‘미지정 회계사’ 문제가 거론되기도 한다.

다만 이 이야기는 감정으로 결론 낼 일이 아니다.
정말로 구조적 “일자리 부족”인지, 제도의 병목(수습 기관·채용 구조·업황·수요 예측 등) 때문인지, 무엇이 원인인지 사실 확인이 먼저다.

 

그런데 내가 더 크게 걱정하는 건 이 다음 질문이다.

과연 지금 ‘일하고 있는’ 회계사들은 제대로 일하고 있는가?

 

AI 자동화가 늘어나는 상황에서, 검증은 줄고 ‘서명만 남는’ 구조가 생기고 있는 건 아닌가?

이건 회계사 개인을 탓하자는 얘기가 아니다.
구조를 보자는 얘기다.
AI는 “처리”를 엄청나게 빠르게 만들고, 시장은 그 효율을 가격·물량 경쟁으로 바꾸기 쉽다.


1) 회계사의 본질은 “처리”가 아니라 “검증 + 서명 + 책임”이다

회계·감사에서 회계사의 역할은 단순히 장부를 만드는 사람이 아니다.
감사 대상의 회계를 검증하고, 그 결과에 서명하며, 문제가 생겼을 때 책임을 지는 사람이다.

그런데 AI가 들어오면 ‘처리’가 빨라진다.
이때 위험한 착시가 생긴다.

  • AI가 대부분 처리한다
  • 사람은 “시간이 없어서” 검증을 얇게 한다
  • 그런데 서명은 그대로 한다
  • 문제가 터지면 책임이 폭발한다

즉, AI가 회계사를 대체한다기보다 회계사를 ‘형식 서명자’로 밀어내는 구조가 만들어질 수 있다.


2) “효율 경쟁”이 검증을 깎아 먹는 순간, 제도 신뢰가 먼저 무너진다

AI가 들어오면 업계는 효율을 내세운다.
효율이 나쁜 건 아니다.
문제는 효율이 “검증 생략”으로 전환될 때다.

검증은 눈에 잘 안 보이고, 비용처럼 보인다.
그래서 가격·물량 경쟁이 붙으면, 검증이 먼저 얇아질 유인이 생긴다.
그리고 그 순간 ‘회계사 일자리’보다 먼저 무너지는 건 감사 신뢰다.


3) 그래서 지금 필요한 건 ‘단정’이 아니라 ‘집중 확인’이다

나는 여기서 누구를 비난하고 싶지 않다.
대신 “확인해야 할 질문”을 제시하고 싶다.

(확인 질문 1) AI 자동화가 늘면서, 회계사 1인당 책임(서명) 범위가 실제로 커지고 있는가?
(확인 질문 2) 표준 투입시간/검증 절차가 ‘실제로’ 줄고 있는가, 아니면 다른 형태로 강화되고 있는가?
(확인 질문 3) AI가 만든 산출물에 대해 “사람이 무엇을 확인했는지”가 기록으로 남는가? (검증 로그/감사추적)
(확인 질문 4) 예외·고위험 항목에서 ‘필수 인간 판단 지점’이 유지되는가?
(확인 질문 5) 조직(법인/회사)이 물량 압박으로 검증을 줄이게 만드는 인센티브 구조를 갖고 있진 않은가?

이 질문들은 회계만의 질문이 아니다.
법률, 의료, 건축·감리, 노무·세무, 안전진단, 심사·평가…
책임형 전문직 전반에 그대로 적용된다.


4) 결론은 “AI 규제”가 아니라 “책임선(업무량 한계선) 법제화”다

AI를 막자는 주장은 현실적이지 않다.
AI는 더 좋아질 것이고, 이미 현장에 들어와 있다.

그래서 답은 “도구 규제”가 아니라 “책임 구조 규정”이다.

핵심은 한 문장이다.

많이 할 수 있어도, 책임질 수 있는 만큼만 하게 하자.

그걸 가능하게 하려면, 법이 ‘세부 산정표’까지 만들 필요는 없다.
하지만 법이 최소한의 대략 규칙(가이드레일) 은 반드시 박아야 한다.
세부 수치·업무단위·직군별 기준은 그 다음에 전문가들이 설계하면 된다.


5) 대략 규칙(초안): 법이 먼저 고정해야 할 5개의 난간

규칙 1) ‘책임 업무’는 반드시 정량 관리 대상이다

서명/승인/감사/판정/처방처럼 책임이 붙는 업무는 “그냥 많이 하면 된다”가 아니라
기간별 총량 관리 대상이어야 한다.

규칙 2) 자격 보유자 1인당 ‘책임 업무량 상한(캡)’은 반드시 존재해야 한다

상한의 숫자 자체는 직군마다 다르다.
하지만 상한이 존재해야 한다는 원칙은 법이 고정해야 한다.
(상한을 넘기면 추가 서명/승인 불가, 또는 강화 조건 없이는 불가)

규칙 3) 고위험·고중요 업무 비중이 커지면 상한은 자동으로 낮아져야 한다

큰 건을 많이 할수록 더 느려지고 더 두꺼워져야 정상이다.
AI가 그 반대로 몰아가면 사고 확률이 올라간다.

규칙 4) AI를 썼다면 ‘검증 로그(추적 가능 기록)’가 없으면 서명할 수 없어야 한다

“AI가 했다”가 아니라 “사람이 무엇을 확인했다”가 남아야 한다.
로그가 없으면 책임도, 개선도 남지 않는다.

규칙 5) 처리량이 늘면 검증 자원(시간/인력/절차)이 비례해서 늘어야 한다

AI 효율이 ‘검증 생략’으로 전환되는 구조는 금지해야 한다.
처리량 확장은 허용하되, 검증 의무는 축소될 수 없게 만들어야 한다.


6) 마무리: ‘일자리 논쟁’보다 먼저, ‘신뢰 붕괴’를 막자

‘회계사 일자리 부족’ 논란은 사실 확인이 필요하다.
하지만 그보다 더 중요한 건, AI 시대에 전문직이 서명만 남는 직업으로 무력화되지 않도록 제도를 선제적으로 고치는 일이다.

사고가 난 뒤에는 항상 더 거칠고 더 비싼 방식으로 수습하게 된다.
그러니 지금, 법이 먼저 책임의 한계선을 그어야 한다.

많이 할 수 있어도, 책임질 수 있는 만큼만 하게 하자.