AI 팀장님, 검토 부탁 드립니다!

Prologue Questions

  • 우리 조직에서 AI가 어느 분야에서 어떻게 활용되는 지를 알고 있는가?
  • AI의 추천이나 결정이 조직의 기존 경험치와 어떤 차이를 보이는 가를 이해하고 있는가?
  • 우리 조직에서는 이런 차이를 어떻게 극복하고 일치 시키는가?

The Great Leadership (T.G.L) “AI가 직장의 보스가 된다.”

AI는 이제 마치 전기나 수도관처럼 조직이나 기업들의 시스템을 24 시간 쉬지 않고 움직인다. 한 조사 결과에 의하면 35%의 기업에서 이미 AI를 활용하고 있고 42% 기업들이 AI 적용을 적극 검토하고 있다고 한다. 총 네 개 기업 중 한 곳이 AI를 기업 운영의 기본 프레임으로 생각한다는 말이다. MIT 테크놀로지 리뷰의 한 조사에 의하면 81%의 중역들은 AI가 미래의 기업의 경쟁력을 좌우할 것으로 믿는다. 월스트리트저널에 따르면 미국 기업들 80% 중 10%의 작업자 업무가 AI에 의한 직접적으로 영향을 받을 것으로 조사되었다. 전체 직장인 업무 8% 정도가 AI와 같이 일하거나 대체된다는 뜻이다.

© santesson89, 출처 Unsplash

이런 AI를 바라보는 관점에 따라 편리함, 빠름, 새로움, 이로움, 그리고 경이로움과 두려움이 교차한다.
이미 AI는 인간을 대신해 많은 분야에서 결정을 내린다. 대다수 운전자들은 이제 AI 기능으로 무장한 내비게이션에 의존한다. 도심의 택시 기사들도 이제는 ‘어디 가세요?’에 대한 승객의 답을 내비게이션에 입력하고 출발한다. 더 이상 길을 찾아가는데 생각의 에너지를 쓰는 수고로움을 할 필요가 없는 사회가 된 것이다. 하지만 이런 편리함과 빠름 속에 아주 먼 우리 조상들이 거친 환경속에서 생존하는데 가장 중요한 능력이었던 길 찾기와 방향 감각을 점점 상실해 가고 있다. 그리고 반 자율 주행이 보편화 되다 보니 자동차가 인간의 판단과 제어 기능을 대신한다. 인간의 또 다른 고유 능력이었던 주변 상황 판단과 그에 따른 제어 기능 또한 상실해 가는 사회로 진입한 것이다.


과거 기업 조직에서는 중역들이나 매니저들이 현장 작업자들의 보스였다. 그럼에도 상급자들의 지시는 노련한 현장 작업자에 의해 종종 수정될 여지가 있었다. 사람과 사람의 관계이기에 직급의 차이를 극복하는 이런 소통이 가능했다. 하지만 이제는 사람이 아닌 AI가 보스나 상급자 역할을 한다. AI는 작업자나 매니저들에게 수많은 데이터 분석을 통해 ‘정답’을 제시한다. 이런 정답에 다른 의견을 제시하는 것은 권위적인 상급자를 상대하는 것보다 더 힘든 일이 되기도 한다. 마치 챗지피티(ChatGPT)의 답이 틀리거나 잘못되더라도 그것을 입증하기가 힘든 이치다.

© steve_j, 출처 Unsplash

특히 재고 관리가 수익과 직결되는 리테일 기업들이 매장을 운영하는데 광범위하게 활용되는 AI는 현장의 작업자들에게 도움을 주는 정보를 제공하기위해 설치되었지만 경험이 풍부하고 현장을 잘 아는 매니저들은 AI와 다른 결정을 내려 작업자들이 혼란에 빠지는 현상이 발생한다고 한다. AI와 베테랑 매니저 들과의 충돌이 일어나고 있다는 말이다. 예를 들면 식료품 코너에 준비해야 하는 상품들의 재고량은 계절, 날씨, 요일 등 여러 요소들을 고려해 결정하는데 매니저들은 AI의 추천을 신뢰하지 못하기 때문에 본인의 경험치에 의존해 결정을 한다는 것이다.

하지만 디지털 기술의 특성상 AI 분석의 정확성은 시간 문제일 뿐이다. 머지않아 작업자들은 매니저보다 AI를 신뢰하게 될 것이다. 마치 우리가 내비게이션의 길 찾기 정보를 우리 자신의 경험치보다 더 신뢰하게 된 것 현상을 보면 이런 예측을 가능하게 한다. 그리고 기업 운영지침이 바뀌어 더 이상 매니저가 AI 알고리즘이 추천하는 결정 사항을 무시할 수 없게 시스템을 변경할 수 있다. 그야말로 사람들은 AI의 지시에 따르는 ‘작업자’가 될 것이다. 소프트웨어가 직장의 보스가 된다는 말이다. 직장의 보스인 AI의 리더십을 논의해야 할 미래가 될 수도 있다.


최근 캐나다 토론토 교수이자 구글의 부사장의 직함으로 AI 연구를 하던 제프리 힌튼 박사(Geoffrey Everest Hinton)가 얼마 전 구글에서 사임했다. 이런 결정의 배경에는 75세라는 고령에 따른 부담도 있었지만 더 중요한 이유는 그의 전문 분야인 AI, 특히 챗지피티와 같은 생성형 AI가 만드는 가짜 정보가 인류에게 주는 위협에 대한 우려 때문이라고 했다. 합성곱 신경망 개념으로 AI 발전에 획기적 기여로 2018년 튜링상(Turing Award, 매년 컴퓨터과학 분야에 큰 업적을 남긴 사람에게 시상 하는 상, 컴퓨터과학의 노벨상이라고 불리고 있다.)을 수여한 힌튼 교수가 AI가 인류에게 위협적 대상이 될 것이라는 견해를 피력한다는 사실은 주목할 만하다. 일론 머스크를 비롯 27,000명이 향후 6개월간 GPT-4이상의 AI 연구 활동을 일시 중단하고 AI를 어떻게 인류에 해가 되지 않을 시스템으로 통제해야 하는지에 대한 지혜를 모으자는 시민 참여 운동을 하고 있다. 이런 움직임은 AI가 다양한 거짓 정보를 진실로 포장해 사람들을 호도하고 인간에게 해로운 분야에 활용되는 일들을 통제할 기구나 메커니즘이 없다는 우려의 심각성을 반증한다.

© iammottakin, 출처 Unsplash

인간에게 한 사람이 습득한 지식 전체를 타인에게 전달하는 것은 불가능한 일이다. 그러나 AI는 인간에 비해 훨씬 적은 신경망을 갖고 있지만 이런 지식 전달은 복사하듯이 쉬운 일이다. 그리고 고블린처럼 모든 데이터를 먹어 치우며 학습을 한다. 이런 학습 능력으로 한계를 모르고 똑똑 해지는 AI를 제어할 사회적 장치가 없음은 인류에 큰 리스크가 될 수 있다. 내비게이션이나 반 자율 주행의 경우처럼 AI의 선한 활용 분야 에서 조차 인간의 방향 감각이나 상황에 대한 판단력 그리고 제어능력을 상실하게 부추기는 결과를 낳는 AI가 과연 인류에게 좋은 것인가에 대한 의문을 제기한다.
조직에서 AI가 보스로 군림하고 인간이 AI 리더십을 논의할 날이 멀지 않았다는 견해가 파라노이아(Paranoia) 이기를 바랄 뿐이다.


글쓴이 : 김종식, Ph.D.
· 기계공학박사, Purdue University (USA)
· 現, M3SEN 기술경영 사장 / H Alliance Co., Ltd. 자문의장
· 前, 타타대우상용차㈜ 대표이사 사장
· 前, 커민스엔진 아시아 총괄 사장 & 커민스코리아 대표이사 사장
· 前, 주한 인도상공회의소 초대회장 역임 / 한국외국기업협회(FORICA)회장 역임

Scroll to Top