조재옥 기자
이미지제공=생성형AI
[대한민국명강사신문=조재옥 기자]
공공기관 현장에서 “AI를 써도 될까”라는 질문은 이제 낯설지 않다. 보고서 작성, 민원 답변, 정책 설명 자료처럼 반복적인 업무가 많은 조직일수록 인공지능 도구에 대한 관심은 자연스럽게 커지고 있다. 문제는 관심과 활용 사이의 거리다. 많은 공공기관에서 AI는 이미 알고 있는 기술이지만, 실제 업무로 들어오지 못한 채 머뭇거리고 있다.
현장에서 들리는 이유는 의외로 단순하다. “AI가 어려워서가 아니다.” 이미 상당수의 직원들은 챗지피티 같은 생성형 AI를 한두 번쯤 사용해 본 경험이 있다. 다만 어디까지 써도 되는지, 무엇은 입력하면 안 되는지에 대한 기준이 없다는 점이 가장 큰 장애물로 작용한다. 기술의 문제가 아니라 판단의 문제인 셈이다.
특히 공공기관은 민감한 정보와 책임 구조 위에서 움직인다. 개인정보, 내부 검토 중인 정책, 외부에 공개되지 않은 행정 자료가 일상적으로 다뤄진다. 이런 환경에서 명확한 가이드라인 없이 AI 활용을 개인의 판단에 맡기는 것은 현실적으로 어렵다. 한 번의 실수로 조직 전체가 부담을 떠안을 수 있기 때문이다. 결국 직원들은 “혹시 문제가 될까”라는 불안 앞에서 다시 기존 방식으로 돌아간다.
여러 공공기관의 사례를 보면, AI 활용 여부를 가르는 결정적 요인은 기술 숙련도가 아니었다. 공통적으로 작동했던 것은 세 가지 원칙이다. 첫째, 비공개 정보는 입력하지 않는다는 명확한 선 긋기다. 이 원칙만 지켜도 보안과 관련된 대부분의 우려는 상당 부분 해소된다. 둘째, AI를 ‘작성자’가 아니라 ‘정리 도구’로 활용하는 접근이다. 보고서를 대신 써 달라고 맡기기보다, 목차 구조를 잡고 문장을 다듬는 보조 수단으로 쓰는 방식이다. 셋째, 최종 판단과 책임은 반드시 사람이 진다는 원칙이다. AI의 결과물은 참고 자료일 뿐, 검토와 수정은 인간의 몫이라는 합의가 필요하다.
이처럼 기준이 정리된 기관에서는 변화가 빠르게 나타난다. 공개 가능한 정보로만 시범 적용을 하고, 팀 단위로 활용 범위를 공유하면서 작은 업무부터 적용해 나간 곳들은 보고서 작성 시간이 눈에 띄게 줄었다. 무엇보다 직원들의 태도가 달라졌다. AI는 더 이상 불안한 존재가 아니라, 일을 정리해 주는 관리 가능한 도구로 인식되기 시작했다.
공공기관의 AI 활용이 더딘 이유를 기술 발전의 속도 탓으로만 돌리기는 어렵다. 이미 기술은 충분히 와 있다. 필요한 것은 조직 차원의 준비다. 명확한 기준, 책임 구조, 그리고 작은 합의다. 무작정 도입하거나 무작정 금지하는 양극단을 벗어나, 관리 가능한 범위 안에서 활용하는 선택이 필요하다.
관공서에서의 AI 활용은 유행의 문제가 아니다. 얼마나 준비되어 있는가의 문제다. 기준을 세우고, 작은 업무부터 차근차근 적용하는 조직만이 변화의 효과를 체감하게 된다. 공공업무의 효율은 거창한 기술 혁신보다, 이런 현실적인 준비에서 시작된다.