어지러운 정국 속에서 지난 2024년 12월 26일 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 “AI 기본법”)」이 국회 본회의를 통과하고 이번 달 1월 14일 국무회의에서 의결됐다. 지난 21대 국회에서 시민사회의 강력한 반발 속에 무산되었던 AI 기본법이 이번 국회에서 통과된 것이다. 그러나 1년이 넘는 시간 동안 시민사회가 문제점으로 지적했던 부분이 개선되었다고 보기는 어렵다.
지난 11월 26일 국회 과학기술정보방송통신위원회(이하 "과방위")에서 19개 법안을 병합심사 후 법사위 위원회 대안으로 통과시킨 내용은 인공지능 산업 진흥을 위하여 시민의 안전과 인권에 대한 국가의 보호 의무를 내버려두어 이미 시민사회의 지탄을 받은 바 있다. 살상 무기에 탑재되거나, 인간의 잠재의식을 왜곡·조종하거나, 특정 집단의 취약성을 활용하는 인공지능과 같이 그 자체로 비윤리적인 인공지능은 개발이나 활용 자체를 금지해야 하지만 해당 법안은 금지 인공지능을 규정하지도 않았다. 고위험 인공지능을 규정하긴 했지만, 그 위반에 대해서는 직접적인 제재 조항을 두지 않고 시정을 위한 행정조치는 과학기술정보통신부(이하 "과기부")의 재량에 맡겼다. 이는 첨단산업 지원을 맡는 과기부가 이 법안을 일임한 데서부터 예견된 일이었다. 이미 국가인권위원회는 지난 2023년 8월 인공지능 감독·규제 업무를 제3의 기관이 독립적으로 수행해야 한다고 지적한 바 있고 그나마 국무총리 산하에 심의·의결 기구로 국가인공지능위원회를 두도록 하였으나 여기에는 실제 영향을 받는 시민의 입장을 대표할 수 있는 구성은 결여되어 있다.
또한 이번 법안은 졸속 진행이라는 비난을 피할 수 없는 상황이다. 22대 국회가 개원하고 반년도 되지 않아 비슷비슷한 내용의 법안이 20여 개 발의되는 동안, 인공지능 법의 논의 과정을 시민에게 투명하게 공개하거나 각계의 목소리를 다양하게 청취하지 않았다. 또한 몇 시간도 되지 않은 시간 동안 법안 논의 과정에 참여한 위원들이 AI 기술에 대한 깊은 이해가 필요한 전문적인 내용을 충분히 숙지하고 논의했다고 보기 어렵다.
이번에 통과된 법안은 21대 국회에서 논의되었던 법안과 크게 다르지 않다. 금지해야 할 인공지능에 관한 규정이 없고, 고영향 인공지능 사업자의 범위는 여전히 협소하며, 고영향 인공지능 사업자의 책무 위반에 대한 처벌 규정도 미흡하다. 책무 위반에 대해서는 과기부의 시정명령을 이행하지 않을 때야 과태료를 부과하고 있을 뿐이다. 인공지능에 영향받는 자의 정의가 포함된 것은 다행이지만, 정작 영향받는 자의 권리 및 구제에 관한 조항은 두고 있지 않다. 학습 데이터 공개 등 범용 인공지능 사업자의 의무 조항 역시 포함되어 있지 않다. 인공지능 인권 영향 평가도 ‘노력할 의무’만을 부여하고 있어 실효성이 있을지 의문이다.
특히 인공지능 서비스를 개발하기 위해 사용되는 기반이 되는 학술과 지식, 지식생산자와 창작자의 권리는 물론, 학술. 지식의 지속적 재생산을 위한 토양을 마련하기 위한 고민과 방안이 포함되어 있지 않은 것은 큰 문제이다. 관련해서는 제31조의 ‘인공지능의 투명성 확보 의무’에서 “인공지능 사업자는 생성형 인공지능 또는 이를 이용한 제품 또는 서비스를 제공하는 경우 그 결과물이 생성형 인공지능에 의하여 생성되었다는 사실을 표시”하는 조항 외에는 존재하지 않는다. 이조차도 최근 딥페이크 이슈에 따라 사후적으로 삽입되었다는 의심을 지울 수 없다. 이와 관련하여 문화체육관광부가 저작권 이슈로 이견을 표시하자 정청래 법사위원장은 “미진하거나 부족한 부분이 있으면 개정안으로 해결하면 된다”라면서 “이 법은 개문발차하는 것이 맞다”며 법안을 원안대로 통과시켰다. 그러나 그 피해가 다양한 분야의 저작권자에게 전방위적으로 발생할 수 있음에도 이를 무시하고 이토록 시급하게 제정되어야 할 이유가 있는지는 의문이다.
이번에 통과된 AI 기본법은 국제 기준에도 미치지 못한다. 우리나라는 OECD AI 원칙에 서명한 국가이고 관련 법 및 규정은 해당 원칙에 기반하여 작성되어야 함에도 이에 미치지 못하는 부분들이 많다. 크게 보면 아래 3가지다.
1. 포괄적인 국제적 협력 및 표준화 부족
OECD AI 원칙은 국제 협력과 상호 운용할 수 있는 거버넌스 및 정책 환경의 중요성을 강조하며 다자간 합의 기반으로, 국제적으로 비교할 수 있는 지표를 사용하여 AI 연구, 개발 및 배포를 측정하도록 가이드하고 있다. 하지만 AI 기본법에는 제13조 3항 "과학기술정보통신부 장관은 인공지능기술 표준과 관련된 국제표준 기구 또는 국제표준 기관과 협력체계를 유지ㆍ강화하여야 한다"가 내용의 전부이다. 그 어떤 구체적 내용도 찾아볼 수 없다. 또한 UN 결의안에는 안전하고 신뢰할 수 있는 AI 시스템을 위한 국제적 상호 운용할 수 있는 안전장치, 관행 및 표준을 공식화하고 개발도상국의 참여를 통해 인공지능 거버넌스 구성에 있어 격차를 해소하고 함께해 나가게 되어 있지만 이번에 통과된 법안에는 이러한 내용을 찾아볼 수 없다.
2. AI 시스템의 생명 주기 관리 부재 및 관리 방법 내에 인공지능 윤리의 구체성 부족
OECD AI 원칙은 인공지능의 투명성, 설명 가능성, 견고성, 보안, 안전 및 책임성 등 구체적인 윤리적 원칙을 제시하고 있다. 또한, 인공지능 시스템의 설계 및 개발 단계에서부터 윤리적 고려 사항을 반영하고, 잠재적인 위험을 관리하기 위한 체계적인 접근 방식의 필요성을 강조한다. 그러나 이번에 통과된 법안은 이에 대한 구체적 기준과 실행 방안을 담고 있지 않다. 모든 정보기술 서비스가 마찬가지지만 개발 그 자체보다 개발 과정에서 윤리 기준을 지키고 운용 과정에서 이를 안정적으로 관리하는 것이 더 중요하다. 기술 그 자체가 중요한 것이 아니라 해당 기술에 기반하여 만든 서비스를 사람이 운용하고 그 영향이 서비스를 이용하는 모든 사람에게 미치기 때문에 설계, 개발, 테스트, 배포, 사용, 폐기에 이르는 전 과정을 해당 서비스를 개발하는 기업이 어떻게 운용하느냐가 중요하다. 이에 필요한 전문 역량이 부족한 기업은 안전과 윤리를 지켜나갈 수 있도록 정부가 지원하고 충분한 돈과 인력을 갖춘 기업은 투명하게 운용 명세를 공개하고 정부가 감시할 수 있는 체계를 갖추어야 한다. 그러나 이번에 통과된 법안의 내용은 물론 통과되는 과정에서 보여준 모습은 이에 대한 기본 이해조차 없어 보인다. 단순히 규제의 부족을 얘기하고 있는 것이 아니다. 이번 법안이 AI 기반의 서비스가 어떻게 만들어지고 각 현장에서 어떻게 운용되는지에 대한 이해가 부족한 상황에서 졸속으로 기본법을 추진했다는 인상을 지울 수 없다. OECD AI 원칙은 AI 시스템의 전체 생명 주기를 명확하게 정의하고, 단계별로 안전, 보안 및 책임성을 확보하기 위한 접근 방식을 제시하고 있다. 또한 UN 결의안은 AI 시스템의 전 생명 주기에 걸쳐 인권, 안전, 보안을 보장해야 함을 강조하고 시스템의 설계, 개발, 테스트, 배포 및 사용 과정에서 발생할 수 있는 위험을 식별하고 완화하는 메커니즘을 마련해야 한다고 명시하고 있다. 이번에 통과한 AI 기본법에는 이러한 내용이 없다.
3. 디지털 격차 해소
아직 우리나라뿐만 아니라 많은 나라가 디지털 리터러시의 부재로 시민들 간의 격차가 벌어져 있는 상황이다. 여기에 AI 리터러시도 최근 쟁점이 되고 있다. 정부가 해야 할 일이 이러한 격차를 해소하고 시민들이 공평하게 최신의 기술과 더 나은 서비스를 삶에서 누리게 해주는 것이다. OECD AI 원칙은 AI 기술에 대한 포괄적인 접근을 강조하며, 각국의 정부가 디지털 격차를 줄이도록 권고하고 있다. UN 결의안도 마찬가지이며 UN은 더 나아가 선진국들이 개발도상국에 대한 지원을 통해 전 세계가 인공지능 기술의 이점을 공정하고 포괄적으로 접근할 수 있도록 해야 함을 명시하고 있다. 이번에 통과한 AI 기본법에는 이러한 내용도 역시 없다.
AI는 생각보다 빠르게 우리 생활 속으로 들어오고 있다. 이에 대해 여러 위험성을 경고하는 목소리도 높다. 국회는 부족한 AI 기본법을 보완하는 추가 입법에 착수하고 정부는 관련 시행령을 공표함에 이러한 위험을 해소할 수 있는 안을 작성해야 한다. |