Skip to main content

정부는 인공지능기본법 시행령안에 대한 국가인권위 의견을 수용하라

인공지능기본법은 산업계 편향에서 벗어나 인공지능 위험으로부터 영향받는 사람을 보호해야 

 

지난 12월 21일 국가인권위원회가 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(이하 ‘인공지능기본법’) 시행령안에 대한 개선 의견을 냈다. 내년 1월 22일 시행을 앞두고 과학기술정보통신부(이하 ‘과기부’)가 공개한 인공지능기본법 시행령안이 인권 보호 관점에서 대폭 보완되어야 한다는 것이다. 우리 단체들은 정부가 인공지능기본법 시행령안에 대한 국가인권위원회 의견을 수용할 것을 강력히 촉구한다.

국가인권위원회는 과기부가 11월 16일 입법예고한 시행령안이 인공지능의 개발·이용 전 과정에서 인간의 존엄성 등 인권을 실질적으로 보호할 수 있는 법적·제도적 기반이 되어야 한다고 지적하면서 다음과 같은 개선을 요구하였다. 

첫째, 법률이 위임하였음에도 시행령안은 사람의 안전과 인권에 위험한 영향을 미치는 고영향 인공지능 영역이 무엇인지 규정하고 있지 않다. 시행령은 고영향 인공지능 영역을 구체적으로 규정하여야 하고, 특히 직장과 학교의 감정인식 등 인간의 존엄성을 본질적으로 침해할 우려가 있어 다른 나라에서 금지하고 있는 인공지능은 최소한 고영향으로 포함하여 관리하여야 한다. 둘째, 고영향 인공지능사업자의 책무에 구직자·환자·대출 신청자 등 ‘영향받는 자’에 대한 보호가 누락되어 있으므로 이를 보완하여야 한다. 셋째, 시행령안은 ‘국방 또는 국가안보 목적’으로만 개발·이용되는 인공지능에 대하여 법 적용을 제외하면서 그 대상을 국가정보원장, 국방부장관, 경찰청장이 자의적이고 광범위하게 지정하도록 하였다. 그러나 국방 또는 국가안보 목적 인공지능은 국가 안전을 위한 수단인 동시에 생명권 침해 등 가장 심각한 인권침해가 우려되는 영역이므로 법 적용 제외를 제한하고 국가인공지능위원회의 심의를 거쳐야 한다. 

넷째, 범용AI 등 안전성 확보 의무의 적용 대상을 현재 우리나라에 존재하지 않는 누적연산량 10의 26승 이상으로 제한할 것이 아니라 10의25승 이상으로 더 넓게 규제하여야 한다. 다섯째, 고영향 인공지능사업자의 책무 가운데 문서보관의무의 기간을 5년에서 10년으로 강화하고 ‘협력 노력 의무’에 불과한 사업자의 의무를 ‘협력 의무’로 수정하여야 한다. 여섯째, 인공지능 영향평가는 의도된 목적을 확인하도록 하고 중대한 기능 변경 전에도 실시하여야 하며, 영향평가 관련 문서와 자료를 국가기관 등이 인공지능사업자에게 요구할 수 있는 근거를 마련하여야 한다. 일곱째, 법률의 위임 없이 시행령만으로 정부의 사실조사 예외를 규정한 조항은 삭제하여야 한다. 여덟째, 인권전문가가 국가인공지능위원회 구성에 산업계·기술계 전문가와 균형 있게 포함될 수 있어야 하고, 영향평가와 가이드라인 마련 과정에도 참여할 수 있어야 한다.

우리 단체들은 이와 같은 국가인권위원회의 의견이 인공지능기본법 시행령에 모두 반영되어야 마땅하다고 생각한다. 인공지능 기술은 삶의 질 향상에도 기여할 수 있지만, 그 결과물에 오류 또는 편향이 존재할 수 있다. 노동, 교육, 사회복지, 경찰 등 삶에 다양한 영역에서 인공지능에 기반한 의사결정이 확대될수록 헌법이 보장하는 인간으로서의 존엄과 가치는 물론, 평등권, 사생활의 비밀과 자유 등을 직접적으로 침해할 위험이 있다. 인공지능기본법 입법 과정에서 시민사회가 여러 차례 지적해 왔듯이, 현재의 법률은 인공지능의 위험으로부터 사람의 안전과 인권을 보호하기에는 여러 한계를 가지고 있다. 그럼에도 시행령안은 이를 보완하기 보다 국가기관과 산업계의 책무를 법률보다 더 완화하고, 제외하고, 예외를 확대하는 내용으로 시민사회의 우려를 사왔다.

국가인권위원회 뿐 아니라 정보인권, 노동, 여성 등 여러 시민사회가 시행령안에 대한 검토 의견을 과기부에 제출하였다. 하지만 인공지능기본법을 주무하는 과기부가 이런 의견에 대하여 충분히 검토하고 반영할 의사가 있는지 의심스럽다. 과기부는 12월 22일 입법예고 만료기한이 지나자마자 24일 졸속적으로 설명회를 가졌다. 이 설명회에서 무슨 논의가 오고 갔는지 알려진 바가 없지만, 그간의 시행령안 마련 과정에서 보여준대로 인공지능의 영향을 받을 사람들보다 산업계의 의견을 청취하는 자리였음을 짐작할 수 있다.

이런 상황은 인공지능 시대의 민주주의를 고민하게 한다. AI 강국을 표방하고 있는 정부는 인공지능 정책을 수립함에 있어 줄곧 산업계 이해관계에 쏠리는 편향을 보여 왔다. 하지만 데이터 기반 기술인 인공지능이 학습하는 데이터는 개인정보를 비롯해 사람에 대한 것이고 그 대상이 되는 것도 사람이다. 구직자, 노동자, 여성, 소비자, 학생과 교사 등 모든 사람은 인공지능의 영향을 받게 될 당사자임에도 인공지능 기술의 개발과 활용에 대해 발언하고 참여할 기회를 거의 보장받고 있지 못하다. 시민사회가 지난 정부와 국회에서부터 인공지능기본법이 제정되는 동안 꾸준히 의견을 제출하였으나 반영된 내용도 거의 없다.

우리는 정부가 인공지능기본법 시행령안에 대한 국가인권위원회의 의견을 수용할 것을 촉구한다. 인공지능기본법의 하위법령을 비롯한 모든 국가 인공지능 정책의 수립과 시행은 산업계 편향에서 벗어나 인공지능 위험으로부터 영향받는 사람을 보호할 수 있는 법적·제도적 기반을 갖춰야 할 것이다.

 

2025년 12월 29일

공공운수노조, 국민건강보험노동조합, 국제민주연대, 디지털정의네트워크, 문화연대, 미디어기독연대, 민주사회를위한변호사모임 디지털정보위원회, 민주주의법학연구회, 서울YMCA 시민중계실, 인권교육센터 들, 인권교육온다, 정보인권연구소, 참여연대, 표현의자유와언론탄압공동대책위원회, 한국소비자연맹