“진정성 있는 의견수렴으로 인공지능 위험으로부터 영향받는 시민을 보호해야”
내년 1월 22일 시행되는 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하, ‘인공지능기본법’)’의 하위법령안 초안들이 지난 9월 17일 공개되었다. 우리 시민단체들은 21대 국회에서 인공지능기본법이 처음 논의되던 무렵부터 22대 국회에서 인공지능기본법이 통과되고 2025년 시행을 앞둔 지금에 이르기까지, 인공지능의 위험으로부터 시민의 안전과 인권을 보호할 것을 일관되게 요구해왔다. 인공지능기본법의 시행령 제정방향에 대해서도 지난 4월 2일 <인공지능 기본법 하위법령에 대한 시민사회 의견서>를 제출하였다. 그러나 과학기술정보통신부(이하, ‘과기부’)는 인공지능의 위험으로 영향을 받는 시민의 안전과 권리 보호를 위한 제도적 장치가 필요하다고 주장해 온 시민단체의 의견 수렴에 진정성 있게 임해오지 않았다. 이에 9월 26일 진행될 인공지능기본법 시행령초안에 대한 과기부의 산업계, 시민사회 등 각계 면담을 앞두고 우리 단체들의 입장을 밝힌다.
우선 소관부처인 과기부는 “(2025년) 4월 11일부터 AI기본법 시행령초안 및 가이드라인의 제정과 관련해 각계각층의 의견을 폭넓게 수렴하고 있다”고 밝힌 바 있다. 그러나 이 의견수렴 과정은 철저하게 산업계에 치우쳐 인공지능기본법 제정 과정에서 의견을 밝혀온 시민단체들을 배제한 채 이루어졌다. 심지어 산업계는 법 자체의 시행유예를 주장하는 민원을 강하게 제기하였고, 산업계 출신인 배경훈 현 과기부 장관도 인사청문회에서 과태료 등 일부 조항을 유예하거나 완화해야 한다고 주장한 바 있다.
이재명 정부 들어 지난 8월 12일 처음으로 시민사회와 과기부의 면담이 있었다. 그러나 이는 인공지능기본법 시행령에 대한 의견수렴이 아니라 과기부 장관 후보자 인사청문회를 앞두고 질의한 내용과 장관 면담 요청에 대해 과기부가 답변하는 자리에 불과하였다. 이후 9월 8일 과기부가 공개한 <AI기본법 하위법령 제정방향>은 우리 단체들이 요구한 보호 규정을 단 한 군데도 반영하지 않았다. 산업계 의견수렴은 20회 이루어진 데 비해 시민단체 의견수렴은 단 2회에 불과했다. 그럼에도 해당 문서는 마치 시민단체 의견을 수렴한 것처럼 면담 단체들의 이름까지 구체적으로 명시하였다. 이러한 태도는 진정성 있는 의견수렴이라기보다는 시민단체 의견수렴을 거쳤다는 절차적 정당성을 확보하려는 의도에 불과한 것이 아닌지 의심스럽다.
한편, 9월 17일 과기부가 공개한 인공지능기본법의 시행령초안은 전반적으로 문제가 심각하다.
우리나라에서도 인공지능에 기반한 딥페이크 성착취물 확산, 생성형 허위조작정보의 유통, AI교과서 논란, 채용AI의 불공정성, 인공지능 도입으로 인한 대량 해고, 배달로봇 사고 등 인공지능 제품과 서비스가 시민의 안전과 인권에 미치는 위험이 이미 가시화되었으며, 앞으로 점점 더 증가할 것으로 예상된다. 인공지능기본법 시행령은 이러한 상황에서 시민의 안전과 기본권을 최소한으로 보호할 수 있는 장치를 마련하여야 할 과제가 있다.
특히 인공지능기본법이 기본법으로서 제대로 기능하기 위해서는 꼭 필요한 위험 규제가 이 법과 하위법령에 규정되어야 한다. 이를 통해서 AI채용 관련 규제 등 추후 우리 사회가 마련할 수 있는 분야별 인공지능 위험 규제가 이 법과 조화롭게 작용할 수 있을 것이기 때문이다. 만약 이 법과 하위법령에 규제를 면제하거나 예외로 취급하는 사항이 많아진다면 이후 개별 영역에서 등장하게 될 인공지능 위험 규제 관련 특별법들과 충돌하거나 원활하게 작용하기 어려워질 우려가 있다.
그러나 시행령초안은 그 제정 방향을 “규제보다는 진흥에 무게를 두고, 필요최소한의 규제를 합리적으로 마련하고 유연한 규제체계 도입”이라고 밝히고 있다(제정방향 p3). 이와 같은 방향은 인공지능 위험성에 대한 포괄적 규제체제를 도입한 유럽연합 등 글로벌 규범 동향에 반할 뿐 아니라 “국민의 권익과 존엄성을 보호”한다는 이 법의 목적(제1조)이나 “AI 산업 발전과 안전‧신뢰 기반 구축”이라는 두 가치를 균형적으로 표방하겠다는 입법 취지를 심각하게 훼손한다. 시행령 제정방향을 정함에 있어 인공지능으로 인해 피해를 입을 수 있는 영향을 받는 자를 포함하여 시민사회로부터 의견수렴이 부실했다는 점에서 산업 이익에 편향된 결과는 예견된 것이나 다름없다.
특히, 이번 시행령초안은 다음과 같은 점에서 심각한 문제가 있어 이후 의견수렴 과정을 거치면서 반드시 수정, 보완되어야 한다.
첫째, 우리나라 인공지능기본법은 유럽연합 인공지능법과 달리 공공장소 얼굴인식, 취약성 공격, 직장과 학교의 감정인식 등 인권침해소지가 큰 인공지능 시스템을 금지하고 있지 않다. 따라서 적어도 시행령의 고영향 인공지능에 관한 정의 및 책무 규정에서 안전과 인권에 위험한 인공지능과 그에 대한 조치를 충분히 규정하여야 마땅하다. 그럼에도 시행령초안에서 고영향 인공지능에 관한 규정은 법률에서 시행령으로 명시적으로 위임한 사항에 대해서조차 아무런 규정을 두지 않고 있다.
둘째, 하위법령안은 법령 규정 외적으로 ‘이용사업자’를 협소하게 해석함으로써 인공지능 제품이나 서비스를 업무에 사용하는 사업자를 모두 ‘이용자’로서 보고 일체의 책무를 배제하였다. 이로 인하여 병원, 채용회사, 금융기관 등 업무상 목적으로 인공지능을 이용하는 사업자가 환자, 채용 구직자, 대출 신청자 등 ‘영향받는 자’에 대해서 위험관리, 설명, 사람의 관리·감독 등의 책무를 지지 않아도 된다. “제공받은 제품 또는 서비스를 형태나 내용의 변경 없이 그대로 이용하는” 이용자와 달리, 인공지능을 “업무 목적으로” 이용하여 영향받는 자에 대하여 직접적인 영향을 미치는 병원, 채용회사, 금융기관 등 사업자는 ‘이용사업자’에 합당한 책무를 져야 한다.
셋째, 인공지능기본법은 국방 또는 국가안보 목적 인공지능을 적용범위에서 배제하고 있으나, 현재 국방 또는 국가안보 목적 인공지능을 규율할 수 있는 법안이 추진조차 되고 있지 않기 때문에, 가장 인권침해가 심각한 인공지능에 대한 규제 공백이 우려된다. 그럼에도 시행령초안은 국가안보핵심기술 등 ‘국방 또는 국가안보 목적으로만 개발ㆍ이용되는 인공지능’ 분야를 폭넓게 인정하고 있다. 이중용도(dual use)로 사용될 수 있는 인공지능은 국방 또는 국가안보 목적 예외가 적용되어서는 안 된다.
넷째, 시행령초안은 안전성 확보 의무가 적용되는 최첨단 인공지능(frontier AI)의 기준으로 ‘학습에 사용된 누적 연산량이 10의26승 이상’으로 매우 좁게 설정하고 있다. 그러나, 현재 이 기준을 충족하는 인공지능 시스템이 과연 몇개나 있을지 의문이다. 향후 기술 발전에 따라 기준을 변경하더라도 현재 주요 최첨단 인공지능을 포괄할 수 있도록 10의25승 이상으로 규정할 필요가 있다.
다섯째, 시행령과 고시, 가이드라인은 그 법적 지위가 상이하다. 특히 고영향 사업자 책무에 있어서 시행령은 “이행하여야” 하며(법 제34조 제1항), 고시는 “준수하도록 권고할 수 있다”고 정하고 있을 뿐이다(법 제34조 제2항). 권고에 불과한 사항에 대해서는 특히 비용이 많이 소요되는 조치의 경우 사업자의 준수를 기대하기 어렵고 위반시 제재도 어려울 수밖에 없다. 그럼에도 시행령초안에는 명시되어야 마땅한 중요한 사항에 대해서 아무런 언급을 하지 않고, 고시나 가이드라인에만 기재되어 있는 경우가 많았다. 특히 법률이 위임한 중요 사항과 국민의 권리 의무에 직접적인 영향을 미치는 사항에 대해서는 반드시 시행령에 규정하여야 할 것이다. 따라서 고영향 인공지능 사업자의 책무에 대한 고시 및 가이드라인의 주요 내용은 시행령으로 규정하여야 한다.
여섯째, 시행령초안은 법률에서 위임하지 않은 사실조사의 면제를 규정하거나 상당 기간(미상)의 계도기간을 운영하도록 하였다. 인공지능 제품 및 서비스로 인한 안전 사고나 인권 침해가 발생하여도 국가가 최소한의 행정 조사를 포기하거나 사실상 과태료를 미부과하겠다는 방침(제정방향 p5)인 것이다. 사실조사와 과태료에 대해서는 기업들이 많은 민원을 제기한 바 있는 만큼, 그 면제 또는 유예는 시민 안전이나 인권 보호보다 기업 민원을 중시한 결과가 아닌지 의문스럽다. 이러한 전반적인 규제 설계는, 당분간 소비자를 비롯하여 그 영향을 받는 사람을 보호할 수 있는 설명 방안이나 사람의 관리‧감독, 문서의 작성‧보관 등 책무를 다하지 않고 인공지능 제품이나 서비스를 시장에 출시하여도 된다는 신호를 국가적 차원에서 공식화한 것이나 다르지 않다.
우리 단체들은 하위법령안이 산업 진흥을 위해 인공지능의 위험으로부터 영향을 받는 시민의 안전과 인권을 희생시키고 있다는 점에서 깊은 실망을 표한다. 시행령, 고시, 가이드라인을 비롯한 인공지능기본법 하위법령안의 남은 제정 과정에서는 시민의 안전과 인권을 보호하기 위한 장치가 반드시 보완되어야 할 것이다.
2025년 9월 25일
민주사회를위한변호사모임 디지털정보위원회, 정보인권연구소, 진보네트워크센터, 참여연대