- 인공지능의 편익 보호와 기본권 보호 균형 보이지 않아
- 고위험인공지능 규제 위한 책무 부실 및 벌칙 조항 없어
- 규제의 실효성 담보 불가능
- 오늘(2/16) 민변 디지털정보위원회, (사)정보인권연구소, 진보네트워크센터, 참여연대 등 4개 단체는 지난 2021년 11월 24일 국회 과학기술정보방송통신위원회 윤영찬 의원이 대표발의한 「알고리즘 및 인공지능에 관한 법률안」(이하, ‘인공지능법안’)에 대해 공동 입법 의견서를 국회에 제출하였다. 4개 단체는 인권과 프라이버시 등 기본권에 미칠 부정적 영향을 최소화하거나 예방할 균형잡힌 접근방식이 필요함에도 윤영찬인공지능법안은 이런 균형이 보이지 않는다고 비판했다. 특히 유럽연합의 인공지능법안이 도입한 위험기반 접근방식을 일부 차용하여 고위험인공지능 규제를 시도하고 있으나 대상, 규제내용, 벌칙 등에서 실효성 있는 방안이라고 보기 어렵다고 지적했다. 시민사회는 국회 법안 심사과정에서 시민사회를 비롯한 다양한 정보주체들의 의견을 반영하여 인공지능이 가져올 사회·경제적 편익을 보호하는 한편으로 인공지능 개발과 이용 환경에서 소비자 보호, 개인정보 보호 등 기본권 보호라는 기존 법률 집행의 난점을 해소하고 헌법이 보호하는 기본권 침해를 방지하는 입법이 이루어질 것을 요구했다.
- 단체들은 우선 이번 인공지능법안이 알고리즘 및 인공지능을 규율하는 일반적, 기본적 제정법이 되기 위해서는 인공지능 개발사업자, 이용사업자뿐 아니라 그 영향을 받는 당사자/시민 등 이해관계자 모두의 의견 수렴이 필수적이라고 강조했다. 지난 1월 25일 개최한 공청회에서도 알고리즘과 인공지능의 영향을 받는 당사자인 권리 주체 이해관계자나 이를 대표하는 이들의 의견수렴이 전혀 이루어지지 않았다고 지적했다.. 단체들은 사회 전반에 미칠 영향이 더욱 가속화될 알고리즘과 인공지능이라면 기술과 산업을 육성하는 것을 고유 업무로 하는 과기부가 주도할 것이 아니라 개인정보보호위원회, 공정거래위원회, 국가인권위원회 등이 반드시 참여해야 한다고 밝혔다.
- 또한 단체들은 인공지능 기술 등 지능정보화의 국가경쟁력을 확보하는 등의 목적으로 「지능정보화 기본법」이 있음에도 유사한 취지의 제정법률안을 추진하는 사회적 필요성과 국민의 기본권 보호의 실효성을 확인할 수 없어 입법의 목적도 불분명하다고 지적했다. 미국(연방거래위원회 FTC)과 유럽연합(2021. 4. 의회발의 인공지능법안)의 경우 각국 시장감독기관과 개인정보보호감독기관들이 인공지능 규제의 집행을 소관하고 있으며 특히 유럽연합 인공지능법안은 그 입법 취지에서 인공지능 알고리즘의 불투명성이 불확실성을 유발하고 안전 및 기본권리에 대한 기존 법률의 효과적인 집행을 방해할 수 있다는 점을 강조하고 있다.
- 단체들은 윤영찬 인공지능법안이 유럽연합의 인공지능의 위험기반 접근법에서 고위험인공지능 규제를 차용하면서도 고위험인공지능의 정의, 개발사업자, 이용사업자 등의 책무, 의무가 부실하고 규범 위반에 대한 벌칙 조항을 두지 않아 규제의 실효성이 의심스럽다고 지적하였다. 첫째, 고위험인공지능의 정의에서 ‘인간의 생명과 관련된 인공지능’ 등 모호하게 규정하고 있거나, 장난감, 무선장비, 무인항공기 등 일부 인공지능 제품, 플랫폼기업의 자영업 접근에 사용되는 인공지능, 입시 등 교육 관련 인공지능, 사법 분야 인공지능을 제외하고 있다. 둘째, 고위험인공지능의 위험에 대해 이용자 및 이해관계자 등에게 알리게 하면서도 기업의 영업비밀에 대해서 일률적으로 제외하는 문제가 있다. 특히 영업비밀에 대한 구체적 기준을 제시하지 않아 투명성을 제대로 보장하지 못한다. 셋째, 고위험인공지능에 요구되는 책무 수준이 너무 낮아서 그 규제 효과의 실효성이 의문스럽다. 고품질 데이터셋 의무 및 정확성과 견고성 등 기업에서 민감하게 생각해온 이슈를 제외하고 있고, 시장 출시 사업자에게 요구되는 영향평가, 일반 공개, 감독기관 협조 및 준수 등 핵심적으로 요구되는 의무를 제외하고 있다. 이용사업자에게 추상적인 모니터링과 고지 의무만 부과하였을 뿐, 모니터링으로 포착된 위험에 대한 후속 조치에 대하여 아무런 의무를 규정하지 않는 것도 문제이다. 넷째, 인공지능의 대상이 되는 당사자에 대한 보호 규정은 자료 접근 및 손해배상 등 권리구제에서 오히려 불리하게 규정되어 있다. 정보의 비대칭성을 고려하지 않고 피해를 주장하는 당사자가 피해입증을 해야 할 뿐 아니라 복잡한 단계를 거치도록 해서 피해자인 당사자의 권리 구제를 어렵게 하고 있다. 무엇보다 알고리즘 및 인공지능의 개발의 기본 원칙 준수 감독, 관련 조사, 심의 등을 기업 또는 기관 내부에 자율적으로 둘 수 있는 알고리즘 및 인공지능 윤리위원회 또는 민간자율 인공지능윤리위원회가 시행하도록 하여 규제의 실효성을 담보하기 어렵다. 다섯째, 인공지능이 가져다 줄 편익을 확대하고 신뢰할 수 있는 인공지능을 구현하기 위해서는 국민의 안전과 기본권 보호를 담보하는 균형 잡힌 거버넌스 체계가 필요하나 윤영찬 인공지능법안은 이를 담고 있지 못하다. 인공지능은 기술, 데이터 공학 분야만의 문제가 아니라 범사회적 차원의 문제로 인공지능이 개인이나 사회에 미칠 부정적 영향에 효과적으로 대비하기 위해 과학기술산업부처가 아닌 개인정보보호기관, 국가인권기구, 소비자 보호기관 등이 함께 규율해야 한다.
- 단체들은 윤영찬 인공지능법안이 고위험 알고리즘과 인공지능이 개인 및 사회에 미칠 부정적 영향을 실질적으로 완화하는 균형있는 접근보다는, 형식적 규제로 관련 사업자를 보호하고 산업을 육성하는 데 편중되어 있다고 지적했다. 이미 고위험 인공지능 규제를 도입하였거나 추진하고 있는 다른 국가의 경우처럼 시장반독점/공정거래 등을 소관하는 시장감독기관, 국가 개인정보보호 감독기관, 국가인권기구가 공동으로 규제하는 것이 바람직하다는 입장이다. 단체들은 인공지능이 가져올 기회와 도전은 관련 산업 분야에 한정된 것이 아니라 전 사회, 전 국가적 차원이며 이에 대한 대응도 이와 같은 관점에서 모색해야 할 것이라고 강조했다. 또한 국회가 법안 심의 과정에서 심도있는 논의와 토론을 이어가길 바란다고 밝혔다. 끝.
▣ 별첨 : 윤영찬 인공지능법안 시민사회 의견서