Skip to main content

「인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안(소위안)」에 대한 인권시민단체 의견

By 2023-03-026월 23rd, 2023알림

15개 인권시민단체, 국회 과방위 법안심사소위 통과한 인공지능육성법안 반대 의견서 제출

- 국제인권규범 및 해외입법례에 비춰 안전과 인권에 미치는 인공지능 위험 규제 전무, 입법 필요성도 의문
- 국민안전, 인권침해 여부불문 선사용, 후규제 독소조항 폐기해야

[보도자료와 의견서를 PDF파일로 보기]

  1. 15개 시민사회단체는 오늘(3/2) 지난 2/14 과방위 정보통신방송법안심사소위를 통과한 「인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안(이하, ‘인공지능법안’)」에 대해 국회 과방위에 반대 의견서를 제출하였다. 단체들은 의견서에서 이번 인공지능법안은 입법 취지와 목적인 “국민의 권익과 존엄성을 보호하고 국민의 삶의 질 향상”에 부합하지 않을 뿐만 아니라, 현행 지능화정보법과도 목적과 내용이 유사해 입법의 필요성도 의문이며, 국제인권규범 및 해외 입법정책의 예에 비추어 안전과 인권에 미치는 인공지능 위험 규제의 효과를 제대로 담보할 수 없고, 소관 부처도 적절하지 않아 전면 재검토할 것을 요구했다.
  2. 인공지능은 이미 기술,공학의 영역을 넘어 사회, 경제, 법률 등 전영역에 영향을 미치고 있다. 또한 인공지능의 편의성 이면에 데이터 결함과 오작동 가능성, 알고리즘의 불투명성과 공정성 문제 등 인공지능의 인권 침해와 차별적 효과에 대한 우려가 끊이지 않고 있다. 이미 2020년 유엔사무총장(A/HRC/43/29)은 인공지능 사용에 대한 책임성을 완전하게 보장하는 적절한 법률체계와 절차방법을 마련하고 감독 체제를 수립하며 인공지능의 피해에 대한 구제 수단을 구비할 것을 각국에 권고하였으며, 유엔인권최고대표(A/HRC/48/31)는 2021.9. <디지털시대 프라이버시권 보고서>에서 공공과 민간 인공지능 사용의 부정적인 인권 영향을 방지하고 완화하는 인권실사와 피해자를 구제하는 규제 체계의 도입을 요구하였다. 
  3. 유럽연합 <인공지능법안(AI Act)>은 인공지능의 위험도를 금지/고위험/저위험/허용 등 4개로 구분하고 각각에 대한 규제 사항을 구체적으로 규정하고 있으며 특히 개인정보 보호, 소비자 보호, 차별 금지 및 성평등에 관한 기존 정책 및 법체계와의 일관성을 가지고 이를 보완하며 침범하지 않는다는 원칙을 명시하고 있다. 미국도 주요 의사결정에 사용되는 인공지능 시스템의 책무성을 강화하기 위한 <알고리즘 책무성법안>과 빅테크 알고리즘의 편향성 및 표적광고를 규제하는 <연방상하원 6개 빅테크 규제법안> 패키지 입법을 추진하고 있다. 영국과 캐나다도 국가의 인공지능 공공 조달에서 인공지능시스템에 대해 사전영향 평가, 투명성과 설명가능성 보장, 데이터 편향방지 및 품질 보장, 구제수단 마련 등을 요구하는 규제를 이미 시행 중이다. 우리나라 국가인권위원회는 2022년 5월 <인공지능 개발과 활용에 관한 인권 가이드라인>을 발표하고 △개인의 인권과 안전에 미치는 위험성별로 걸맞은 수준의 규제와 인적 개입, △인공지능을 독립적이고 효과적으로 감독할 수 있는 체계 수립, △인공지능 때문에 피해를 입은 사람이 권리구제를 받을 수 있는 기회를 제공할 것 등의 내용으로 하는 입법을 정부에 권고하였다. 이처럼 국내외에서 이루어진 입법 추진 동향과 연구 및 논의 내용을 종합하면, 현 시점에서 제정되는 인공지능 관련 기본법은 적어도 인공지능의 위험을 효과적으로 규제하고, 이를 위한 감독 체계를 수립하며, 권리구제에 대한 내용이 구체화되어야 함은 자명하다.
  4. 그러나 이번 소위를 통과한 인공지능법안은 국내외기준이 요구하는 수준을 충족하지 못할 뿐만 아니라 광범위한 규제완화와 과기부를 소관부처로 하여 일임하는 규정들로 인하여 오히려 국민의 안전과 인권을 큰 위험에 처하게 한다고 단체들은 지적한다. 특히 소위안 제11조 “우선허용·사휴규제 원칙”은 인공지능의 위험성에 대한 효과적인 감독과 피해 구제를 규정하지 않고, 위해가 있을 수 있는 인공지능을 시장에 우선적으로 출시할 수 있도록 하고 있어 가장 문제가 되는 독소조항이라고 지적했다. 이런 방식은 국내외에서 권장하고 있는 인공지능 입법기준뿐 아니라 주요국가의 인공지능법안의 방식과도 상치된다고 주장했다. 이들 국가들은 국가가 인공지능 제품의 안전과 인권기준 준수여부를 감독하고 피해를 구제하도록 하고, 특히 유럽연합 인공지능법안의 경우 제품적합성 평가 기관, 또는 시장 감시와 관련된 기존의 규제기관들이 규제를 우선 집행하고 우리의 과기부같은 인증이나 기술부처는 그 기준을 반영하도록 규정하고 있다. 또한 소위안은 관련 법령 및 제도를 '선 허용 후 규제'라는 잘못된 원칙에 맞게 개악하도록 하고 있어 인공지능의 위험성으로부터 국민의 안전과 인권을 보호하지 못할 뿐 아니라, 이후 소위안에 규정된 고위험 규제조차 모두 형해화시켰다는 점에서 매우 심각한 독소조항이라 폐기하는 것이 타당하다고 설명했다.
  5. 결론적으로, 단체들은 의견서에서 이번 과방위 소위 통과 법안은, △인공지능 산업에 대한 안전과 인권 보장 규제를 모두 완화한 점, △ 「지능정보화 기본법」과 입법목적과 소관하는 내용 대부분이 유사 또는 중복되어 별도 입법의 필요성이 낮고, △ 인공지능윤리 및 신뢰성과 관련한 법령의 정비 등 제도 개선 업무 등 인공지능과 사회정책 일반을 과기부가 소관하는 것은 부적절하며, △우선허용, 사후규제 원칙은 안전과 인권을 보호하기 위한 다른 법률의 정당한 조치와 다른 규제기관의 업무를 침범하고, △ 현행 지능정보화기본법과달리 고위험 인공지능을 정의하고 있기는 하나 고위험 인공지능의 정의가 자의적이며 부분적이며, △고위험 인공지능 규제가 형식적이어서 실질적인 위험 방지 장치를 갖추지 못하는 등의 심각한 문제를 가지고 있어 전면 재검토가 필요하다고 지적했다.    
  6. 인공지능이 기술, 공학의 영역을 넘어 사회, 경제, 법률 등 전사회적 영역을 아우르는 현실에서 현행 지능정보화기본법의 수준을 넘어서는 국가수준의 인공지능에 대한 기본법을 제정한다면, 인공지능 기술과 제품이 국민의 안전과 인권에 미치는 위험을 방지하고 조치하는 규제기관의 작용과 감독 정책을 효과적으로 집행하고, 피해자를 구제하며, 위반시 처벌하는 내용을 반드시 포함하여야 할 것이다. 챗GPT를 비롯한 인공지능 제품과 서비스, 공공 의사결정이 오류, 안전, 인권에 미치는 위험성이 그 어느 때보다 높아지는 현재 시점에 제정되는 인공지능 기본법이, 과기부가 소관하는 인공지능 산업 진흥을 위하여 다른 규제기관 업무를 방해하고 국민의 안전과 인권을 위험에 처하게 하는 내용이어서는 안될 것이다. 이에 15개 인권시민단체는 과방위 전체회의에서 법안을 전면 재검토할 것을 요구하며 의견서를 제출한다고 밝혔다.  끝. 

2023. 3. 2.

경제정의실천시민연합, 광주인권지기 활짝, 무상의료운동본부, 민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 서울YMCA 시민중계실, 언론개혁시민연대, 연구공동체 건강과대안, 전국민주노동조합총연맹, 전국사무금융서비스노동조합, 전북평화와인권연대, 진보네트워크센터, 참여연대, 천주교인권위원회, 홈리스행동

▣ 붙임 : 「인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안(소위안)」에 대한 인권시민단체 의견서


붙임)

「인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안(소위안)」에 대한 인권시민단체 의견

- ‘세계 최초로’ 인공지능 산업에 대한 안전과 인권 보장 규제를 모두 완화하고 과기부와 그 산하기관이 독점하는 입법에 반대함

 

▣ 인공지능 관련 입법의 필요성과 동향

◎ 인공지능의 위험성은 안전과 인권적 측면에서 여러 문제들이 지적되어 왔으며, 우리나라의 상황 역시 이와 다르지 않음

  • 안전의 문제 : 자율주행차의 보행자 사망 사고, 경비로봇의 유아 공격, 인공지능 스피커의 오주문 등 인공지능 제품은 그 편의성 이면에서 크고 작은 문제를 일으켜 왔음. 특히 데이터 결함, 오인식 등으로 오작동할 가능성이 지적되어 왔으며, 데이터·알고리즘·제품 개발 과정에서 직간접적으로 연루된 수많은 제조자, 판매자, 사용자 간 책임 문제가 복잡하고, 제조자-사용자 간 정보 격차가 크다는 점이 문제로 지적되어 왔음. 제품 안전 및 소비자보호 등을 소관하는 규제 당국의 효과적인 조사와 조치를 가능하게 하는 법적 기반 또한 요구되어 왔으나, 과학기술정보통신부는 지금까지 선개발, 후규제의 태도로 관련 문제제기를 외면함.
  • 인권의 문제 : 인공지능 챗봇 이루다의 혐오발언과 개인정보보호법 위반, 법무부 출입국 인공지능 식별추적 시스템의 내외국인 얼굴정보 무단 이용, AI면접 및 채용 프로그램의 불투명성과 공정성 문제 등 우리나라에서도 인공지능의 인권 침해와 차별적 효과에 대한 사회적 우려가 커져 왔음.  
  • 인공지능 제품과 서비스는 이미 우리 일상 곳곳에 널리 도입되어 있음. 학교나 가정에서 사용되는 인공지능 스피커, 검색이나 배달앱 등 플랫폼에서 사용되는 알고리즘, 생활공간 곳곳에서 마주치기 시작한 배달로봇, 의료진단에 사용되는 인공지능, 보험이나 대출 등 금융서비스에서 사용되는 알고리즘, 사회복지 부정수급방지AI 및 인공지능 치안 등 공공부문 의사결정에 사용되는 인공지능, 공공장소의 얼굴인식 등이 이미 사용되고 있음. 이들 중 어떤 인공지능은 생계나 안전, 인권에 위험한 영향을 미칠 수 있으며, 앞으로 사람에게 영향을 미치는 의사결정이 인공지능에 기반하여 이루어지는 사례가 더욱 많아질 것으로 예상됨.
  • 최근 많은 주목을 받고 있는 오픈AI사의 챗GPT, 구글의 바드, 마이크로소프트의 검색엔진 빙 등 인공지능 챗봇과 검색 엔진은 오남용 및 계속된 오류로 인하여 표절, 사기 및 잘못된 정보를 확산시킬 수 있다는 지적을 받고 있음. 그 위험성과 윤리 문제가 계속 지적되어  챗GPT 개발책임자조차 규제 필요성을 인정한 가운데, 미국 상원에서 챗GPT 규제법이 발의되기도 하였음. 국내에서도 챗GPT는 이완용을 ‘조선의 독립운동가’로 답하는 등 여러 오류 사례가 발견되었음. JP모건·버라이존은 챗GPT의 업무상 사용을 금지하였음. 그러나 우리나라 일부 지자체와 교육기관은 챗GPT에 대한 면밀한 검토 없이 행정과 교육 업무에 활용할 계획을 밝혀 매우 우려스러운 상황임.
  • 이에 인공지능과 사회 정책에 대한 입법은 반드시 안전과 인권에 대한 위험을 국가적으로 감독하고 피해를 구제할 수 있는 내용과 체계가 포함되어야 한다는 공감대가 국내외에서 널리 형성되어 왔음.

◎ 인공지능 입법에 대한 국내외 규범 및 기준은 다음과 같은 입법 내용을 요구하여 왔음.

  • 유엔 사무총장(A/HRC/43/29)은 인공지능 등 신기술 환경에서 인권을 보장하기 위하여 국가가 민간 부문에 관한 조치를 포함하는 내용의 법률을 입법하고 준수할 의무가 있다고 지적하였음. 더불어 입법 내용에서 인공지능 사용에 대한 책임성을 완전하게 보장하는 적절한 법률체계와 절차 방법을 마련하고 감독 체제를 수립하며 인공지능의 피해에 대한 구제 수단을 구비할 것을 권고하였음.
  • 유엔인권최고대표(A/HRC/48/31)는 공공과 민간 인공지능 사용의 부정적인 인권 영향을 방지하고 완화하는 인권 실사와 피해자를 구제하는 규제 체계의 도입을 요구하였음. 특히 최고대표는 인공지능에 대한 입법 및 규제가 포함해야 할 내용에 대하여 상세하게 다루었음. 입법 조치는 인공지능에 대한 적정하고 독립적이고 공정한 감독 체계를 포함해야 하고, 감독 시스템은 개인정보보호 감독기구, 소비자 보호 기관, 부문별 규제 기관, 차별 방지 기구 및 국가 인권 기구를 포함하여야 함. 
유엔인권최고대표 <디지털시대 프라이버시권> 보고서(A/HRC/48/31)

IV-B. 입법 및 규제 제안

  • 데이터 기반 인공지능 시스템에 대하여 개인정보보호법과 독립적인 개인정보 보호 감독 기관으로 효과적으로 규제하고 정보주체의 권리를 보호하여야 함.  
  • 인공지능 규제는 특히 법 집행, 국가안보, 형사사법, 사회보장, 고용, 보건의료, 교육 및 금융 등 개인의 이해관계가 특히 높은 분야가 우선시되어야 함.  
  • 고위험 인공지능 규제는 국제 인권법하에서 정당화되지 않는 인공지능에 대한 금지를 요구해야 함.
  • 차별 금지와 본질적으로 충돌하는 인공지능의 사용은 허용되어서는 안 되며, 국가는 해당 시스템의 사용과 판매를 규제하여야 함. 
  • 인권에 부정적인 영향을 미칠 가능성이 있는 인공지능에 대해서는 인간의 감독 및 의사결정의 의무적 개입이 규정되어야 함. 
  • 특히 원격 실시간 얼굴 인식과 같은 잠재적인 고위험 기술의 사용에 대해서는 유예(모라토리엄)하여야 함.
  • 인공지능의 위험성에 대해서 적정하고 독립적이고 공정한 감독 체계를 수립하여야 함. 이러한 감독 체계에는 개인정보보호 기관, 소비자 보호 기관, 부문별 규제 기관, 차별방지기구 및 국가인권기구가 참여하여야 함.
  • 국가인권위원회는 2022년 5월 <인공지능 개발과 활용에 관한 인권 가이드라인>을 국무총리와 관련 부처 장관에게 권고하면서 인공지능 입법에 필요한 사항을 구체적으로 제시하였고, 과학기술정보통신부를 비롯한 정부는 이 권고를 수용하겠다고 회신한 바 있음. 국가인권위원회의 입법 권고는 △개인의 인권과 안전에 미치는 위험성별로 걸맞은 수준의 규제와 인적 개입, △인공지능을 독립적이고 효과적으로 감독할 수 있는 체계 수립, △인공지능 때문에 피해를 입은 사람이 권리구제를 받을 수 있는 기회를 제공할 것 등을 요구함. 
    • 국가인권위원회는 “특히, 당사자의 개인의 생명이나 안전 등 기본적 인권에 중대한 영향을 미치는 인공지능은 투명성과 설명 가능성, 개인 정보 보호, 차별 금지 등 그 규제에 있어서 공공과 민간의 구분 없이 엄격하게 적용되어야” 한다고 강조하였음. 
  • 120개 시민사회단체는 2021년 5월 <인권과 안전, 민주주의가 보장되는 인공지능 정책을 요구하는 시민사회 선언>에서 인공지능 입법에 있어 인공지능 제품과 시스템을 국가적으로 감독하는 체계를 수립하여야 하고, 인공지능을 감독하는 역할은 산업부처나 기술부처가 아니라 공정거래위원회, 국가인권위원회, 개인정보보호위원회가 수행해야 마땅하다고 지적한 바 있음.

◎ 주요 국가는 인공지능이 안전과 인권에 미치는 위험을 규제하기 위한 입법을 추진하여 왔음. 

  • 연내 제정되어 세계적인 표준이 될 것으로 관측되는 유럽연합 <인공지능법(AI Act)>은 인공지능의 위험도를 금지/고위험/저위험/허용 등 4개로 구분하고 각각에 대한 규제 사항을 구체적으로 규정하였음. 
    • 고위험 인공지능 규제를 비롯하여 이 법의 규제를 소관하는 각국 감독 기관으로는 제품 적합성 평가 기관 또는 시장 감시와 관련된 기존의 제도(conformity assessment bodies or market surveillance)를 활용하도록 함.
    • 챗GPT와 같은 일반AI(GPAI)로부터 시민의 안전과 인권을 보호하기 위한 규제 내용도 추진할 예정임.
    • 이 법안은 특히 개인정보 보호, 소비자 보호, 차별 금지 및 성평등에 관한 기존 정책 및 법체계와의 일관성을 가지고 이를 보완하며 침범하지 않는다는 원칙을 명시하고 있음.
유럽연합 인공지능법안 (2021. 4. 21.)

전문 1.2. 정책 분야에서 기존 정책 조항과의 일관성

  • 본 제안의 수평적 성격은 고위험 AI 시스템이 이미 사용되고 있거나 가까운 미래에 사용될 가능성이 있는 부문에 적용되는 기존 유럽 연합 법규와의 완전한 일관성을 요구한다.
  • 또한, EU 기본권 헌장과 데이터 보호, 소비자 보호, 차별 금지 및 성평등에 관한 기존의 유럽 연합 2차 입법을 통해서도 일관성이 보장된다. 
  • 본 제안은 유럽 일반 개인정보 보호법(Regulation (EU) 2016/679)과 법 집행 지침(Directive (EU) 2016/680)을 침해하지 않으며, 특정한 고위험 AI 시스템의 설계, 개발, 사용에 적용되는 일련의 조화 법령과 원격 생체 인식 시스템의 특정한 사용에 대한 제한으로 이를 보완한다.
  • 나아가, 본 제안은 특히 AI 시스템의 개발에 사용되는 데이터세트의 설계 및 품질과 관련하여 알고리즘에 의한 차별의 위험을 최소화하는 것을 목표로 하는 특정 요구사항과 AI 시스템의 수명주기 전반에 걸친 테스트, 위험 관리, 기록 및 인간의 감독에 대한 의무를 통해 차별 금지에 관한 기존의 유럽 연합 법규를 보완한다. 
  • 본 제안은 유럽 연합 경쟁법의 적용을 침해하지 않는다.
  • 미국 정부와 의회는 2021년 바이든 행정부 출범 이후, 주요 의사결정에 사용되는 인공지능 시스템의 책무성을 강화하고(연방 상하원 알고리즘 책무성법안) 빅테크 알고리즘의 편향성 및 표적광고를 규제(연방 상하원 6개 빅테크 규제법안 패키지)하기 위한 입법을 추진하여 옴.
    • 이 법안들은 불공정거래 규제와 소비자 보호를 주무하는 연방거래위원회(FTC)의 소관임
    • 2022. 10. 백악관은 AI 권리장전을 발표하여 인공지능의 인종·성차별 등 부작용을 최소화할 것을 요구함. 
    • 2023. 1. 11. 바이든 대통령은 워싱턴포스트에 직접 기고하여 규제 법안의 조속한 입법을 촉구하여 화제가 되었음.
  • 영국 <인공지능 조달 지침>이나 캐나다 <자동화된 의사결정 훈령> 등 주요 국가의 인공지능 공공 조달 규범의 경우, 공공부문 업무와 그 의사결정에 사용되는 인공지능 시스템에 대하여 사전영향평가, 투명성과 설명가능성 보장, 데이터 편향 방지 및 품질 보장, 구제수단 마련 등을 요구하는 규제를 이미 시행 중임.

◎ 이처럼 국내외에서 이루어진 입법 추진 동향과 연구 및 논의 내용을 종합하여 보면, 현 시점에서 제정되는 인공지능 관련 기본법은 적어도 인공지능의 위험을 효과적으로 규제하고, 이를 위한 감독 체계를 수립하며, 권리구제에 대한 내용이 구체화되어야 함.

  • 소위안은 국내외 기준이 요구되는 수준을 충족하지 못할 뿐더러, 광범위한 규제 완화와 과학기술정보통신부의 무리한 소관 규정들로 인하여 오히려 국민의 안전과 인권을 큰 위험에 처하게 함.
  • 특히 우리나라에서는 인공지능 행정처분을 가능하게 한 행정기본법(제20조)이 이미 2021년부터 제정, 시행되고 있음. 그러나 공공과 민간의 중요한 조치나 의사결정에 사용될 인공지능 시스템의 개발이나 활용에 있어, 그 위험 영향을 평가하거나 완화할 의무, 출시 전 검사하거나 사후에 모니터링할 의무, 개발이나 운영 중 문서화하거나 기록할 의무, 데이터 편향이나 오류를 방지할 의무, 작동에 대해 투명하게 설명할 의무, 인간이 관리감독할 의무, 시스템의 견고성·정확성·보안성 등을 규정하는 법적 보호 장치는 전혀 마련되어 있지 않음.

▣ 인공지능 산업 진흥에 대한 기본법을 중복제정하는 것에 반대함

【소위안】

제1조(목적) 이 법은 인공지능산업을 진흥하고 인공지능사회의 신뢰 기반 조성에 필요한 기본적인 사항을 규정함으로써 국민의 권익과 존엄성을 보호하고 국민의 삶의 질 향상과 국가경쟁력을 강화하는 데 이바지함을 목적으로 한다.

제4조(다른 법률과의 관계) ① 인공지능, 인공지능기술, 인공지능산업 및 인공지능사회(이하 “인공지능등”이라 한다)에 관하여는 다른 법률에 특별한 규정이 있는 경우를 제외하고는 이 법에서 정하는 바에 따른다.
  ② 인공지능등에 관하여 다른 법률을 제정하거나 개정하는 경우에는 이 법의 목적에 부합되도록 하여야 한다.

  • 소위안은 다른 법률과의 관계 등에서 기본법으로서 지위를 규정하고 있음. 특히 이 법을 소관하는 과학기술정보통신부가 기존에 소관하여 온 분야인 인공지능 기술이나 산업에 관한 진흥뿐 아니라 인공지능 일반과 인공지능사회에 대한 모든 사항을 이 법에서 정하는 바에 우선 따르도록 하였음. 
    • 향후 다른 부처가 인공지능 정책과 관련된 다른 법률을 제정하거나 개정하는 경우에도 이 법의 목적에 귀속됨.
  • 그런데 인공지능 기술과 산업에 대한 기본법으로는 같은 부처 소관으로 「지능정보화 기본법」이 이미 시행 중임. 
    • 지능정보화 기본법의 목적 또한 “지능정보화 관련 정책의 수립ㆍ추진에 필요한 사항을 규정함으로써 지능정보사회의 구현에 이바지하고 국가경쟁력을 확보하며 국민의 삶의 질을 높이는 것을 목적으로” 한다는 점에서 소위안과 유사함.
    • 지능정보화 기본법에서 지원하는 지능정보기술에 대한 정의 역시 “전자적 방법으로 학습ㆍ추론ㆍ판단 등을 구현하는 기술”이라고 규정되어 있으며, 이는 소위안이 “학습, 추론, 지각, 판단, 언어의 이해 등 인간이 가진 지적 능력을 전자적 방법으로 구현한 것”이라고 정의한 것과 큰 차이가 없음.
    • 지능정보화 기본법 또한 지능정보기술(인공지능)과 관련한 종합계획, 실행계획, 추진계획을 수립하도록 하였으며, 정부가 인공지능 기술의 개발과 보급을 촉진하기 위한 정책을 추진하도록 하였고, 인공지능 기술 개발의 실용화·사업화를 지원하는 한편, 필요한 재원을 확보하도록 하였음.
  • 결국 소위안은 이미 시행 중인 지능정보화 기본법의 목적과 소관하는 내용 대부분이 유사하거나 중복됨.
    • 소위안에 병합된 7개 법률안(이상민안, 양향자안, 민형배안, 정필모안, 이용빈안, 윤영찬안, 윤두현안)에 대한 전문위원의 검토보고서 또한 많은 내용이 지능정보화 기본법과 유사·중복되며, 두 법의 관계가 모호하다는 점을 지적하였음(이상민안, 양향자안, 민형배안, 이용빈안, 윤영찬안에 대한 검토보고서).
    • 다른 부처 또한 위원회 역할이 다른 법률과 유사·중복된다거나(행정안전부, 정필모안에 대한 의견), 나아가 별도 입법 필요성이 낮아 전반적인 재검토가 필요하다는 의견이었음(산업통상자원부, 이상민안·양향자안·민형배안·정필모안에 대한 의견)
  • 소위안은 지능정보화 기본법과 유사하거나 중복된 내용으로 인공지능 기본법을 제정하면서, 국민의 안전과 인권 보호를 위한 규제 업무를 완화하고 침범하는 규정들을 두고 있음. 이는 소위안의 진정한 제정 목적으로 의심되며, “국민의 권익과 존엄성을 보호”한다고 명시한 이 법의 목적이 매우 형식적이라는 사실을 드러냄.

▣ 과학기술정보통신부가 인공지능과 사회정책 일반을 소관하는 것에 반대함

【소위안】

제2조(정의) 이 법에서 사용하는 용어의 뜻은 다음과 같다.
4. “인공지능윤리”란 인간의 존엄성에 대한 존중을 기초로 하여, 국민의 권익과 생명ㆍ재산이 보호받을 수 있는 안전하고 신뢰할 수 있는 지능정보사회(「지능정보화 기본법」 제2조제6호에 따른 지능정보사회를 말한다)를 구현하기 위하여 인공지능의 제작, 개발, 보급, 이용 등 모든 영역에서 사회구성원이 지켜야 할 윤리적 기준을 말한다.
8. “인공지능사회”란 인공지능을 통하여 산업ㆍ경제, 사회ㆍ문화, 행정 등 모든 분야에서 가치를 창출하고 발전을 이끌어가는 사회를 말한다.

제18조(제도개선 등) ① 과학기술정보통신부장관은 인공지능산업 진흥 및 인공지능 신뢰성 제고를 위하여 법령의 정비 등 관련 제도를 개선할 수 있도록 노력하여야 한다.

제23조(인공지능 윤리원칙 등) ① 정부는 인공지능사업자 및 이용자가 인공지능의 개발ㆍ이용과정에서 지켜야 할 다음 각 호의 사항을 포함하는 인공지능 윤리원칙(이하 “윤리원칙”이라 한다)을 대통령령이 정하는 바에 따라 제정ㆍ공표할 수 있다.
  1. 인공지능의 개발ㆍ활용 등의 과정에서 인간의 생명과 신체, 정신적 건강 등에 해가 되지 않도록 하는 안전성과 신뢰성에 관한 사항
  2. 인공지능기술이 적용된 제품ㆍ서비스 등을 모든 사람이 자유롭고 편리하게 이용할 수 있는 접근성에 관한 사항
  3. 인간과 인류의 삶과 번영에의 공헌을 위한 인공지능의 개발ㆍ활용 등에 관한 사항
  ③ 중앙행정기관 또는 지방자치단체의 장이 인공지능윤리기준(그 명칭 및 형태를 불문하고 인공지능윤리에 관한 법령, 기준, 지침, 가이드라인 등을 말한다. 이하 이 조에서 같다)을 제정하거나 개정하는 경우 과학기술정보통신부장관은 제1항에 따른 윤리원칙 및 제2항에 따른 실천방안과의 연계성ㆍ정합성 등에 관한 권고등을 할 수 있다.

제24조(신뢰할 수 있는 인공지능) 과학기술정보통신부장관은 인공지능등이 국민의 생활에 미치는 잠재적 위험을 최소화하고 안전한 인공지능의 이용을 위한 신뢰 기반을 조성하기 위하여 다음 각 호의 시책을 마련하여야 한다.
  1. 신뢰할 수 있는 인공지능 이용환경 조성
  2. 인공지능의 이용이 국민의 일상생활에 미치는 영향 등에 관한 전망과 예측 및 관련 법령ㆍ제도의 정비
  3. 인공지능의 신뢰성 확보를 위한 안전기술 및 인증기술의 개발 및 확산 지원
  4. 신뢰할 수 있는 인공지능사회 구현 및 인공지능윤리 실천을 위한 교육ㆍ홍보
  5. 인공지능사업자의 신뢰성 관련 자율적인 규약의 제정ㆍ시행 지원
  6. 인공지능사업자, 이용자 등으로 구성된 인공지능 관련 단체(이하 “단체등”이라 한다)의 인공지능의 신뢰성 증진을 위한 자율적인 협력, 윤리 제정 등 민간 활동의 지원 및 확산
  7. 그 밖에 인공지능의 신뢰성 확보를 위하여 과학기술정보통신부장관이 필요하다고 인정하는 사항

  • 소위안이 규정하는 인공지능윤리, 신뢰성 및 인공지능 사회에 대한 정의가 매우 모호하고 광범위하여, 이 법을 소관하는 과학기술정보통신부가 인공지능과 사회 정책 일반에 대하여 폭넓은 권한을 부여하는 것으로 귀결됨.
    • 소위안이 정의하는 인공지능윤리의 경우, 정의(제2조), 인공지능윤리원칙 등(제23조)으로부터 도출되는 내용에 따르면 “인간의 존엄성에 대한 존중을 기초로 하여, 국민의 권익과 생명ㆍ재산이 보호받을 수 있는 안전하고 신뢰할 수 있는 지능정보사회를 구현하기 위하여 인공지능의 제작, 개발, 보급, 이용 등 모든 영역에서 사회구성원이 지켜야 할 윤리적 기준”을 일컬음. 또한 “인간의 생명과 신체, 정신적 건강 등에 해가 되지 않도록 하는 안전성과 신뢰성에 관한 사항”이자, “인공지능기술이 적용된 제품ㆍ서비스 등을 모든 사람이 자유롭고 편리하게 이용할 수 있는 접근성에 관한 사항”이고, “인간과 인류의 삶과 번영에의 공헌을 위한 인공지능의 개발ㆍ활용 등에 관한 사항”을 광범위하게 아우름.
    • 법률명 및 이하 다수 조항에서 언급되는 ‘신뢰’의 경우, 정의(제2조), 인공지능 윤리원칙 등(제23조), 신뢰할 수 있는 인공지능(제24조)으로부터 도출되는 내용에 따르면 “인간의 존엄성에 대한 존중”과 “국민의 권익과 생명·재산이 보호받을 수 있는”지에 관한 폭넓은 문제이며, “국민의 생활에 미치는 잠재적 위험을 최소화하고 안전한 인공지능의 이용을 위한” 제품 안전에 대한 문제를 포괄함.
    • 따라서 소위안이 정의하고 소관하는 인공지능 ‘윤리’와 ‘신뢰’에 대한 정책은, 현재 공정거래위원회, 고용노동부, 국가인권위원회, 개인정보보호위원회, 산업통상자원부, 행정안전부 등 국가 및 지방자치단체의 다른 규제기관에서 소관하는 제품 안전, 소비자 보호, 인권, 차별, 개인정보 보호 분야까지 모두 포괄할 수 있는 매우 광범위한 분야를 다루고 있음.
  • 그럼에도 과학기술정보통신부는 인공지능윤리 및 신뢰성과 관련한 법령의 정비 등 제도 개선 업무를 독자적으로 수행할 수 있으며, 중앙행정기관과 지방자치단체의 관련 법령, 기준, 지침, 가이드라인에 대하여 판단하고 권고할 수 있는 막대한 권한을 부여받음.
    • 그러나 과학기술정보통신부가 위와 같은 정의에 해당하는 인공지능 윤리, 신뢰성, 인공지능사회와 관련한 제도 개선 및 권고 일반을 소관하는 것은  지금까지 과학기술정보통신부 기능에 비추어 실질적인 역할을 기대하기 어려움.
  • 이 법의 산업 진흥 목적 및 과학기술정보통신부의 관련 업무와, 개인정보 보호, 소비자 보호, 인권 침해 및 차별의 방지 등 다른 법률이 보호하는 가치가 경합하는 경우, 과학기술정보통신부의 업무가 본연의 산업 진흥에 치중될 우려가 있음. 

▣ 안전과 인권을 보호하기 위한 다른 법률의 정당한 조치와 다른 규제기관의 업무를 침범하는 사후규제 독소조항에 반대함

【소위안】

제11조(우선허용ㆍ사후규제 원칙) ① 누구든지 인공지능기술 및 알고리즘의 연구ㆍ개발 및 인공지능제품 또는 인공지능서비스의 출시 등과 관련된 행위를 할 수 있다. 이 경우 인공지능기술, 인공지능제품 또는 인공지능서비스가 국민의 생명ㆍ안전ㆍ권익에 위해가 되거나 공공의 안전 보장, 질서 유지 및 복리 증진을 현저히 저해할 우려가 있는 경우가 아니라면 이를 제한하여서는 아니 된다.
  ② 국가 및 지방자치단체는 인공지능기술, 인공지능제품 또는 인공지능서비스와 관련된 법령 및 제도가 제1항의 원칙에 부합하게 정비되도록 노력하여야 한다.

제26조(고위험영역 인공지능의 확인) ① 제2조제3호 각 목에 따른 인공지능 또는 그 인공지능을 이용한 제품 또는 서비스를 개발‧활용‧제공하려는 자는 해당 인공지능이 고위험영역 인공지능에 해당하는지에 대한 확인을 과학기술정보통신부장관에게 요청할 수 있다.

  • 소위안은 “인공지능산업 기반 조성” 제하의 절에서 산업 진흥을 위한 우선허용, 사후규제 원칙을 명시하고 있음. 나아가 소위안은 단순히 우선허용 사후규제 원칙을 천명한 것에 그치지 않고, 관련 법령 및 제도를 원칙에 부합하도록 정비하도록 하고 있어 파급력이 상당함. 이러한 원칙은 폐기되어야 함.
  • 소위안이 인공지능의 문제 일반을 폭넓게 소관하고 있음에도 우선허용·사후규제 원칙을 내세우고 있는 것은 “국민의 권익과 존엄성을 보호하고 국민의 삶의 질 향상…을 목적으로” 하는 이 법의 목적 조항에 위배될 뿐더러, 국내외 인공지능 입법 기준에 크게 위배됨.
    • 국내외에서 권장하는 인공지능 입법 기준 뿐 아니라 주요 국가의 인공지능법안의 내용은, 국가가 인공지능 제품의 안전과 인권 기준 준수 여부를 감독하고 피해를 구제하도록 요구하고 있음. 특히 유럽연합 인공지능법안은 제품 적합성 평가 기관 또는 시장 감시와 관련된 기존의 규제기관들이 이 법의 규제를 우선 집행하고 인증이나 기술 부처는 그 기준을 반영하도록 규정함. 
    • 유럽연합 인공지능법안에서는 이 법을 소관하는 국가 감독 기관이 인공지능 제품의 학습, 검증 및 테스트 데이터셋에 대하여 접근할 수 있고, 필요하고 합리적인 경우 인공지능 시스템의 소스 코드에 대해서도 접근할 수 있도록 규정함(제64조). 특히 소관 기관 뿐 아니라 기존 법률에 따라 설치운영 중인 평등기구 등 규제기관들 또한 이 법에 따라 작성된 모든 문서에 접근할 수 있으며 감독 기관과 협조하도록 하여 국민의 안전과 인권을 보호함(전문79). 이를 위하여 이 법안은 특히 고위험 인공지능 공급자에 대하여 여러가지 문서화 의무를 부여하고(제11조 및 부속서 IV), 중대한 사건 및 오작동에 대하여 감독 기관에 보고하도록 함(제62조).
  • 소위안은 고위험영역 인공지능을 비롯하여 인공지능 기술·제품·서비스가 국민의 생명·안전·권익에 위해가 있는지 여부를 판단할 때 국가나 지방자치단체에서 제품안전 등에 대하여 판단하고 규제해 온 기관이 아니라 과학기술정보통신부가 우선적으로 확인(판단)하도록 함. 
  • 소위안은 인공지능의 위험성에 대한 효과적인 감독과 피해 구제를 규정하지 않았을 뿐더러, 우선허용·사후규제 원칙으로 위해가 있을 수 있는 인공지능을 시장에 우선적으로 출시할 수 있도록 함.
    • 소위안에 따르면 국가나 지방자치단체의 규제기관이 특정 인공지능 제품·서비스의 위험성을 인지하더라도 출시 등과 관련된 행위에 대해서는 원칙적으로 “제한하여서는 안” 됨. 따라서 규제기관은 일단 출시 후 사후적으로 조치할 수 있을 뿐이며, 그 위해성에 대한 판단에 있어서도 과학기술정보통신부의 판단에 종속되거나 충돌될 우려가 있음.
    • 또한 “출시 등과 관련된 행위를 … 제한하여서는 아니 된다”는 규정은 인공지능의 위험을 식별하고 완화하기 위하여 알고리즘 영향평가 제도를 도입할 수 있는 가능성조차 봉쇄하고 있음. 유럽연합 인공지능법안을 비롯하여 캐나다, 영국, 미국 등 주요 국가의 입법 동향은 인공지능의 위험을 사전에 방지하기 위하여 출시 전 위험영향평가, 적합성평가, 데이터영향평가, 인권영향평가, 출시전 테스트 등 다양한 사전 영향평가와 조치를 의무화하고 있음.
  • 따라서, 우선허용·사후규제 조항은 인공지능의 위험성으로부터 국민의 안전과 인권을 보호할 수 있는 조치들을 봉쇄하였을 뿐 아니라, 이 법의 목적 조항 뿐 아니라 이후 소위안에 규정된 고위험 규제조차 모두 형해화시켰다는 점에서 매우 심각한 독소조항임.

▣ 과학기술정보통신부가 운영하는 인공지능위원회의 결정이 다른 규제기관의 작용을 방해할 우려가 있음

【소위안】

제6조(인공지능위원회) ① 인공지능사회의 구현, 인공지능산업의 진흥 및 신뢰 확보와 관련된 사항을 심의‧의결하기 위하여 국무총리 소속으로 인공지능위원회(이하 “위원회”라 한다)를 둔다.
④ 위원회의 위원은 다음 각 호의 사람이 된다.
  1. 정부위원: 대통령령으로 정하는 관계 중앙행정기관의 장
  2. 민간위원: 인공지능등에 관한 전문지식과 경험이 풍부한 사람 중 대통령이 위촉하는 사람
⑥ 위원회는 국가기관등, 인공지능사업자 및 제22조에 따른 대한인공지능협회 등에 대하여 인공지능의 올바른 사용과 인공지능윤리의 실천, 인공지능기술의 신뢰성과 안전성에 관한 권고 또는 의견의 표명(이하 “권고등”이라 한다)을 할 수 있다.
⑧ 위원회가 국가기관등의 장에게 법령ㆍ제도의 개선 또는 실천방안의 수립 등에 대하여 권고등을 한 때에는 해당 국가기관등의 장은 법령ㆍ제도 등의 개선방안과 실천방안 등을 수립하여 대통령령으로 정하는 바에 따라 위원회에 통보하여야 한다.
⑨ 위원회에 간사위원 1명을 두며, 간사위원은 과학기술정보통신부장관이 된다.  

제7조(위원회의 기능) 위원회는 다음 각 호의 사항을 심의ㆍ의결한다.
  1. 기본계획의 수립 및 그 추진상황 점검ㆍ분석
  2. 정부가 추진하는 인공지능기술 및 인공지능산업의 진흥을 위한 예산의 배분 및 효율적 운영에 관한 사항
  3. 인공지능 제품 및 서비스의 확산에 따른 국민생활의 변화와 적응 및 안전한 이용환경의 조성에 관한 사항
  4. 인공지능 관련 정책의 수립ㆍ조정에 관한 사항
  5. 인공지능윤리 및 인공지능과 관련된 제도 등의 개선에 관한 사항
  6. 인공지능 기술 및 산업 관련 국제협력에 관한 사항
  7. 인공지능기술을 활용한 경제적ㆍ사회적 문제의 해결에 관한 사항
  8. 제6조제6항에 따른 권고등에 관한 사항
  9. 고위험영역 인공지능 규율에 관한 사항
  10. 고위험영역 인공지능과 관련된 사회적 변화 양상과 정책적 대응에 관한 사항
  11. 이 법 또는 다른 법령에서 위원회의 심의사항으로 정한 사항
  12. 그 밖에 인공지능사회의 구현 및 인공지능산업의 진흥과 관련하여 위원장이 필요하다고 인정하는 사항

  • 소위안은 국무총리 소속으로 과학기술정보통신부가 간사로서 사실상 운영하는 인공지능위원회를 두도록 함. 인공지능위원회의 소관과 기능을 규정한 조항들을 종합적으로 살펴보면, 이 위원회는 고위험 인공지능 뿐 아니라 인공지능 일반 관련 모든 정책과 제도 및 그 경제적·사회적 문제의 해결에 대한 사항들을 ‘수립’하고 ‘개선’하고 나아가 ‘조정’하는 ‘심의’를 하고 ‘의사결정’을 내릴 수 있음. 또한 인공지능위원회는 모든 국가기관의 인공지능 관련 법령·제도의 수립·개선·조정에 대한 사항을 심의하고 의결할 뿐 아니라, 모든 국가기관과 사업자 등의 인공지능 사용, 윤리, 신뢰성, 안전성에 대하여 권고 또는 의견을 표명하고 그 결과를 통보받는 포괄적인 권한을 가짐. 따라서 인공지능위원회는 사실상 모든 국가기관의 인공지능 관련 의사결정의 최고 기관으로 설정되어 있음. 
    • 이는 개인정보보호위원회, 공정거래위원회, 국가인권위원회 등 독립적인 다른 규제기관에서 다른 법률에 따라 소관하는 개인정보 보호, 공정거래와 소비자 보호, 인권 침해와 차별 방지 관련 제도의 마련과 운용을 침범할 수 있음.
  • 인공지능위원회는 인공지능의 위험에 대응하는 독립적인 규제기관의 작용과 별도로 이들의 업무와 중복적인 사안을 다루면서 이들과 다른 비전문적인 의사결정을 내릴 위험이 있음. 
    • 인공지능위원회에는 중앙행정기관의 장이 정부 위원으로 참여한다고 하였으나, 그 구체적인 대상은 대통령령에 위임하고 있음. 여기에 각 규제기관이 참가한다면 본래 소관하고 있는 결정 권한과 관계없이 여러 위원 중 하나로 위원회 의사결정에 참여하게 됨. 그러나 공정거래위원회, 개인정보보호위원회, 국가인권위원회 등 법률에 따라 업무와 의사결정의 독립성을 보장받는 기관이 국민의 안전이나 인권에 위험을 미치는 인공지능에 대해 정하는 결정 사항은, 산업 진흥이 주요 목적 중 하나인 이 법과 과학기술정보통신부가 운영하는 위원회에서 주되게 조정하고 관장할 사항이 아님. 
    • 인공지능위원회 설립의 주요 목적은 ‘인공지능산업의 진흥 및 신뢰 확보’이며, 위원회는 막대한 의사결정 권한을 가졌으면서도 그 근거를 조사하고 자료를 제출받을 법률적 권한을 가지지 못한 반쪽 기구임. 따라서 다른 규제기관이 소관 법률에 따라 충분한 근거를 가지고 조사 또는 결정한 산업 규제 관련 사항이, 위원회의 산업 진흥 편향적이며 근거가 빈약한 의사결정과 충돌할 가능성이 있음.

▣ 고위험 인공지능의 정의가 자의적이며 부분적임

【소위안】

제2조(정의) 이 법에서 사용하는 용어의 뜻은 다음과 같다.
  3. “고위험영역 인공지능”이란 다음 각 목의 어느 하나에 해당하는 인공지능으로서 사람의 생명, 신체의 안전 및 기본권의 보호에 중대한 영향을 미칠 우려가 있는 영역에서 활용되는 인공지능을 말한다.
    가. 「에너지법」 제2조제1호에 따른 에너지, 「먹는물관리법」 제3조제1호에 따른 먹는물 등의 공급을 위하여 사용되는 인공지능
    나. 「보건의료기본법」 제3조제1호에 따른 보건의료의 제공 및 이용체계 등에 사용되는 인공지능
    다. 「의료기기법」 제2조제1항에 따른 의료기기에 사용되는 인공지능
    라. 「원자력시설 등의 방호 및 방사능 방재 대책법」 제2조제1항에 따른 핵물질과 원자력시설의 안전한 관리 및 운영을 위하여 사용되는 인공지능
    마. 범죄 수사나 체포 업무에 있어 생체정보(얼굴ㆍ지문ㆍ홍채 및 손바닥 정맥 등 개인을 식별할 수 있는 신체적ㆍ생리적ㆍ행동적 특징에 관한 개인정보를 말한다)를 분석ㆍ활용하는 데 사용되는 인공지능
    바. 채용, 대출 심사 등 개인의 권리‧의무 관계에 중대한 영향을 미치는 판단 또는 평가 목적의 인공지능
    사. 「교통안전법」 제2조제1호부터 제3호까지에 따른 교통수단, 교통시설, 교통체계의 주요한 작동 및 운영에 사용되는 인공지능
    아. 국가, 지방자치단체, 「공공기관의 운영에 관한 법률」에 따른 공공기관 등(이하 “국가기관등”이라 한다)이 사용하는 인공지능으로서 국민에게 영향을 미치는 의사결정을 위하여 사용되는 인공지능
    자. 그 밖에 국민의 안전ㆍ건강 및 기본권 보호에 중대한 영향을 미치는 인공지능으로서 대통령령으로 정하는 인공지능

제26조(고위험영역 인공지능의 확인) ① 제2조제3호 각 목에 따른 인공지능 또는 그 인공지능을 이용한 제품 또는 서비스를 개발‧활용‧제공하려는 자는 해당 인공지능이 고위험영역 인공지능에 해당하는지에 대한 확인을 과학기술정보통신부장관에게 요청할 수 있다.

  • 소위안이 열거 방식으로 규정한 고위험 인공지능의 정의는 주요 국가에서 추진하는 고위험 인공지능 규제 대상과 내용에 비하여 중요한 분야를 누락하고 있음. 
  • 안전과 인권에 미치는 위험이 방지될 수 없는 수준에 달해 금지해야 하는 인공지능에 대해서는 전혀 규정하고 있는 바가 없음.
  • 유럽연합 인공지능법안은 기존에 유럽연합 법률에서 제품 안전에 대한 법적 의무가 있거나 적합성 평가 대상이 포함된 인공지능 제품을 일관된 고위험으로 우선 규정하고 제3자 적합성 평가를 의무화함. 이는 기계류, 장난감, 승강기, 폭발물, 무선 장비, 압력 장비, 공중 케이블, 개인 보호 장비를 아우름.
    • 우리나라 또한 제품안전인증, 산업안전인증, 승강기 안전인증 제도를 갖추고 산업통상자원부, 고용노동부, 행정안전부 등 여러 부처가 각각 안전 제품을 관리하여 옴. 
    • 소위안의 정의는 고위험 인공지능 안전 제품을 열거함에 있어 기존 안전 제품을 일부 포함하였으나, 원칙과 보편성을 갖추지 못함. 
    • 소위안은 고위험영역 인공지능의 해당 여부에 관한 확인을 과학기술정보통신부에 일임하고 있는데, 인공지능 제품의 안전성은 과학기술정보통신부가 전문적으로 확인(판단)할 수 있는 영역이 아님.
  • 유럽연합 인공지능법안은 인권에 미치는 위험이 높은 것으로 알려진 인공지능을 대체로 모두 법률에 규정하였으며, 그 위험도가 완화되기 어려운 분야의 경우 ‘금지’하는 대상으로 우선적으로 규정하고, 그 위험도가 관리될 수 있는 분야의 경우 ‘고위험’으로 규정함.
    • 소위안은 생체정보의 분석·활용의 경우 “범죄 수사나 체포 업무라는 일부 업무”에 한정하여 고위험으로 지정함. 그러나 유럽연합 인공지능법안은 공공장소 원격 실시간 생체 인식을 우선 원칙적으로 금지하였으며, 나머지 자연인에 대한 ‘실시간’ 및 ‘사후’ 원격 생체 인식을 모두 고위험으로 지정함. 특히 공공장소 원격 실시간 생체 인식은 이동의 자유, 집회시위의 자유 침해 우려 등으로 유엔인권최고대표를 비롯하여 국제인권기구 및 우리나라 국가인권위원회에서 원칙적으로 금지를 권고한 바 있음. 그러나 소위안은 한국에서도 현안이 되고 있는 공공장소 얼굴인식 등 원격 생체 인식과 추적에 대하여 별다른 제한을 하지 않았으며, 범죄 수사나 체포 업무와 무관한 생체 인식을 고위험에서 제외함.
    • 소위안은 “채용, 대출 심사 등 개인의 권리‧의무 관계에 중대한 영향을 미치는 판단 또는 평가 목적의 인공지능”을 고위험으로 규정하였으나, ‘중대한 영향’이 무엇인지 명확히 규정하지 않았으며, ‘채용, 대출 심사’ 등 매우 자의적이고 제한적인 예시 규정을 두고 있음. 이는 다른 나라에서 인권 침해와 차별 위험이 높은 인공지능 분야를 자세하게 규정하고 있는 것과 다르며 많은 인권 침해 분야를 고위험에서 제외함.
    • 소위안처럼 ‘중대한 영향’이라고 규정한다면 ‘중대한 영향’이 아닌 영역은 허용하는 취지로 보이며, ‘중대한 영향’에 규범적 판단까지 개입하게 되면 허용 범위를 더 넓힐 우려가 있어 보임. 반면 유럽연합 인공지능법안의 경우 “고용, 노무 관리, 자영업에 대한 접근, 특히 인력의 채용과 선발, 승진과 해고에 대한 결정, 업무 할당, 모니터링 또는 업무 관련 계약 관계에서 개인의 평가 등에 사용되는 AI 시스템 역시 당사자들의 미래 직업 전망과 생계에 현저한 영향을 미칠 수 있으므로 고위험으로 분류되어야 한다.(전문36)”라고 정하고 있어 결정에 영향을 미치는 그 자체를 고위험으로 규정하고 있음. 따라서 ‘고위험인공지능’에 대한 정의 규정에서 ‘중대한’이란 표현은 삭제되어야 함. 객관적으로 ‘영향’ 또는 ‘결정에 대한 영향’을 그 자체로 고위험 인공지능으로 보아야 함. 
    • 유럽연합 인공지능법안과 비교하여 소위안에서 누락된 고위험 분야로는 해외에서 논란이 된 인공지능 입학시험이나 성적 평가, 회사에서 노동자를 관리/모니터링하거나 플랫폼 노동/자영업에 사용되는 인공지능, 신용 평가, 소방의료 응급서비스 등을 들 수 있음. 미국 알고리즘 책무성법안(2022) 또한 규제 대상이 되는 ‘중요한 의사결정’에 모든 금융서비스, 주택 및 숙박, 법률 서비스에 대한 의사결정을 규정하고 있음.
    • 소위안은 공공기관이 “국민에게 영향을 미치는 의사결정을 위하여 사용되는 인공지능”을 고위험으로 규정하였음. 그러나 의사결정과 직접적인 관련이 없으나 세계적으로 논란을 빚어온 수사기관의 각종 평가 및 예측 치안, 출입국관리 업무의 각종 평가 및 조사, 재판 업무 등 인권에 중대한 위험을 초래하거나 편향 위험이 있는 인공지능을 광범위하게 고위험에서 제외함.
    • 특히 국민의 소비자 권리, 개인정보 보호, 인권 및 차별에 미치는 위험은 과학기술정보통신부가 전문적으로 확인(판단)할 수 있는 영역이 아님.

▣ 고위험 인공지능 규제가 형식적이어서 실질적인 위험 방지 장치를 갖추지 못함

【소위안】

제7조(위원회의 기능) 위원회는 다음 각 호의 사항을 심의ㆍ의결한다.
  9. 고위험영역 인공지능 규율에 관한 사항
  10. 고위험영역 인공지능과 관련된 사회적 변화 양상과 정책적 대응에 관한 사항

제26조(고위험영역 인공지능의 확인) ① 제2조제3호 각 목에 따른 인공지능 또는 그 인공지능을 이용한 제품 또는 서비스를 개발‧활용‧제공하려는 자는 해당 인공지능이 고위험영역 인공지능에 해당하는지에 대한 확인을 과학기술정보통신부장관에게 요청할 수 있다.

제27조(고위험영역 인공지능 고지 의무) ① 고위험영역 인공지능을 이용하여 제품 또는 서비스를 제공하려는 자는 해당 제품 또는 서비스가 고위험영역 인공지능에 기반하여 운용된다는 사실을 이용자에게 사전에 고지하여야 한다.

제28조(고위험영역 인공지능과 관련한 사업자의 책무) ① 고위험영역 인공지능을 개발하는 자 또는 고위험영역 인공지능을 사용하여 제품 또는 서비스를 제공하는 자(이하 “고위험영역 인공지능과 관련한 사업자”라 한다)는 인공지능의 신뢰성과 안전성을 확보하기 위한 조치(이하 “신뢰성 확보조치”라 한다)를 하여야 한다.
  ② 과학기술정보통신부장관은 제1항에 따른 신뢰성 확보조치의 구체적 내용을 정하여 위원회의 심의‧의결을 거쳐 고시하고, 고위험영역 인공지능과 관련한 사업자에게 이를 준수하도록 권고할 수 있다.
  ③ 제2항에 따른 고시에는 다음 각 호의 사항을 포함하여야 한다.
  1. 위험관리방안의 수립‧운영에 관한 사항
  2. 신뢰성 확보 조치 내용을 확인할 수 있는 문서의 작성과 보관에 관한 사항 
  3. 기술적으로 가능한 범위 내에서의 인공지능이 도출한 최종결과, 인공지능의 최종결과 도출에 활용된 주요 기준, 인공지능의 개발‧활용을 위해 학습된 데이터 개요 등에 대한 설명 방안
  4. 이용자 보호 방안
  5. 고위험영역 인공지능에 대한 사람의 관리ㆍ감독에 관한 사항
  6. 기타 고위험영역 인공지능의 신뢰성과 안전성 확보를 위해 필요한 사항 

  • 소위안은 고위험 인공지능에 대하여 과학기술정보통신부가 운영하는 인공지능위원회에서 그 규율이나 정책적 대응에 관한 사항을 심의·의결할 수 있다고 하였을 뿐, 구체적인 규율의 내용에 대하여는 규정하고 있지 않음. 일상적으로 “고위험영역 인공지능에 해당하는지에 대한 확인”과 고위험 인공지능 사업자의 책무에 대한 규정은 과학기술정보통신부가 함.
    • 인공지능위원회와 과학기술정보통신부는 고위험 인공지능에 대한 의사결정에 있어 독립적인 조사와 조치 권한을 가지고 있는 기존의 규제기관의 판단에 대하여 중복적이거나 충돌되는 의사결정을 내릴 위험이 있음. 
  • 소위안은 고위험 인공지능 사업자의 책무를 일부 규정하였으나, 고위험이라는 사실을 이용자에게 고지하도록 하고(제27조) 대부분 내부적인 ‘방안’을 마련하는데 그침(제28조). 게다가 이에 대한 준수 여부는 아무런 벌칙이나 조치 사항 없이 기업 자율에 맡기고 있음. 고위험 인공지능의 시판 및 이용을 방지하기 위하여 더 이상 구체적인 위험 방지 조치의 내용이나 준수 사항을 규정하는 바가 없음.
    • 유럽연합 인공지능법안 등 주요 국가 고위험 인공지능 사업자 의무와 비교하여 보았을 때, 국가 감독 기관 협조 의무 등 핵심적으로 요구되는 의무들이 전혀 규정되어 있지 않음. 인공지능의 투명성과 설명조차 “기술적으로 가능한 범위 내에서” 내부적인 ‘설명방안’을 마련하면 족하도록 규정하였음. 특히 인공지능 위험성에서 가장 논란이 되고 있는 데이터 편향이나 오류를 방지할 의무를 규정하고 있지 않음.
    • 고위험 인공지능 시스템의 개발이나 활용하는 사업자에 대해서는 위험 영향을 평가하거나 완화할 의무, 출시 전 검사하거나 사후에 모니터링할 의무, 개발이나 운영 중 문서화하거나 기록할 의무, 데이터 편향이나 오류를 방지할 의무, 작동에 대해 투명하게 설명할 의무, 인간이 관리감독할 의무, 시스템의 견고성·정확성·보안성, 인증·등록·보고 의무 등이 세세하게 규정되어야 마땅함.
    • 유럽연합 인공지능법안의 경우 금지된 인공지능을 출시한 경우 최대 3천만 유로 또는 연간 전세계 총매출의 6%의 벌금을 부과하고, 국가 감독 기관의 조사에 대한 협력 등 의무 위반시 최대 2천만 유로 또는 연간 전세계 총매출 4%의 벌금을 부과하며, 국가 감독 기관에 부정확·불완전한 정보를 제공하는 경우 최대 1천만 유로 또는 연간 전세계 총매출 2%의 벌금을 부과함.
    • 미국 연방상하원 알고리즘책무성법안의 경우 위반에 대한 벌칙을 정하고 있지는 않으나, 현행 미국법을 위반하여 시장에 출시되는 인공지능의 경우 FTC법 제18조에 따라 “불공정하거나 기만적인 행위 또는 관행을 정의하는 규칙 위반”으로 간주한다고 규정함.

▣ 결론: 소위안의 입법에 반대함

  • 국가가 입법하는 인공지능 기본법은 특정 부처의 소관에 매몰됨이 없이 인공지능이 사회에 미치는 전체 영향을 고려하여 국민의 안전과 인권에 미치는 위험을 감독하고 피해를 구제하는 국가 체계를 마련하는 내용이어야 함. 
    • 인공지능의 위험을 방지하거나 규제하는 국가의 임무는 인공지능 기술과 산업에 대한 진흥을 소관하는 과학기술정보통신부가 아니라 기존의 규제 부처에서 소관하는 법률에 따라 효과적으로 조사하고 조치할 수 있도록 보장하여야 작용할 수 있음. 
    • 또한 공공장소 원격 실시간 생체 인식처럼 위험이 완화되기 어려운 인공지능에 대해서 ‘금지’하고, 고위험 인공지능에 대해서 개발과 이용 사업자에게 명확한 책무를 부과하며, 위반시 엄격한 처벌이 이루어질 수 있어야 함.
  • 그러나 소위안은 ‘기본법’으로 마련되었음에도 규제를 완화하는 주요 규정을 제외한 대부분의 내용이 산업 진흥을 위하여 과학기술정보통신부와 그 소관기관의 업무를 확대하고 재원을 확보하는 데 관한 것으로서, 대부분의 규정이 기존 지능정보화 기본법과 크게 다르다고 볼 수 없음.
    • 기술과 산업 진흥 업무를 소관하는 과학기술정보통신부가 이 법 뿐 아니라 현행 다른 법률, 나아가 이후 제개정될 인공지능 일반과 인공지능윤리와 신뢰성, 인공지능과 사회에 대한 모든 법령 및 정책에 대한 판단과 규율 전반을 광범위하게 소관하는 것은 월권임. 또한 소위안은 국민의 안전과 인권을 보호하기 위한 국가의 작용 의무를 구체적으로 규정하지 않았으면서 다른 규제 법률의 적용 및 규제기관의 작용을 우선적으로 금지했다는 점에서 위헌적이라 할 수 있음.
  • 다만 소위안이 ‘고위험’ 인공지능을 정의하였다는 점에서 지능정보화 기본법과 다른 부분이 있음. 그러나, 그 실제에 있어서는 이를 규제하고 국민의 피해를 구제하기 위해 구체적인 국가 작용을 규정한 바가 없음. 오히려 우선적용, 사후규제 원칙으로 다른 규제기관의 개입을 방해하고 있다는 점에서 향후 국민의 안전과 인권을 큰 위험에 처하게 함.
  • 결론적으로 소위안은 최근 챗GPT 등 특정 인공지능 애플리케이션의 유행 사례를 배경으로 지능정보화 기본법과 유사중복되는 기본법 제정의 문제점조차 충분히 고려하지 않고 경솔하게 입법을 추진하고 있음. 나아가 소위안은 인공지능이 사회 전반에 미치는 위험과 그에 대한 기존 규제기관의 작용 등 국가 전체적인 역할에 대한 검토나 규정 없이 과학기술정보통신부와 그 산하기관의 소관에만 매몰된 졸속 입법의 우려가 있음. 
  • 국가적 수준에서 지능정보화 기본법과 중복되지 않는 내용으로 인공지능에 대한 기본법을 제정한다면, 인공지능 기술과 제품이 국민의 안전과 인권에 미치는 위험을 방지하고 조치하는 규제기관의 작용과 감독 정책을 효과적으로 집행하고, 피해자를 구제하며, 위반시 처벌하는 내용을 반드시 포함하여야 함. 챗GPT를 비롯한 인공지능 제품과 서비스, 공공 의사결정이 오류, 안전, 인권에 미치는 위험성이 그 어느 때보다 높아지는 현재 시점에 제정되는 인공지능 기본법이, 과학기술정보통신부가 소관하는 인공지능 산업 진흥을 위하여 다른 규제기관 업무를 방해하고 국민의 안전과 인권을 위험에 처하게 하는 내용이어서는 안 될 것임.

<끝>