Skip to main content

「대한민국 인공지능 행동계획(안)」에 대한 의견서 제출

"AI의 위험성으로부터 시민의 안전과 인권을 보호할 정부의 책무를 방기하겠다는 것인가"

- ‘규제혁신’ 아닌 개인정보·기본권 후퇴, 산업·안보 편향 정책 재검토 필요

- 행동계획에 AI 사업자의 책임성 강화와 영향을 받는 사람들의 권리 보장 포함해야

[의견서 PDF 보기]

1. 대통령직속 국가인공지능전략위원회는 지난 12월 16일 98개 행동계획을 담은 방대한 양의 「대한민국 인공지능 행동계획(안)」(이하 AI 행동계획)을 공개하고 2026년 1월 4일까지 국민 의견을 수렴한다고 밝혔다. 그러나 AI 행동계획은 전반적으로 인공지능 산업 육성과 기술 확산에 치우쳐 있으며, AI의 위험성을 통제하고 사업자 책임성을 강화할 장치가 부재하다. 또한, AI의 영향을 받는 사람들의 권리 보호 및 피해 구제 방안에 대한 계획도 미흡하다.

2. 디지털정의네트워크와 정보인권연구소를 비롯해 시민사회는 그동안 인공지능기본법과 시행령안 등 법 개정 과정에서 인공지능의 영향을 받는 시민을 보호하는 최소한의 안전장치가 마련되어야 한다고 지속적으로 요구해 왔다. 그러나 2026년 1월 시행을 앞둔 인공지능기본법과 그 하위법령은 고영향 인공지능에 대한 실질적 규제를 충분히 담지 못하는 등 시민의 안전과 인권 보호보다 ‘인공지능 산업 진흥’에 더 치우치고 말았다.

3. 이러한 상황에서 공개된 AI 행동계획 역시 개인정보 원본 활용 확대, 보건의료 데이터의 결합·활용 등 개인정보 보호 원칙을 완화하는 기조를 그대로 답습하고 있다. 인공지능 기술이 대량의 개인정보를 실시간으로 수집·분석하고 개인의 행동과 선택을 프로파일링할 수 있는 환경에서 정보주체의 통제권을 강화하기보다 활용을 우선하는 정책은 정보인권과 개인정보자기결정권을 구조적으로 약화시킬 우려가 크다.

4. 또한 AI 행동계획은 AI의 개발 및 도입이 시민들의 삶과 사회에 도움이 될 것이라고 막연하게 전제하고 있으나, 실제 AI가 사람과 사회에 미치는 영향에 대해서는 충분한 연구가 이루어지지 않았고, 예측형 AI의 성능과 공정성 역시 검증되지 않은채 도입되고 있다. 분명한 것은 마치 자동차나 승강기와 같은 제품을 출시할 때 안전성 검사를 받는 것처럼, 복지 정책을 도입할 때 공정성에 대한 검토를 하는 것처럼, 국가는 AI 제품이나 서비스가 시민의 안전과 인권을 침해하지 않도록 보장해야 할 기본적인 책무가 있다는 것이다. 그러나 AI 행동계획은 AI 제품이나 서비스가 어떠한 위험이 있는지, 그러한 위험을 어떻게 탐지, 제거, 완화할 것인지에 대해 충분히 다루고 있지 않다.

5. 이에 두 단체는 AI 행동계획에서 다루고 있는 정책의 문제점에 대한 의견을 제시하는 것과 동시에, AI 행동계획에서 다루고 있지 않은 의제들, 특히 AI의 위험성에 대해 어떻게 안전장치를 마련할 것인지, 위험한 AI를 제공하는 사업자와 AI를 활용하는 기관의 책임을 어떻게 물을 것인지, AI의 영향을 받는 시민의 권리를 어떻게 보호할 것인지에 대한 종합적인 대안 마련이 필요하다고 지적했다.

6. 아울러 AI 행동계획이 이와 같은 의제를 충분히 반영하지 못한 원인으로 국가인공지능전략위원회의 편향된 구성과 운영 방식을 지적했다. 현재 위원회는 산업계 중심으로 구성되어 있기 때문에 AI 정책이 기술 확산과 기업 이익에 치우칠 위험이 크다. 따라서 정부가 공공성, 책임성, 시민 권리 보호를 균형 있게 고려한 AI 정책을 수립하기 위해서는 국가인공지능전략위원회의 구성부터 재검토해야 하며, 다양한 이해관계자와 시민의 목소리가 실질적으로 반영되는 거버넌스 체계를 마련해야 한다고 촉구했다.