Skip to main content

과기부 장관 인사청문회 앞둔 국회 과방위에 질의요청서 보내

배경훈 과기부 장관 후보자에게 꼭 확인해야 할 것

- 14일 인사청문회 앞둔 국회 과방위 의원들에게 질의요청서 보내

- 인간노동력 대체, 조작, 차별적 관행 반복 강화, 공론장 파괴 등 AI가 가져올 수 있는 위험 대비책 물어야

[보도자료 PDF 보기]

1. 민주사회를 위한 변호사 모임 디지털정보위원회, 정보인권연구소, 진보네트워크센터, 참여연대는 오늘(7/9) 배경훈 과학기술정보통신부(과기부) 장관 후보자와 국회 과학기술정보방송통신위원회에 인사청문회에서 반드시 확인해야 할 사항들에 대한 질의서를 제출하였다. 이재명 정부가 인공지능(AI) 강국을 표방하며 AI 육성에 나서고 있지만 정작 AI의 영향을 받는 시민들의 안전, 일자리 문제, 차별 등에 대해서 어떤 정책을 추진할 지 알려진 바가 없다. 국가 AI 관련 전반적 정책을 담당,집행하는 과기부 장관으로서 AI 육성뿐 아니라 AI 위험대비 및 공공성 실현을 어떻게 할 것인지에 대해서도 검증이 필요하다. 이에 시민사회는 AI가 야기할 위험에 대해 국가적 차원의 대책과 관련 배경훈 후보자에게 반드시 확인할 정책에 대해 질의한다고 밝혔다.

2. 2024년 12월 제정된「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법 ( 이하, ‘인공지능기본법’)에 따르면 과학기술정보통신부 장관은 인공지능기술 및 인공지능산업의 진흥과 국가경쟁력 강화를 위하여 인공지능 등에 관한 정책의 기본 방향과 전략, 인공지능기술 개발 및 인공지능산업 진흥을 위한 재원의 확보와 투자의 방향, 인공지능의 공정성ㆍ투명성ㆍ책임성ㆍ안전성 확보 등 신뢰 기반 조성에 관한 사항, 인공지능기술의 발전 방향 및 그에 따른 교육ㆍ노동ㆍ경제ㆍ문화 등 사회 각 영역의 변화와 대응에 관한 사항 등을 포함하여 인공지능 기본계획을 수립ㆍ변경 및 시행해야 하는 역할을 부여받고 있다. 즉 인공지능 국가 정책과 집행에서 막중한 권한과 책임을 가진다고 할 수 있다. 특히 이재명 대통령이 AI 강국을 표방하며 전폭적인 지원을 약속한 바 있어 앞으로 인공지능 산업 육성이 과기부의 핵심 사업 중 하나가 될 것으로 보인다.

3. 그러나 AI 산업 강국이 되기 위해서는 국가적 차원의 인공지능 정책이 기업의 산업육성에만 치우치는 것이 아니라, 인공지능의 영향을 받는 시민들의 인권, 안전 등에 미칠 위험 대비를 제대로 하는 것이 무엇보다 중요하다. 인공지능 기술의 순기능이 존재하나, 산업로봇과 배달로봇 등의 인간 일자리 대체로 인한 실업과 자율주행차 안전사고 등과 같은 안전 문제, AI 학습 과정에서 데이터 저작권 및 개인정보 오남용 문제, AI 디지털성폭력과 보이스피싱 피해 등 다양한 인권 문제가 발생하고 있기 때문이다. 또한 12.3 내란에서 확인하였듯이 알고리즘에 의한 공론장의 잠식과 허위조작정보 문제, 이로 인한 편향, 혐오 등은 다양성, 포용과 같은 민주주의 가치에도 중대한 위협이 되고 있다.

4. 인공지능기본법에서는 ‘교육ㆍ노동ㆍ경제ㆍ문화 등 사회 각 영역의 변화와 대응에 관한 사항’을 포함한 인공지능기본계획을 수립할 것을 과기부 장관에게 요구하고 있다. 배경훈 후보자는 여전히(2025.7.9. 현재) LG AI연구원 원장직을 유지하고 있고, 이러한 배경으로 인하여 후보자가 과연 중립적인 입장에서 정책을 추진할 수 있는 지위인지 상당한 수준의 검증이 필요하다. 시민사회는 배경훈 후보자가 특정 AI 기업의 이익이 아니라 인공지능기본법에서 요구하고 있는 역할과 AI 공공성 실현에 대한 의지가 있는지 검증해야 한다는 취지에서 배경훈 과기부 장관 후보에게 정책 질의서를 보낸다고 밝혔다. 끝.


▣ 붙임1. 배경훈 과학기술정보통신부 장관 후보자 인사청문회 정책 질의서

배경훈 과학기술정보통신부 장관 후보자 인사청문회 정책 질의서

- 인공지능이 야기할 위험에 대한 국가 차원의 대비가 필요합니다

인공지능(AI)은 스마트폰의 AI 비서나 AI 스피커, 온라인 쇼핑몰의 상품추천 등 일상 생활에서 익숙한 서비스뿐 아니라 자율주행차, 배달 로봇, 금융서비스, 사회복지수급자 선정, 일자리 배치나 채용 등 민간과 공공영역 곳곳에서 광범위하게 활용되고 있습니다. 그러나 산업로봇과 배달로봇 등의 인간 일자리 대체로 인한 실업과 자율주행차 안전사고 등과 같은 안전 문제, AI 학습 과정에서 데이터 저작권 및 개인정보 오남용 문제, AI 디지털성폭력과 보이스피싱 피해 등 인권침해 문제 등 다양한 문제를 야기하고 있습니다. 또한 12.3 내란에서 확인하였듯이 알고리즘에 의한 공론장의 잠식과 허위조작정보 문제, 이로 인한 편향, 혐오 등은 다양성, 포용과 같은 민주주의 가치에도 중대한 위협이 되고 있습니다.

이와 같은 인간노동력 대체, 소비자 대면서비스의 품질 저하, 조작, 차별적 관행 반복 강화, 공론장 파괴 등 AI가 가져올 수 있는 위험에 대해서는 국민이 안심할 수 있는 국가적 대책을 마련해야 합니다. AI 제조와 운영에는 막대한 전기, 물 등이 필요하며 이로 인한 탄소배출량과 물소비량 등에서 기후문제를 더욱 악화시킬 것이라는 우려에 대해서도 국가는 장기적 관점에서 대책을 마련해야 할 것입니다. 

급속히 발전하는 AI가 우리 사회에 미칠 영향에는 혜택과 위험이 모두 있을 수밖에 없으며, 국가 정책은 이 두 가지 측면 모두를 고려한 균형적인 것이어야 합니다.

질 의 내 용

1. 현재 추진되고 있는 AI정책은 투자와 지원이 압도적이고 AI의 안전성과 신뢰성 확보를 위한 위험성 대비 대책은 거의 없다는 것이 시민사회의 평가입니다. AI가 국민의 안전, 인권, 민주주의에 미칠 영향에 대한 통찰을 바탕으로 국가가 적절한 대책을 마련하는 것은 국가의 기본적 책무라고 할 것입니다.

  • 1-1. AI 정책의 육성과 안전성 확보라는 2축의 균형을 요구하는 시민사회의 의견에 대해 후보자의 입장은 무엇인지 밝혀 주십시오.

2. 2024년 12월 제정된 인공지능기본법은 인간의 잠재의식을 왜곡·조종하거나, 특정 집단의 취약성을 활용하거나 살상무기에 탑재하는 인공지능과 같이 그 자체로 비윤리적인 인공지능의 개발이나 활용을 금지하는 규정이 없습니다. 고영향 인공지능을 규정하고 있지만 그 위반에 대해서는 직접적인 제재 조항을 두지 않고 시정을 위한 행정조치는 과학기술정보통신부의 재량에 맡겼습니다.

  • 2-1. 비윤리적인 인공지능의 개발 및 활용을 금지해야 한다는 주장에 대한 후보자의 입장은 무엇입니까?.
  • 2-2. 노동자, 소비자 등 일반시민이야말로 AI 시대의 영향을 받는 당사자로서 AI 정책의 주요 이해관계자입니다. 그럼에도  AI 정책은 주로 전문가 주도의 경제 중심적이고 기업 이익을 우선시하는 산업진흥정책 중심이라는 지적에 대해 후보자의 입장은 무엇입니까?
  • 2.3. 후보자는 LG AI연구원(원장) 원장으로서 LG의 초거대 AI 모델 '엑사원'(EXAONE)의 개발을 이끈 AI 전문가로 알려져 있습니다. 그동안 후보자는 정부가 특정기업에 전폭적 지원을 해야 한다고 주장하는 한편 지난 2024년 9월 24일 국회 과방위가 개최한 인공지능법안 공청회에서 "AI기술은 빨리 바뀌고 있다…기본법을 처음부터 완벽하게 만드는 것은 불가능하다. 최소한의 기준을 마련하고 이후 논의하고 사회적 합의하는 과정을 거쳐 보완·개정해야 한다"는 주장을 하였습니다. 후보자는 내년 1월부터 시행예정인 AI 기본법의 보완, 개정 방향에 대해 어떤 입장인지 밝혀 주십시오.

3. 규제는 국가가 공공의 안전,복리증진, 공정경쟁 등을 실현하기 위해 국민의 권리를 제한하거나 의무를 부과하는 것입니다. AI 산업에도 적절한 규제가 필요하다는 요구에 대해 마치 ‘혁신의 장애물’이라는 식의 기업의 주장은 안전 장치 없는 브레이크가 달린 자동차를 운전하게 해 달라는 것과 같습니다. 합리적이고 적정한 규제는 오히려 기업의 혁신을 촉진하며 사회 전체의 이익을 증진시키는 측면이 있습니다.

  • 3.1. 이에 금지인공지능 정의, 고위험AI에 대한 위험완화 대책, 투명성, 책임성 부과 등과 같이 AI 기본법에 미비한 규정, 누구나 안전하고 인권친화적인 AI의 혜택을 누릴 수 있도록 국가가 적정한 가드레일을 설정해 주어야 한다는 요구에 대해 후보자의 입장은 무엇입니까?
  • 3.2. AI 기본법은 AI의 위험으로부터 시민의 안전과 인권을 보호할 수 있어야 합니다. 과기부는 이전부터 '우선도입, 사후규제' 원칙을 천명해왔습니다. 이미 사회 여러 분야에 도입되고 있는 AI 시스템이 인권과 안전에 미치는 아무런 영향이 없다고 생각하는지 밝혀 주십시오.
  • 3.3. 현재 AI 시스템의 문제로 인해 안전 위해나 차별적 결정 등의 문제가 발생할 경우, 책임을 파악하고 피해를 구제할 수 있는 제도적인 안전장치는 무엇입니까?

4. 군이나 경찰, 국가정보원 등 주요 국가기관들도 AI 시스템을 개발, 도입하려고 하고 있습니다. 이들 기관이 도입하는 시스템은 자칫하면 국민에 대한 감시 장치로 활용될 수 있습니다. 일반 공공기관 역시 다양한 목적으로 AI 시스템을 도입하고 있지만, 어떤 기관이 어떠한 AI 시스템을 도입하고 있는지조차 파악되고 있지 않은 상황입니다.  

  • 4-1. 공공기관이 AI 시스템을 도입할 때 투명성과 책임성을 보장할 수 있는 제도적 장치는 무엇인지 후보자의 의견을 밝혀주십시오.
  • 4-2. 공공기관 AI 등록제나 AI 조달 규제를 도입하는 것에 대한 후보자의 입장은 무엇입니까?

5. AI를 둘러싼 글로벌 경쟁 환경에서 각 국은 시민의 안전과 인권을 위한 규제를 외면하는 '바닥을 향한 경쟁'을 하고 있습니다. 이러한 문제를 해결하는 방안 중 하나는 세계적으로 공통의 규범을 만들어가는 것입니다.

  • 5-1. AI와 관련한 국제조약으로 유럽평의회의 협약(Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law)이 제정되어 있습니다. 한국도 이 협약에 가입해야 한다는 것에 대한 후보자의 입장을 밝혀 주십시오.