<안전장치 없는 AI 질주, 위험하다 - AI 정책에 반드시 포함해야 할 6대 정책> 이재명정부 국정기획위원회 제안
- AI 위험에 대비하고, AI 공공성 담보하는 균형잡힌 정책 필요
[보도자료 PDF 보기]
1. 오늘(6/26) 무상의료운동본부, 민변 디지털정보위원회, 정보인권연구소, 진보네트워크센터, 참여연대는 <안전장치 없는 AI 질주, 위험하다 - 이재명 정부의 AI 정책에 반드시 포함해야 할 6대 정책 제안> 기자회견을 개최하고 이를 국정기획위원회 제출했다. 국가의 인공지능 정책이 산업계의 요구에 치중한 나머지 시민에게 충분한 안전과 일자리를 보장하지 않고 개인정보를 침해하며 차별을 야기한다면, 인공지능 기술은 우리 사회가 회복시켜야 할 민주주의를 오히려 훼손하는 결과를 낳을 것이다. 이에 ▷AI 안전과 실업 문제 대응 국가 거버넌스 구축 , ▷AI 이용한 공권력 집행에 대한 통제 체계 구축, ▷AI 개발과 활용 시 개인정보보호 대책 마련 , ▷AI 피해 구제절차 보장과 국제조약 가입, ▷공공분야 인공지능의 민주성 보장, ▷‘자율살상무기’ 등 군사 AI 사용 통제방안 수립 등 < 이재명 정부가 AI 정책에 반드시 포함해야 할 6대 정책>을 제안했다.
2. 이재명 대통령이 AI 강국을 표방하며 신경제성장 동력으로 삼아 100조를 투자하겠다고 하고, 대통령실 산하 AI미래기획수석으로 하정우 네이버클라우드 AI혁신센터장을 임명하였다. AI수석실은 ‘AI 3대 강국 도약’ 공약 추진은 물론, 인구·기후 위기 해법 마련을 위한 정책까지 총괄할 것이라고 알려졌다. AI뿐 아니라 미래 사회의 중대한 문제들을 다루는 정책을 총괄하는 자리에 특정 분야, 특정 기업 출신의 인사를 임명한 것은 부적절하다. 이에 더해 과학기술정보통신부 장관 후보로 LG AI연구원에서 대규모 언어모델 개발을 주도한 배경훈 원장을 지명했다. AI미래기획수석과 과기부 장관은 앞으로 새정부의 AI 정책을 총괄하고 관리감독해야 할 책임자들이다. 그동안 산업계를 대표해 규제완화를 요구해온 대표적 기술전문가들인 이들이 과연 균형잡힌 정책을 수립하고 추진할 지는 의문이다.
3. 이재명 정부는 전임 정부들과 같이 막연히 향후 성장 가능성이 높은 산업 분야에 투자하면 성공할 수 있다는 낙관적인 희망론에 근거하여 일방적인 태도로 AI 정책을 추진하면 안될 것이다. 무려 100조라는 천문학적 단위의 예산을 투입하겠다는 새 정부가 AI의 직접적 영향을 받는 “시민의 안전” 과 신기술에 대한 안전성과 신뢰성 확보에 대한 논의가 없는 것은 우려스럽다. 또한 AI 기술의 군사적 사용은 여러 심각한 위험을 초래할 수 있음에도 이재명 대통령은 규제범위나 윤리적 기준에 대한 사회적 논의가 매우 부족한 상황에서 “국방 R&D투자 확대로 국방 AI 첨단기술기반 구축” 공약을 추진하려고 하고 있다.
4. 유엔은 인공지능 환경에서 사회권 실현을 위한 국가의 역할을 촉구하면서, 기술 변화로부터 사회적 보호 및 노동권을 보호할 것을 요구한 바 있다(A/HRC/43/29, 2020). 인공지능의 급속한 확산이 시민의 삶과 노동에 미칠 영향이 지대한만큼 국가가 이에 대응하고 사회적 회복력을 갖추기 위한 체계를 마련해야 한다는 것이다. 국가의 임무는 국민의 안전과 복지를 보장하고 사회적 불평등을 해소하는 것이다. 특히 AI 정책을 소관할 과학기술정보통신부장관과 개편예정인 국가인공지능위원회는 AI가 가져올 우리 사회의 변화뿐 아니라 인구, 기후위기 등 미래 의제에 대비하는 정책을 개발하고 제안할 막중한 책임을 떠안는 자리이다. 이를 위해 산업전문가가 아니라 사회, 과학, 인문학적 소양을 두루 갖춘 인사가 필요하다.
5. 그동안 우리 시민사회는 국가 차원의 AI 정책은 반드시 시민의 생명, 안전 및 민주주의에 미치는 위험도 대비하는 균형잡힌 AI 정책이어야 한다고 주장해 왔다. 이재명 정부가 추구하는 AI 정책은 인간을 위한 AI, 국민을 위한 AI여야 할 것이다. 이를 위해서는 반드시 AI가 가져올 위험에 국가의 책임을 분명히 하고, AI 공공성을 담보하는 정책이 추진되어야 한다. 국민주권정부를 표방하는 이재명 정부는 전임정부와 같이 일방적인 AI 육성이 아니라 AI가 가져올 위험에 대비하고 AI의 공공성을 담보할 균형잡힌 정책을 수립, 추진해야 할 것이다. 끝.
⃞ 개요
- 제목 : <안전장치 없는 AI 질주, 위험하다 - 이재명 정부의 AI 정책에 반드시 포함해야 할 6대 정책 제안>
- 일시 및 장소 : 2025.6.26.(목) 오전 11시 30분, 정부서울청사 창성동 별관 앞
- 공동주최 : 무상의료운동본부, 민주사회를 위한 변호사모임 디지털정보 위원회, 정보인권연구소, 진보네트워크센터, 참여연대
- 사회 : 김희순 참여연대 공익법센터 팀장
- 발언
- 정보인권연구소 장여경 상임이사
- 민주사회를 위한 변호사 모임 디지털정보위원회 김병욱
- 변호사진보네트워크센터 희우 활동가
- 참여연대 공익법센터 운영위원 구본석 변호사
- 정책 제안서 전달 : 각 단체 대표 참석자
안전장치 없는 AI 질주, 위험하다
이재명 정부 AI 정책에 반드시 포함해야 할
6대 정책과제
2026. 6. 26.
무상의료운동본부 · 민주사회를 위한 변호사모임 디지털정보위원회 · 정보인권연구소 · 진보네트워크센터 · 참여연대
들어가며
- 전국의 30개 인권· 노동· 언론· 환경· 소비자 단체들은 21대 대통령선거를 앞두고 디지털·AI 시대 민주주의 정책을 제안한 바 있다. 단체들은 AI 시대 민주주의와 인권을 말하는 대통령을 요구하며 △AI 안전과 실업 문제에 대한 국가적 대응 체계, △알고리즘 편향과 디지털 차별 방지, △빅테크의 데이터 및 자원 남용 방지 등 3개 분야에서 12개 정책을 제안하였다. 이중 일부 제안은 이재명 대통령의 공약 중 “AI 시대, 신뢰할 수 있는 미디어 이용환경”, “투명하고 공정한 온라인 플랫폼 시장 구축의 선도국”, “개인정보 보호 강화” 제하의 의제들과 관련이 있다.
- 이재명 대통령의 임기 동안 국정 운영 방향의 청사진을 제시할 국정기획위원회는 이들 의제를 보다 구체화하고 이행방법을 제시해야 할 필요가 있다. 우리 사회가 인공지능의 발전에 큰 기대를 거는 이유는 결국 인공지능이 우리 사회의 여러 문제를 해결하는 데 보탬이 되고 사회권 등 시민의 인권과 민주주의를 실현하는 데 기여할 수 있기를 바라기 때문이다. 이를 위해서는 국가가 인공지능 발전과 인권 보호 책무 간에 적극적인 교량 역할을 수행할 수 있어야 할 것이다.
- 큰 규모의 기업이 인공지능 발전을 주도하면서 국가적으로도 기업의 인공지능 혁신 환경 조성과 촉진에 관심이 집중되고 있다. 그러나 국가는 일반 시민과 노동자야말로 인공지능으로부터 영향을 받게 될 핵심적인 이해관계자라는 사실을 인식하고 이들이 참여하는 인공지능 시대 민주주의 과제도 반드시 살펴야 한다. 국가가 인공지능 기업들의 이해관계만 살펴서는 우리 사회가 겪기 시작한 디지털 사회 문제에 제대로 대처할 수 없다. 만약 국가의 인공지능 정책이 산업계의 요구에 치중한 나머지 시민에게 충분한 안전과 일자리를 보장하지 않고 개인정보를 침해하며 차별을 야기한다면, 인공지능 기술은 우리 사회가 회복시켜야 할 민주주의를 오히려 훼손하는 결과를 낳을 것이다.
- 그런 점에서 이재명 정부가 출범 이후 인공지능 촉진 관련 행보를 적극적으로 이어가면서도 특정기업 출신 인사로 AI미래기획수석과 과학기술정보통신부 장관을 지명하였고 인공지능시대 민주주의와 인권 과제에 대해서는 거의 언급하고 있지 않다는 점이 우려스럽다.
- 우리는 국가가 인공지능 시대 민주주의와 인권을 보호할 책무를 지고 있음을 다시한번 강조하며, 인공지능 정책과제로 ▷AI 안전과 실업 문제 대응 국가 거버넌스 구축 , ▷AI 이용한 공권력 집행에 대한 통제 체계 구축, ▷AI 개발과 활용 시 개인정보보호 대책 마련 , ▷AI 피해 구제절차 보장과 국제조약 가입, ▷공공분야 인공지능의 민주성 보장, ▷‘자율살상무기’ 등 군사 AI 사용 통제방안 수립을 제안한다.
정책과제1. AI 안전과 실업 문제 대응 국가 거버넌스 구축
1. 현황 및 문제점
유엔은 인공지능 환경에서 사회권 실현을 위한 국가의 역할을 촉구하면서, 기술 변화로부터 사회적 보호 및 노동권을 보호할 것을 요구한 바 있다(A/HRC/43/29, 2020). 인공지능의 급속한 확산이 시민의 삶과 노동에 미칠 영향이 지대한만큼 국가가 이에 대응하고 사회적 회복력을 갖추기 위한 체계를 마련해야 한다.
그간 국가 인공지능 거버넌스와 유사한 체계로는 국가인공지능위원회를 들 수 있으며, 이 기구는 윤석열 정부에서 대통령령에 근거하여 설치되었다가 새로 제정된 ‘인공지능기본법(인공지능 발전과 신뢰 기반 조성 등에 관한 기본법)’에 기반해 개편을 준비하고 있다. 또한 최근 과학기술정보통신부는 국정기획위원회에 ‘AI 정책실’ 신설을 건의하였다. 그러나 이들 기구가 소관할 것으로 기대되는 인공지능 정책은 모두 산업 진흥에 치중되어 있으며, 인공지능의 안전과 실업 문제에 대응하는 국가적 거버넌스 체계는 거의 논의되고 있지 않다.
윤석열 정부에서 일방적으로 추진하였던 AI 디지털교과서는 시민들의 불신과 외면 속에 좌초될 운명이다. 그러나 여전히 우리는 고용 축소, 안전 위험, 차별 등 인공지능의 위험한 측면이 우리 사회에 중대하게 미칠 영향이 무엇인지 예상하고 있지 못하며 국가적 대책을 마련하고 있지도 않다. 이 첨단산업 분야와 관련하여 수립된 국가 거버넌스 체계가 만약 정부와 산업계의 이해 관계만을 위한 밀실 논의에 그친다면, 시민은 자신의 삶과 노동에 중요한 영향을 미치게 될 인공지능 관련 정책에서 소외될 것이다. 빅테크 지배력이 갈수록 커지는 인공지능 사회에서 시민을 배제하는 인공지능 정책은 민주주의와 거리가 멀어질 수밖에 없으며 시민들의 신뢰도 얻지 못할 것이다.
인공지능은 우리 사회에 미칠 영향은 기술 산업 부처만의 소관 사항이 아니며, 노동, 안전, 인권 등 각 분야를 소관하는 여러 부처에 걸친 관심사라 할 수 있다. 그러나 과학기술정보통신부는 인공지능기본법을 일임하여 소관하면서도 기본권에 대한 영향을 평가하도록 국회가 입법한 인공지능 영향평가 정책에 대해서 국가인권위원회와 최소한의 협의조차 행하지 않고 있다. 이런 상황에서 다방면에 걸쳐 있는 인공지능 정책에 대하여 범부처적인 기획조정 역할을 기대받는 국가인공지능위원회는 방송통신위원회의 <AI 서비스 이용자보호 가이드라인> 사례에서 오히려 과기부에 결정을 일임하는 소극적 태도를 보였다.
2. 세부과제
- 국가인공지능위원회를 비롯한 국가 인공지능 거버넌스 체계는 고용보장 및 산업안전, 공정경쟁 및 소비자안전, 제품안전, 교통안전, 개인정보 보호, 인권 침해 방지 등 다방면에 걸친 인공지능 문제를 범부처적으로 다루어야 함.
- 국가 인공지능 거버넌스에 인공지능 고용 축소, 안전 위험, 차별 문제에 대한 당사자, 관련 단체 및 전문가의 민주적 참여를 보장해야 함.
정책과제2. AI 이용한 공권력 집행에 대한 통제 체계 구축
1. 현황 및 문제점
기존의 국가 감시 및 공권력 집행 체계가 아무런 통제를 받지 않고 인공지능 기술로 고도화되고 자동화한다면, 시민의 자유에 중대한 영향을 미치고 때로는 인권 침해를 낳게 될 우려가 있다.
실제로 지난 12. 3. 비상계엄 시기 전후로 계엄군이 지방자치단체 CCTV 시스템에 무제한으로 접속하였으며, 그 이후로도 군을 비롯한 국가기관의 무제한적인 CCTV 접속 및 열람 권한은 시정되지 않은 채로 인공지능에 기반한 CCTV 지능화가 계속 추진되고 있다.
특히 윤석열 정부에서 경찰이 수립한 치안과학기술계획, 즉 <제2차 치안 분야 과학기술 진흥 종합계획('24~'28)>은 공공장소를 실시간으로 감시하고 동작을 예측하는 인공지능 시스템의 도입을 추진해 왔다. 국가가 일방적으로 이러한 인공지능 감시 기술을 도입하는 것은 시민을 감시한다는 우려와 불신으로 이어질 수 있다.
2. 세부과제
- 군, 경찰, 국가정보원, 대통령경호처 등 국가기관의 지방자치단체 CCTV 접속 및 열람 권한의 실태를 일제 점검하고 관련 권한을 폐지해야 함.
- 경찰이 수립한 치안과학기술계획과 관련 시행계획들을 점검하고 인권침해 우려가 큰 실시간 생체인식 및 추적 사업에 대하여 중단, 보류 및 재고해야 함.
- 군, 경찰, 국가정보원, 대통령경호처 등 주요국가기관의 인공지능 기반 감시 및 집행 체계에 대하여 제한하고 통제하는 법률을 추진해야 함. 공권력이 도입하는 인공지능 기술이 인권과 민주주의 원칙에 부합하도록 보장하고 독립적이고 전문적인 제3자가 사전 인권영향평가 및 사후적으로 감독하는 체계를 마련해야 함.
정책과제3. AI 개발과 활용 시 개인정보보호 대책 마련
1. 현황 및 문제점
우리나라 시민은 AI가 유발할 수 있는 개인정보 위험의 심각성에 대해서 성인 76.1%, 청소년 76.2%가 “심각하다”고 응답했다. SKT 개인정보 유출 사태에서 볼수 있듯이 개인정보 보호를 빅테크 기업의 불투명한 선의에만 맡겨둘 경우, 정보주체 시민의 신뢰를 저버리는 중대사고로 이어질 수 있다.
이러한 상황에서 대통령 공약은 “투명하고 공정한 온라인 플랫폼 시장 구축의 선도국” 제하에서 “거대 플랫폼 기업의 이용자 보호 수준 제고”를 위하여 “개인정보 수집·활용에 대한 실태 점검 및 제재 수준 강화”하겠다는 내용이 포함되어 있다. 또한 “개인정보 보호 강화” 제하에서는 “인공지능 시대에 맞는 개인정보보호 평가·관리 체계 구축”을 제시하고 있다.
이를 위해서는 윤석열 정부가 완화한 개인정보보호 정책을 점검하고 바로잡는 것이 필요하다. 윤석열 정부의 개인정보보호위원회는 차량번호나 인터넷 등 공개된 개인정보에 대하여 규제를 완화하는 유권해석을 가이드라인으로 발표하며 정보주체 보호보다 AI 기업을 위한 데이터 확보를 중시하는 모습을 보여 왔다. 또한 정보주체 동의 없이 원본 그대로의 개인정보를 자유롭게 이용할 수 있도록 허용하여 개인정보보호법의 근간을 뒤흔드는 개인정보보호법 개정도 예고한 상태이다. 개인정보와 알고리즘을 이용하여 개인을 표적으로 삼는 온라인 광고에 대해서도 개인정보보호위는 산업계 요구에 포획된 모습을 보이며 가이드라인 발간을 계속 연기해 왔다.
머신러닝 이후 인공지능 기술은 대량의 데이터 처리가 수반될 수밖에 없고 이 데이터에는 필연적으로 시민들의 개인정보가 포함되어 있다. 따라서 공약에서 말하는 거대 플랫폼 기업의 이용자 보호와 인공지능 시대에 맞는 개인정보보호 관리 체계에는 당연히 정보주체의 헌법상 권리인 개인정보자기결정권에 대한 완전한 존중을 포함해야 한다. 즉, 인공지능 학습을 위해 가명정보를 비롯한 자신의 개인정보가 수집되고 이용되는 데 대하여 동의권은 물론이고 데이터세트에서 자신의 개인정보를 처리하는 데 반대(opt-out)하거나 처리정지를 요구할 권리의 행사를 보장해야 하는 것이다.
2. 세부과제
- 윤석열 정부 시기 공개된 개인정보에 대하여 보호를 완화하는 유권해석을 담은 인공지능 관련 가이드라인과, 사실상 정부가 추진해온 개인정보보호법 개정안(인공지능 개발 목적으로 원본 개인정보를 목적 외 활용할 수 있도록 하는 개정안)들에 대하여 재점검해야 함. 개인정보처리자의 잘못된 관행으로 이어지거나 정보주체의 권리를 침해할 수 있는 해석 및 개정 내용에 대하여 정정 또는 시정해야 함.
- 온라인 표적 광고를 위한 행태정보를 수집할 때는 정보주체에게 고지하고 동의를 구하도록 해야 함. 쿠키 ID, AD ID(광고식별자)를 통한 행태정보 수집을 개인정보처리로서 인정하고 개인정보보호법을 적용해야 함. 아동의 개인정보와 민감정보에 기반한 프로파일링 및 표적 광고에 대하여 규제해야 함.
정책과제4. AI 피해 구제절차 보장과 국제조약 가입
1. 현황 및 문제점
인공지능 제품과 서비스가 확산되면서 인공지능의 위험이 소비자와 노동자 등 그 영향을 받는 사람에게 부정적 영향을 미칠 우려가 커지고 있다. 그러나 2026년 1월 시행을 앞두고 있는 인공지능기본법은 인공지능 제품의 안전을 보장하거나 인공지능의 인권침해를 시정하는 규율적 측면이 매우 부족한 실정이다.
예를 들어, AI 채용으로 불합격 통보를 받은 청년도, 사회보장 AI로부터 보조금 지급거부 결정을 받은 시민도, 학력평가 AI로부터 납득할 수 없는 점수를 받은 학생도, 의료 AI의 진단오류로 피해를 입은 환자도 이 법에 의해서는 충분한 설명이나 구제를 보장받을 수 없다.
이에 고용보장 및 산업안전, 공정경쟁 및 소비자안전, 제품안전, 교통안전, 개인정보 보호, 인권 침해 방지 등 소관 분야와 전문성을 보유한 각 규제기관이 인공지능으로 인하여 피해를 받은 사람을 구제할 수 있는 체계를 갖추어야 한다. 국가는 이들 기관이 인공지능 피해자의 구제 체계를 갖추는 데 필요한 자원을 충분히 제공하여야 한다.
특히 피해자가 인공지능으로 인한 피해를 구제받기 위해서는 인공지능 작동의 원인과 결과에 대한 정보에 접근할 수 있어야 하고 피해 사실을 손쉽게 진정하고 구제수단에 접근할 수 있는 체계를 국가로부터 제공받을 수 있어야 한다. 국가는 인공지능을 시장에 공급하거나 업무에 배치하는 사업자 또는 인공지능을 개발하거나 도입하는 공공기관이 인공지능 학습데이터 등 주요사항에 대하여 일정하게 기록하고 문서화하여 영향을 받는 사람에 대하여 해당 정보를 제공하고 설명할 수 있을 뿐 아니라 규제 기관이 이에 대해 접근하여 조사를 수행할 수 있도록 제도를 정비하여야 한다.
더불어 우리나라도 관련 정보를 영향을 받는 사람에게 공개하고 국가에 진정할 수 있도록 보장할 것을 각국 정부에 요구하는 AI 국제조약(Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law)에도 가입할 필요가 있다.
2. 세부과제
- 각 규제기관은 소관하는 영역에서 인공지능으로 인하여 피해를 받은 사람을 구제할 수 있도록 체계를 마련해야 함. 고위험 인공지능 및 공공기관 인공지능 등 일정한 인공지능에 대해서는 주요사항에 대한 기록 및 문서화하도록 하여 영향을 받는 사람과 규제기관에 대하여 정보를 제공하고 설명을 보장할 수 있도록 제도를 정비해야 함.
- AI 국제조약에 가입하여 AI 구제를 위한 국제사회 노력에 동참해야 함.
정책과제5. 공공분야 인공지능의 민주성 보장
1. 현황 및 문제점
윤석열 정부에서는 “챗GPT를 정부 업무에 활용하라”는 대통령 지시 이후 많은 공공기관에서 인공지능을 무차별적으로 도입해 왔다. 특히 AI 디지털교과서의 경우 학생, 학부모, 교사를 비롯한 교육주체의 의견을 충분히 반영하지 않고 졸속으로 추진되면서 많은 사회적 논란을 빚어 왔다. 일부 공공기관에서는 AI 도구를 사용하여 채용에 대한 결정을 내리고 있지만, 그 의사결정이 합법적이고 공정하게 이루어지고 있는지 시민들이나 그 대상자에게 투명하게 공개하지 않는다.
공공분야 인공지능이 빠른 속도로 확산되고 있으나 그 적용을 받게 될 시민들에게 미치는 영향과 위험을 사전에 검토하거나 방지하는 조치가 제도적으로 보장되어 있지 않다. 행정기본법 제20조의 제정시행 이후로 경찰의 도로교통 단속 등 일부 행정처분이 완전자동화된 방식으로 시행되고 있지만, 공공분야 인공지능에 대한 설명요구권이나 이의제기권 등 적법절차를 구체적으로 보장하는 제도가 충분히 마련되어 있다고 보기 어렵다. 인공지능 사업자가 기록이나 문서를 마련하지 않았을 경우 설명을 보장하거나 이의제기의 근거를 확인하기 어려울 수 있기 때문이다.
공공분야 인공지능이 어떤 식으로 얼마나 도입되어 있고 그 위험과 대책이 무엇인지 시민 앞에 투명하게 공개하고 의견을 수렴할 필요가 있다. 공공기관은 인공지능을 조달할 때 인권영향평가를 의무적으로 실시하고 식별된 위험을 방지하거나 완화하여야 하며, 인권영향평가 제도 마련 및 시행에 국가인권위원회가 참여해야 한다. 특히 공공기관 의사결정에 사용되는 인공지능의 경우 그 결정의 대상이 되는 사람에게 적법절차의 권리를 명시적으로 보장할 필요가 있다.
2. 세부과제
- 모든 공공 AI는 국가에 등록되어 시민 앞에 투명하게 공개하고 시민 의견을 수렴해야 함.
- 공공 AI 조달에서 인권영향평가가 의무화돼야 하며, 인권영향평가 제도 마련 및 시행에 국가인권위원회가 참여해야 함.
- 자동화된 행정처분 등 공공기관 의사결정의 대상이 된 사람에게는 적법절차의 권리 등 기본권 행사를 보장하고 공공분야 인공지능의 민주성을 보장해야 함.
정책과제6. ‘자율살상무기’ 등 군사 AI 사용 통제방안 수립
1. 현황 및 문제점
전 세계적으로도 인공지능을 활용한 무기 개발과 투자가 크게 증가하고 실제 전장에 투입되어 사용되고 있다. 러시아의 우크라이나 침공으로 시작된 전쟁에서는 AI 자폭 드론이 사용되었으며, 적을 스스로 식별하고 사살 여부를 판단하는 AI가 탑재되어 운용되었다. 이스라엘은 팔레스타인 가자지구에서 군사상 표적 식별에 AI를 활용했으며, AI가 정해준 표적을 검증 없이 살해했다.
이재명 대통령은 “국방 R&D투자 확대로 국방 AI 첨단기술기반 구축”을 공약으로 제시하고 구체적으로 ▷국방과학연구소 내 국방인공지능센터 역량강화 ▷국방AI기반 구축을 통한 지능형 무기체계 전력화 ▷차세대전투기, 첨단 항공엔진 독자 개발 등 자주국방력 확보 ▷유·무인 복합 전투체계 고도화”를 하겠다고 밝혔다.
그러나 AI 기술의 군사적 사용, 특히 자율살상무기시스템(Lethal Autonomous Weapons Systems, LAWS) 개발은 여러 심각한 위험을 초래한다. 기술적 한계, 윤리적 문제, 책임성 문제, 민간인 피해 증가, 오남용 가능성, 분쟁 확대 위험 등이다. 군사용 AI 규제에 대해 국제적으로 합의된 가이드라인이 부재한 가운데, 유엔 사무총장은 2026년까지 인간의 통제없이 작동하며 국제인도법에 부합할 수 없는 치명적 자율무기를 금지하고, 그외 모든 자율 무기를 규제할 수 있는 법적 구속력이 있는 조약을 채택하라고 촉구했다. 현재 다양한 층위에서 자율무기에 대한 국제사회 논의가 진행 중이다.
국내에서 AI 과학기술강군 육성을 목표로 삼고, 국방인공지능기술연구원을 개소하는 등 군사용 인공지능 연구개발·활용이 크게 늘어나고 있으나 규제 방안과 윤리적 기준에 대한 논의는 매우 부족하다. 한국정부는 2024년 <인공지능의 책임있는 군사적 이용에 관한 고위급회의>를 공동주최하며 군사분야 AI의 책임있는 이용, 윤리적·법률적·인도주의적 기준 마련을 강조한 바 있다. 이에 걸맞은 국내적 논의와 정책 수립이 하루 빨리 진행되어야 한다.
2. 세부과제
- 자율살상무기 포함 군사용 인공지능 활용에 대한 윤리적 기준, 안전성 확보와 통제 방안 수립을 위한 통합적 정책과 거버넌스를 마련해야 함.
- 국방부가 개발 중인 AI 가이드라인과 윤리적 평가 기준에 대한 공청회 등 공론화와 사회적 합의가 필요함.