글로벌 인공지능(AI) 시대에 발맞춰 국내에서도 ‘AI법’ 마련 필요성이 대두되고 있다. 규제 중심의 유럽연합(EU) AI법과 기업의 자율성을 중시하는 미국의 정책 등 해외 움직임 사이에서, 대한민국이 AI 기술의 발전은 지원하면서도 부작용은 막을 수 있도록 종합적인 검토와 국제적 협력을 위한 거버넌스를 구축해야 한다는 논의가 이어졌다.

법제처와 한국법제연구원은 12일 서울 중구 웨스틴조선 서울에서 ‘인공지능(AI)과 미래법제’란 주제로 ‘제1회 미래법제 국제포럼’를 공동 개최했다. 전 세계 AI 관련 법 동향과 우리의 입법 방향성에 대해 논의하는 장을 마련하기 위해서다.

이완규 법제처장은 개회사에서 “새롭게 등장하는 첨단 과학기술이 사회 전반에서 부작용 없이 신속하게 활용될 수 있으려면 이를 뒷받침하는 제도적 시스템이 매우 중요하다”며 “올해 3월 유럽연합(EU)에서는 AI 기술의 급속한 발전과 광범위한 적용에 따른 윤리적·법적·사회적 영향에 대응하기 위해 포괄적으로 인공지능을 규율하는 ‘유럽연합 인공지능법(EU AI Act)’이 유럽 의회를 통과했다”고 말했다.

이어 “미래법제 국제포럼은 대한민국을 비롯한 많은 국가들이 직면해 있는 인공지능 규율, 기후위기, 저출생 등의 문제들을 해결할 수 있도록 각 국가들이 법제적 차원에서 준비하고 있는 사항들을 논의하고 아이디어를 공유하기 위해, 올해 처음으로 개최하는 국제적 논의의 장”이라며 “그 첫걸음으로 세계 주요 국가의 인공지능에 대한 법적 규율 현황을 공유하고, 인공지능 활용 촉진과 신뢰성 확보 방안을 토의한다”고 개최 배경을 밝혔다.

한영수 한국법제연구원장은 환영사에서 “그야말로 ‘AI is everything(인공지능이 모든 것)’이라고 하는 상황에서, 세계 각국은 AI의 혁신성을 극대화하고 있다”며 “한편으로는 AI의 위험성으로부터 인류를 보호하기 위한 관점에서, 또는 AI 기술에 있어서 주도권을 잡기 위한 기술 패권적 관점에서 각국의 입법을 서두르고 있는 상황”이라고 봤다.

그러면서 “대한민국의 AI 입법이 지난 5월 한국과 영국 정상이 공동 주재한 ‘AI 서울 정상회의’에서 채택된 바와 같이, AI의 혁신성은 최대화하면서 안전성은 최소화하고, 또 모든 인류가 AI 기술로부터 소외되지 않는 방향으로 대한민국의 입법이 이뤄지길 간절히 소망한다”고 덧붙였다.

이후 이날 본 행사는 유하 헤이킬라 유럽집행위원회 AI 어드바이저(고문)의 ‘인공지능에 대한 유럽연합의 접근 방식’이란 주제의 기조연설을 시작으로 △AI 혁신과 신뢰를 위한 법제(국내·외 동향) △AI 활용 지원을 위한 미래 법제 2개 세션별 주제 발표와 토론으로 진행됐다.

헤이킬라 고문은 온라인 강연에서 ‘유럽연합 인공지능(EU AI)법’에 초점을 두고 EU의 신뢰할 수 있는 AI 접근 방식에 대해 발표했다. 어떻게 혁신을 선도하고, AI에 대한 가드레일을 설정하고, AI에 대한 국제적 거버넌스 개발을 통해서 AI에 대한 국제적 노력을 주도하는 것을 목표하는지를 설명했다. 이 세 가지 활동 영역을 통해 EU의 연구 및 혁신 지원과 EU AI법의 근거, 구조 및 주요 특징을 소개하고, AI 영역에서 EU의 국제적 협력에 대해서 전했다.

첫 세션에서는 유럽의회와 학계를 중심으로 EU, 미국, 캐나다의 AI 법제 배경과 전망 등 5개 주제 발표와 종합 토론이 이뤄졌다. 이어 두 번째 세션에서는 국제해사기구(IMO)의 해상자율운항선박 규제와 한국법제연구원의 업무 현장에서 AI와 공존하는 미래 사회를 위한 입법이란 2개 주제 발표와 토론이 이어졌다.

카이 제너 유럽의회 디지털 정책 고문은 ‘EU AI법 – 배경’전망 및 국제적 의미’에 대해 발표했다. EU AI법은 2023년 12월 9일 EU 의회와 이사회가 합의했으며 올해 5월 21일 최종 승인했다. 그는 EU AI법이 △최소 위험 또는 없음 △제한된 위험 △고위험 △허용불가 위험 등의 4단계 ‘위험기반 접근방식’을 취한다고 설명했다.

제너 고문은 “고위험 AI는 건강, 안전 및 기본권에 높은 위험을 초래한다고 분류되며 전체 AI 시스템의 5~15%가 이에 속한다”며 “허용불가 위험은 건강, 안전 및 기본권에 명백한 위험을 가하는 시스템으로 전체 AI 시스템중 1% 미만으로 추정된다”고 말했다.

그러면서 그는 △국제적 정합성 △AI 가치 사슬에 따른 부담 공유 △기술 표준을 통한 적합성 추정 △미래 대비 등을 AI법의 장점으로 꼽았다. 반면 단점으로 “생성형 AI 시스템은 새로운 입법체계 생태계에서 부적합하며, 수평적 규제는 법적 중복 규제를 불러일으키거나 모호한 법조문은 산업계에 혼란을 일으킬 수 있다”고 경고했다.

최경진 가천대 법학과 교수(한국인공지능법학회장)는 ‘AI 기반사회를 위한 한국의 AI 미래 법제’ 주제 발표에서 규제도 중요하지만 과감한 혁신 지원도 필요하다고 강조했다. 최 교수는 “고위험 AI 등을 규제하고자 할 때 인공지능 그 자체가 가져오는 불투명성과 신뢰하지 못하는 측면, 성능 고도화에 따른 영향 등을 고려해 비례적이고 종합적으로 규제 대상을 정할 필요가 있다”고 강조했다.

그는 이어 “인간의 정체성이나 인격을 훼손 또는 파괴하는 AI 사용에 대해서는 엄격히 적용해야겠지만, 그렇지 않으면 자율적인 ‘신뢰 프레임워크’를 만들어 줄 수 있는 체계를 뒷받침하는 입법을 해야 한다”면서 “AI는 모든 분야에 접목되고 있기 때문에 컨트롤 타워로서 강력한 조정 기능을 가진 거버넌스, 동시에 국제적인 협력이 함께 이뤄질 수 있는 거버넌스를 만들어가는 것이 필요하다”고 주장했다.