
4차산업혁명융합법학회(회장 한명관)가 12월 6일, 고려대 법학연구원 사이버법센터(소장 박노형)와 함께 ‘인공지능의 법적 과제’ 국제공동학술대회를 개최했다. 지난해 12월 창립한 이래로 총 다섯 번의 학술회를 열며 활발하게 활동해 온 4차산업혁명융합법학회는, 이번 자리를 특별히 국제학술대회로 마련했다.
한명관 회장은 “스티븐 호킹 박사와 일론 머스크 CEO는 인공지능의 위험성을 경고하며 두려움을 표명한 반면, 중국의 마윈 회장은 AI가 가져올 이득을 강조하며 두려워할 필요가 없다고 말했다”면서 “오늘 논의를 통해 우리가 인공지능 법적 과제를 둘러싼 문제의 핵심이 무엇이며 그것을 어떻게 풀어나갈지 정확히 파악하고, 해외 사례들을 통해서는 시사점을 얻게 될 것”이라고 기대를 내비쳤다.
이번 학술대회의 준비위원장인 황인규 부회장(CNCITY 에너지 대표이사)은 “인공지능을 제대로 활용할 수 있는 사회 여건이 잘 형성되어야 한다는 점에서 기술 못지않게 중요한 것이 법과 제도의 개선”이라며 “인공지능 사용 결과에 대해 민형사 및 행정상 책임을 누가 어떻게 어떤 비율로 져야 할지, 사고 단계별로 구체적인 위험 감소 전략은 어떻게 세워야 할지, 보상은 어떻게 해야 할지 등등 많은 숙제가 남아 있다”고 말했다.
■ “인공지능 관련 법학과 법 실무에 비상한 노력 투입돼야”
기조발제를 한 고려대 법학전문대학원 박노형 교수는 인공지능 개념의 불확실성이 오히려 인공지능 관련 기술 발전을 촉진하고 있다고 말했다. 그는 “인공지능은 오늘날의 대표적 화두이지만 실제 그 정의는 완벽하지 않아서, 이러한 인공지능을 핵심으로 하는 4차산업혁명시대의 발전 방향이나 내용 역시 확실한 것이 없다”고 했다.
박 교수는 “폭넓게 이해하여 인간지능에 버금가는 시스템을 인공지능이라고 한다면, 인공지능은 그 자체로서 목적이 되는 게 아니라 인간과 사회 발전을 위한 수단이 되어야 한다”면서 “인공지능에 대한 법적 접근도 인공지능의 선의적 활동을 보장하는 동시에 인공지능의 악의적 활동을 통제하는 방식이 되어야 한다”고 말했다.
그가 인용한 조사에 따르면 현재 인공지능 기술 수준은 미국을 100%로 봤을 때 유럽이 90.1%, 중국이 88.1%, 일본이 86.4%, 한국이 81.6%다. 박 교수는 한국의 인공지능 기술이 미국은 물론 중국이나 일본을 따라잡기에도 무리가 있다고 봤다. 다만 그는 “인공지능 관련 법 발전에서까지 우리가 뒤처질 이유는 없다”면서 “인공지능에 대한 한국의 법학과 법 실무는 세계적 수준에 이를 수 있도록 법조, 법학계가 비상한 노력을 투입해야 한다”고 강조했다.
박 교수는 구체적인 법적 접근에 대하여 ‘전통적 법률관계의 주체인 자연인과 법인에 더하여 전자적 법인격까지 인정해야 할지의 문제’, ‘소위 로봇 판사나 로봇 변호사 등의 등장으로 인해 법률서비스 영역은 어떻게 어떠한 수준으로 대체될지의 문제’ 등에 대한 고민이 필요하다고 했다. 그는 “인공지능에 대한 법적 접근이 각 분야별로 독립적으로 수행되는 것은 바람직하지 않고, 법학 내지 법제도 내의 서로 다른 분야 간 협업이 필요하다”고 덧붙였다.
■ “알고리즘 프로세스에서 민사법은 전체적으로 한계 직면할 것”
독일 마인츠 대학의 요제프 루티히 교수는 ‘인공지능에 대한 유럽에서의 문제점과 법적 과제’를 발표했다. 그에 따르면 독일연방정부는 지난해 11월 ‘인공지능에 관한 장기 계획’을 통과시켰는데, 그 기저에는 ‘인공지능과 같은 파급력이 큰 기술로부터 사회의 기본가치 및 개인의 기본권이 계속 보호되고, 인공지능 기술이 윤리적·법적·문화적·제도적으로 사회와 인류에 기여하는 방식이 되도록 도입해야 한다’는 민주주의적 요청이 깔려있다.
지난 6월 유럽연합 집행위원회가 제시한 ‘인공지능 개발을 위한 윤리강령’ 33개 조항도 “인공지능에서 인간을 중심으로 해야 한다는 원칙의 근거를 형성하고, 인공지능이 혁신과 생산성을 위한 가장 변혁적인 기술에 해당한다”는 점을 반영하고 있다.
루티히 교수는 위 두 사례에 대해 “인공지능이 정치적 목표개념으로서 적합하다는 확신이 묵시적으로 깔려 있으면서 혁신과 결부된 위협을 정치영역에서도 강하게 느끼고 있다는 점이 매우 분명하게 드러나 있다”고 평가했다. 하지만 위협시나리오와 그에 대한 가능한 대응책들은 제시되지 않았다고 지적했다.
그는 현재 당면한 논의와 추가적인 입법 움직임은 헌법 차원에서도 충분히 검토되어야 한다고 했다. 독일의 슐레스비히-홀슈타인 주는 2014년, 행정절차상 ‘디지털화된 기본서비스’ 개념을 정의했는데, 누구도 관청과 법원에의 접근 방식 때문에 불이익을 입어서는 안 된다는 ‘디지털 격차’와 관련된 차별금지 규정이라고 전했다. 슐레스비히-홀슈타인 주헌법은 처음으로 명시적으로 ‘디지털 사생활’도 규정했다는 게 그의 설명이다.
루티히 교수는 “인공지능은 매우 상이한 적용 영역에서 다양한 형태들로 나타나기 때문에 일반적으로 평가하기 어렵고, 이 기술을 금지하는 것은 경제적인 측면에서 고려될 수 없다”면서 “알고리즘에 의해 조종되는 프로세스들에서는 알고리즘 자체가 결정을 내리고 의사표시까지 할 수 있기 때문에, 민사법은 전체적으로 그 한계에 직면하게 될 것”이라고 내다봤다.
“조종하고 영향을 주고 골라내고 구별하는 알고리즘은 기업의 핵심적인 영업비밀인 동시에 기업의 시장가치를 결정하지만, 그 과정은 투명하지 않다”고 말하기도 했다.

■ 법학의 도전 상황은?
루티히 교수의 발제에 대하여는 경북대 법학전문대학원의 김성룡 교수와 고려대 정부행정학부의 계인국 교수가 토론자로 참여했다.
김성룡 교수는 “완전한 자율주행차량, 자기학습을 통한 인지력 확장과 독자적 의사결정이 가능한 인공지능이 개발되었다고 전제할 때, 그 인공지능 로봇을 ‘로봇 인간’ 혹은 행위의 주체로 인정하는 것이 가능할지”에 대한 독일 논의 상황을 질문했다. 또한 “인공지능이 투입된 기술과 현상들을 일률적으로 규제 샌드박스의 대상으로 놓는 것이 ‘인간중심적 기술이용’이라는 기술에 부합하는 것인지”에 대한 의문을 남기기도 했다.
계인국 교수는 인공지능에 따른 법학의 도전 상황을 △내부적 소통방식(알고리즘)과 외부적 소통방식(텍스트, 수식, 그림, 동영상 등)의 분리 △인공지능의 도구성이 실제 지배구조를 위장할 가능성 △법적 규율대상과 방식의 불명확성 △민주주의의 전제인 의사의 다양성에 대한 위협 △알고리즘이 불투명성과 연결될 경우 평등으로 위장된 불평등의 심화 △기본권의 제3자효 등 기본권 수범자의 확대 문제 등으로 정리했다.
미국 스탠포드 대학의 조슈아 워커 교수의 발제에 대하여는 서경대학교 성봉근 교수와 고려대학교 정명현 교수가 토론자로 참여했다.
성봉근 교수는 2016년 세계 최초로 인공지능을 이용하여 미인을 선발한 대회에서 44명의 수상자 대부분이 백인이 된 사례와, 같은 해 위스콘신 주 대법원이 ‘콤파스’라는 알고리즘을 이용해 범죄자 재범률을 평가한 결과 흑인에게서 2배나 높은 재범률이 나온 사례를 들며 “인공지능 알고리즘은 편견과 차별의 오류를 가진 불완전한 시스템”임을 지적했다. 나아가 ‘통제가능성’과 ‘법인격 및 책임’ 문제, ‘감시 및 개인정보 보호’ 문제를 해결해야 할 법적 과제로 꼽으며 “인류가 머리를 맞대고 현명한 길을 찾아 나가야 한다”고 말했다.
정명현 교수는 2015년 하버드 케네디 스쿨을 근간으로 하는 ‘The Future Society’ 그룹이 발족한 ‘AI 이니셔티브’가 제시한 법률 관련 장단기 이슈를 소개했다. 그 내용으로는 △인간보다 우월한 AI 변호사에게 법적 작업을 위임하는 것은 적절한가 △법적 분쟁시 사실에 근거한 판결문과 인간의 존엄성 사이에서 어디에 더 비중을 둘 수 있는가 △생활 편의와 안전을 위한 수많은 IoT 장치들로부터 개인의 활동 정보를 수집해 서비스를 제공한다면 이러한 서비스가 독재적이고 중앙통제적인 사회를 만드는 건 아닌가 등이 포함됐다.
■ “AI 개발자 전적으로 책임질 수 없어...이용자가 책임 분담해야”
큐슈대 로스쿨 나리하라 사토시 교수는 “개발자의 예측 및 제어가 불가능하거나 어려워질 위험성이 발생할 우려가 있다는 점은 AI의 특성”이라고 했다. 바로 이 특성에서 ‘AI가 사고를 냈을 경우 개발자에게 과실에 의한 불법행위 책임 및 형사책임 성립의 전제가 되는 예견가능성 및 결과 회피 가능성을 인정할 수 있는가’의 문제가 파생된다는 것이다.
사토시 교수는 ‘AI의 네트워크화’에 대해서도 언급했다. 이는 AI가 인터넷을 통해 다른 AI 등과 상호 연결·연계하는 현상으로, 국경을 초월한 영향 또는 위험의 파급이 생길 수 있기 때문에 이로부터 ‘국제적 거버넌스 필요성’이 대두된다. 이 네트워크를 통해 복수의 AI 간 상호작용이 생기면 개별 AI의 개발자나 이용자들은 예측과 제어가 불가능해질 위험이 있다. 이러한 위험은 분야별(의료, 자율주행, 자동번역, 퍼스널 어시스턴트 등)로 다르게 나타나므로 분야별 특성에 따라 규범을 구체화해야 한다는 게 사토시 교수의 주장이다.
그는 개발자와 이용자의 책임 분담에 대해서도 말했다. “AI의 학습 및 네트워크화에 따른 위험의 예측·제어에 한계가 있음을 고려할 때, 개발자에게만 책임을 지우는 것은 부적절하다”면서 “개발자와 이용자 간에 불법행위 책임과 형사책임, 윤리적·사회적 책무 등을 적절하게 분담할 필요가 있다”고 했다.
자유를 중시해 온 사이버 공간(정보 세계)에서의 권리와, 안전을 중시해 온 물리 공간(사물 세계)에서의 법 원칙 사이에서 조화를 도모하는 것도 중요한 문제다. 사토시 교수는 양 공간이 융합될 수 있도록 법제도가 합리적으로 개편되어야 한다고 강조했다.
끝으로 그는 미국 플랫폼 GAFA(Google·Apple·Facebook·Amazon)의 패권과 중국 플랫폼 BATH(Baidu·Alibaba·Tencent·Huawei)의 대두, 일본 야후 재팬과 한국 라인의 합병·통합 등과 같은 국제적인 플랫폼 간 공정 경쟁 실현 문제도 향후 법적 과제로 꼽았다.
■ “기술을 법과 제도가 제때 뒷받침해주지 못한다”
사토시 교수의 발제에 대하여는 영남대 법학전문대학원 양천수 교수와 아마존 코리아 임진식 상무가 토론자로 참여했다.
양천수 교수는 “오늘날 AI는 딥러닝 기술이 적용되어 스스로 알고리즘을 개선 및 변경할 수 있는데, 개발자나 이용자가 예측하지 못한 법적 문제가 발생하는 것을 법적으로 어떻게 통제할 수 있을지”에 대해 의문을 남겼다. 또한 “인공지능에게도 인격성을 인정해야 한다는 주장이 나오는 상황에서 인공지능을 철저히 수단으로만 여기는 인간중심적 사고로 법적 문제를 접근하는 것은 문제가 있다”는 의견을 보이기도 했다.
임진식 상무는 특별히 개발자의 책임 문제에 대해 짚었다. 그는 “아마존은 20년 넘게 인공지능을 기반으로 비즈니스를 혁신하고 있다”면서 “가장 다양하고 가장 깊이 있는 인공지능 및 머신러닝 서비스를 제공하고 있지만 우리가 문제를 개선하기 위해 제공하는 기술을 법과 제도가 제때 뒷받침해주지 못하는 제약이 있다”고 했다. 나아가 “이용자가 도덕적이지 못한 방식으로 인공지능을 사용하는 것에 대한 책임을 과연 개발자가 나눠져야 하는가에 대한 고민도 하게 된다”고 전했다.
종합 토론자로는 성균관대 법학전문대학원 이경렬 교수, 한국마이크로소프트 이태희 상무, 한국형사정책연구원 김한균 연구위원, 주식회사 경신홀딩스 강지현 변호사가 참여했다.
이경렬 교수는 인공지능 기반의 형사법 운용이 가까운 장래에 실현가능해 보이지는 않는다고 했다. “복잡한 인간사에 대한 형사 사건을 모두 정보화하고 피의자 등 인간의 감정적인 미묘함까지 전산화하여 이를 근거로 형사재판을 할 수 있는 정도의 인공지능 개발에는 상당한 시간이 필요할 것”이라는 의견이다.
그는 “인공지능의 진보는 개인의 사생활 침해, 국가안보나 인류 존속에 대한 위협 문제를 해결하지 않고서는 성취되기 어려울 것”이라며 “인간의 판단이 AI 판단을 활용하는 정도를 넘어 AI판단에 의존하게 되는 순간 지배당하게 될 것”이라고 우려했다.
이태희 상무는 국내에서 인공지능 관련 법제를 포함한 데이터 관련 법률이나 정책을 수립할 때 반드시 국제적 상호운용성(interoperability)을 고려해야 한다고 했다. “AI 법제 및 정책을 만들 때 국제적 상호운용성을 원칙으로 삼아 글로벌 표준과 동떨어진 국내 규제를 만들지 않도록 유의해야 하며, 데이터 경제의 기반이 되는 퍼블릭 클라우드에 대해서도 글로벌 표준에 맞는 규제개선이 필요하다”는 지적이다.
그는 규제샌드박스 제도의 보완도 주문했다. “규제샌드박스는 정부로부터 받은 임시허가에 불과하여 허가받은 기간 동안 정부가 규제를 없애지 않으면 시장에서 사라질 수밖에 없는 시한부 생명”이라면서 “정부의 후속조치 미비로 지속적인 비즈니스가 불가능해질 경우, 그 좌절감은 배가될 수밖에 없다”고 꼬집었다.
김한균 연구위원은 “인공지능 알고리즘이 사람보다는 덜 편향된 판단을 내릴 수 있지만, 판단의 기초가 되는 정보 자체가 편향되어 있기 때문에 차별적 판단을 하지 않도록 막는 기술개발은 여전히 난제”라고 말했다. 이러한 부작용 위험 때문에 규제 요구는 더 높아질 수 있다는 것이다.
김 연구위원은 “불충분한 정보에 근거한 규제나 부적절한 규제의 역작용을 경계해야 한다”고 하는 한편 “인공지능 기술발전의 혜택이 공정한 배분과 민주적 가치 향상에 기여하는지, 권력을 집중시키고 극소수에게만 혜택이 돌아가게 하는지에 따라 그 정당성이 평가되어야 한다”고 말했다.
자동차 부품회사 소속인 강지현 변호사는 자율주행 자동차 이슈를 중요하게 짚었다. 세계 최고 수준의 자율주행 자동차 기술을 가진 미국은 머지않아 인간의 개입 없이 스스로 주행하는 레벨5 수준의 자율주행 자동차가 상용화될 예정이다. 이에 대해 강 변호사는 “자동차 회사 입장에서는 자동차를 타고 있는 사람의 안전을 최우선으로 할 텐데, 자율주행 자동차가 탑승자를 경미한 부상에 그치도록 하기 위해 사고 상대방을 사망에 이르게 하는 선택을 한다면 이 상황에 어떠한 철학적, 윤리적 원칙이 적용되어야 하는지 의문”이라고 했다.