
한국인공지능법학회(회장 고학수)와 한국정보화진흥원(원장 문용식)이 지난 7월 24일, “인간과 AI의 공존- AI윤리 그리고 일자리”를 주제로 한 공동세미나를 개최했다. 이번 세미나는 지난 5월 더불어민주당 변재일 의원이 발의한 ‘지능정보화 기본법’이 국회를 통과해 12월 시행을 앞둔 상황에서, AI·데이터 기술의 비약적인 발전으로 빠르게 변화하는 사회에 조응할 수 있는 적극적인 제도적·법적 지향점을 찾기 위해 마련됐다.
개회사를 전한 문용식 원장은 “인간과 인공지능의 공존은 더 이상 먼 미래의 일이 아니”라면서 “디지털 대전환의 과도기를 살고 있는 우리 사회는 법과 제도의 정비를 통해 기술의 발전속도에 뒤처지지 않도록 잘 대응하여야 하며, 이로써 풍요의 기회는 잘 살리고 새로운 도전과 위기에는 슬기롭게 대처해야 한다”고 말했다.
이날 고학수 한국인공지능법학회장이 “AI시대 윤리의 재구성”을, 허태욱 경상대 행정학과 교수가 “AI시대 미래 일자리와 IA(지능확장)”를, 부산대 법학전문대학원 권혁 교수가 “AI시대 노동법제도의 진화”를 발제했다. 토론자로는 김대원 카카오 정책팀 이사, 김미량 성균관대 교수, 이수영 KAIST 교수, 이중원 서울시립대 교수, 이다혜 서울대 법학전문대학원 강사, 이승길 아주대 교수, 정영훈 국회미래연구원 연구위원, 최영순 한국고용정보원 미래직업연구팀장, 허재준 한국노동연구원 고용정책연구본부장이 참여했다.
■ ‘인공지능 윤리’ 논의의 흐름
고학수 교수는 인공지능 윤리에 관한 논의가 머신러닝 이전의 빅데이터 분석 및 프로파일링 단계에서부터 시작됐다고 말했다. 시기적으로는 10년 전쯤이며, 대표적 자료로는 2012년 2월 발표된 미국 오바마 정부의 보고서를 들었다. 고 교수는 “이 보고서에 명시된 개념인 Transparency(투명성), Accountability(책임) 등이 현재의 인공지능 윤리 논의에서도 그대로 중요 개념으로 쓰이고 있다”고 전했다.
특기할 점은 오바마 행정부와 정치적으로 대척점에 서 있다고 평가되는 트럼프 행정부에서조차 2016년 오바마 정부에서 발간한 AI 보고서의 대표 기조를 그대로 수용해 보고서를 발간한 점인데, 고 교수는 이를 두고 “인공지능 윤리에 관한 한 미국 백악관이 선도적인 역할을 해 왔다는 점은 부인할 수 없으며, 명백히 다른 정치 지향에도 불구하고 트럼프 행정부가 오바마 행정부의 AI 이슈와 기조를 받아들였다는 점은 주목할 만하다”고 평했다. 그밖에 유럽 GDPR(General Data Protection Regulation), 엔지니어 중심의 세계적인 학술 단체인 IEEE(Institute of Electrical and Electronics Engineers), 아시아권에서 논의의 흐름을 주도하고 있는 싱가포르 등도 인공지능 윤리 논의 확산에 큰 역할을 하고 있다.
고 교수에 따르면 인공지능 윤리는 크게 세 가지 논의로 나뉜다. 인공지능 자체의 윤리, 인공지능 설계자·제작자의 윤리, 인공지능 이용자의 윤리다. 우리나라가 2018년 발표한 ‘인공지능 윤리 가이드라인’에서도 인공지능 개발자, 공급자, 이용자라는 세 가지 윤리 주체를 설정했는데, 사실상 이와 같은 맥락으로 이해할 수 있다.
유럽 의회에서 촉발된 ‘인공지능의 법인격(e-person)’ 논의는 “기존의 기술적·윤리적·법적 관점과 마찰을 일으키고 인간의 책임의식을 약화시킬 수 있다”는 전문가들의 문제제기에 따라 유럽연합에서조차 그 논의를 중단한 상황이며, 세계적으로도 유사한 분위기에 있다.
■ 인공지능 윤리원칙을 유형화하면?
고학수 교수 연구팀은 현재까지 발간된 세계의 인공지능 윤리 관련 문건 150여개를 크게 “1.기본원칙 중심 유형 2.기본원칙과 심화이슈를 함께 다룬 유형 3.윤리규범과 규제 거버넌스 정립방안까지 구체적으로 다룬 유형”으로 구분했다.
1유형에 속하는 대표적인 문건은 2019년 5월 OECD가 발간한 ‘Recommendation of the Council on Artficial Intelligence’다. 여기에는 우리나라뿐 아니라 중국, 미국, 유럽 등 서로 다른 비전을 가진 여러 국가들이 참여했다는 점과 사후적 보고 및 감독절차를 마련했다는 점이 특징적이다.
2유형에는 기업들이 참조하기 좋은 모델인 구글과 마이크로소프트의 문서가 있다. 미국 정부와 독일 정부의 보고서도 이 유형에 속하며, UN과 업계가 함께 만들어낸 “UNGP & IAPP, Building Ethics into Privacy Frameworks for Big Data and AI (2018. 10.)” 또한 기본원칙과 심화이슈를 함께 다룬 2유형이다. 이 문서는 특히 인공지능과 빅데이터의 오용(misuse) 못지않게 사용하지 않음(missed use)에 따른 부작용도 중요하다는 점을 강조하고 있다.
3유형에는 2018년 영국 상원, 2019년 싱가포르(2020년 1월 업데이트), 2019년 유럽연합의 인공지능 고위급 전문가 그룹(HLEG)이 발간한 문서들이 속한다. 기술전문가 집단이자 국제 표준화기구인 IEEE가 2019년 3월 발표한 문서는 2016년과 2017년 발간된 보고서들의 최종 보고서 격으로, 총 300여 페이지 분량에 기술전문가가 인공지능을 설계할 때 발생할 윤리적 문제들을 담았다. 이 보고서는 윤리원칙을 넘어 학제 간 교육과 연구, 조직 내 관행 형성, 책임과 평가라는 세 가지 차원의 거버넌스를 제시한 부분이 특징적이며, ‘P7000’ 시리즈라고 불리는 13가지 윤리적 신기술 표준을 제시하고 있다는 게 고 교수의 설명이다.
우리나라의 경우 비교적 이른 시기인 2007년에 ‘로봇윤리헌장 초안’이 발표됐다. 2018년도에는 한국정보화진흥원 등이 ‘지능정보사회 윤리 가이드라인’을 발표했고, 다음해 방송통신위원회가 ‘이용자 중심의 지능정보사회를 위한 원칙’을 발표했다. 기업에서는 카카오가 2018년 ‘카카오 알고리즘 윤리 헌장’을, 삼성전자가 2019년 ‘인공지능 윤리 핵심원칙(공정성, 투명성, 책임성)’을 발표했다.
■ 인공지능 윤리로써 거론되는 주요 개별 원칙들
고학수 교수는 국내외 인공지능 윤리원칙이나 가이드라인에 나타나는 주요 개별 원칙을 총 10개로 정리했다. Fairness(공정성), Transparency(투명성), Robustness/Safety/Security(견고성/안전성/보안), Privacy/Surveilence(프라이버시/침해성), Accountability(책임성), Bias/Non discrimination(편향성/비차별성), Inclusiveness(포괄성), Explainability(설명성), Human centered(인간중심), Responsibility(도덕적 책임성) 등이다.
우리말로 ‘책임성’으로 번역되는 개념들은 그 쓰임의 차이에 유의할 필요가 있다. 주로 도덕적 행위책임을 의미하는 Responsibility, 민형사상 법적 책임을 의미하는 Liability, 포괄적 책임이자 설명책임 또는 소통의 의미가 강한 Accountability가 그것이다.
고 교수는 “인공지능 윤리로써 강조되는 원칙들이 통상적인 의미를 넘어 인공지능과 관련하여 어떤 특별한 의미를 갖는지에 대해 의문점을 갖는 시각이 있고, 전통 윤리학에서는 이 요소들을 인공지능 윤리에 관련됐다기보다 정책을 위한 원칙에 그치는 수준으로 바라보는 것도 사실”이라고 전하면서도 “현 단계에서는 신뢰를 확보하기 위한 차원이자 추상적 윤리가 아닌 실행가능성을 담보하는 요소로써 거론되는 것으로 이해하면 좋을 것”이라고 말했다.
나아가 “개별 영역별 차별성과 특수성을 반영하는 논의, 이를테면 금융 분야의 투명성 또는 설명가능성은 무엇을 의미하는지, 의료 분야의 투명성 또는 설명가능성은 무엇을 의미하는지 등에 대한 논의는 더욱 복잡하게 전개될 것”이라고 전하기도 했다.
■ “AI 시대, 노동법 대수술 불가피하다”
권혁 교수는 “4차 산업혁명이 노동법의 진화를 이룩할 것이고 그 방향은 근로자의 다양성과 창의성을 반영하는 것이 되어야 하며, 기존 노동법이 형성한 사용자에 대한 근로자의 인격적 종속 현상은 사라지는 결과로 나타나야 한다”고 말했다.
권 교수는 구체적으로 근로자 개념이 변화하게 되는 현실을 지적했다. 몰개성적이고 수동적인 존재로서 노동법을 통해 획일적 규제를 받던 기존의 근로자는, 자신의 고유하고 재량적인 근로방식을 통해 고유한 개성을 띠는 업무결과를 내는 존재로 변화한다는 것이다.
따라서 근로자를 보호하는 노동법 역시 대수술이 불가피하다. 근로시간의 다양성, 근로자 개인의 고유한 성과와 연계된 임금 산정, 근로장소의 다양성 등을 보장하는 구체적인 변화가 모색되어야 한다는 게 권 교수의 주장이다.
착취와 쟁취의 프레임에 기반한 집단적 노사관계법 체계도 언급했다. 권 교수는 “노조와 사용자 간 착취와 쟁취의 프레임은 전통적 대공장 체계에서는 유효할지 몰라도 4차 산업혁명에는 맞지 않는 시각”이라며 “새로운 형태의 노무 제공에 따라 노조활동도 변화해야 하며, 이에 따른 법 개정은 시대적 과제”라고 했다.
권 교수는 또한 “고도로 디지털화하는 시대에서 융합적인 직업훈련 마련은 필수인데, 이 과정에서 고령자가 소외되지 않도록 고령자 맞춤 직업훈련 및 인적자원관리에도 신경써야 한다”고도 주장했다.