알림마당         법조•법학계 소식

[(사) 올 젠더와 법 연구소] “AI 디자인 단계에서부터 나타나는 고정관념, 여성 참여 확대로 극복해야”

작성자 : 관리자
조회수 : 1522



사단법인 올 젠더와 법 연구소(대표 전수안이사장 전효숙)가 12월 7이화여대 젠더법학 연구소(소장 유니스 김)와 공동으로 학술대회를 개최했다이날 논의는 산업패러다임의 전환과 젠더라는 대주제 하에 4차산업혁명과 성 평등의 문제 플랫폼과 가사노동자노동법적 보호를 중심으로 인공지능과 젠더차별 및 개선과제 등 총 세 개의 주제가 다뤄졌다.

 

전수안 대표는 개회사를 통해 사단법인 올 젠더와 법 연구소가 창립한 지 1년이 되는 날에 뜻깊은 학술대회를 열게 되어 무척 기쁘다면서 호랑이에게 잡혀가도 정신만 차리면 산다는 말이 있지만먼저는 호랑이에게 잡혀가지 않는 것이 중요하다는 마음에서 이번 학술대회를 마련했다고 전했다.


이어 축사를 전한 유니스 김 소장은 “4차산업혁명이라는 대전환을 통해 우리가 맞이하는 사회 모습은 기술을 만들고 설계한 사람들의 가치관에 영향을 받게 되어 있다면서 이 과정에서 여성이 배제되거나 피해자가 되지 않도록 더 많은 여성이 리더십과 이니셔티브를 쥘 수 있어야 하며적극적 연구와 참여로써 여성의 가치관이 반영되도록 해야 한다고 했다.


전효숙 이사장은 오늘 논의를 듣고 고민한 여러분들이 각자 일하는 영역의 현장에서 성평등 관점을 적용하고 반영한다면 전수안 대표가 호랑이로 비유한 4차산업혁명시대에 여성도 이니셔티브를 쥘 수 있다면서 이번 학술대회가 큰 자양분이 될 것으로 생각한다고 했다.

 

■ “20억 개 일자리 사라질 것” vs “늘 우려 있었지만 지난 200년 간 줄지 않아

 

상지대 문화콘텐츠 학과 강이수 교수는 일자리 변화에 대한 전망에는 상반된 관점이 존재한다고 소개했다. “2030년까지 20억 개 일자리 사라질 것이라고 말한 토마스 프레이 다빈치 연구소장과 같은 입장이 있는가 하면 기술 혁신이 일자리를 뺏는다는 우려는 산업혁명 이후 200년 이상 반복됐지만 실제 전체 일자리 수는 줄지 않았다라는 토마스 하위 위스콘신대 교수와 같은 입장도 있다.

 

이에 대한 페미니스트의 초기 논의는 비관적이었다는 게 강 교수의 설명이다. “과학기술은 여성 및 자연을 지배하고 통제하려는 남성적 기획이기 때문에 여성은 피해자라는 논리다하지만 현재는 디지털 기술 발전이 인간과 기계나아가 남성과 여성의 경계도 약화시킬 것이라는 긍정적 기대도 나오고 있다.

 

강 교수도 위협과 기회가 병존한다는 인식을 보였다여성이 많이 취업하고 있는 사무행정직군이 크게 영향을 받을 것은 분명하지만기술 혁명에서 학습가능성이 중요한 가늠자가 되는 만큼 여성들이 이를 기회로 여기고 적극적으로 준비할 수 있다는 것이다.

 

따라서 디지털 시대 성평등을 위한 전략은 교육체계 전환여성 친화적 공학 교육과정 구축 일자리 전환 지원과학기술 분야 여성고용 확대와 여성대표성 제고 프로그램 돌봄 경제 확충-생활 균형을 위한 사회적 환경과 젠더 문화 구축이 되어야 한다고 주장했다.

 

이 주제에 대해 토론자로 참여한 국회입법조사처 김유향 과학방송통신팀장은 특히 여성들의 디지털 리터러시(digital literacy, 소프트웨어 문해력)’가 중요하다고 강조했다.

김 팀장은 입력된 데이터가 결과를 형성하는 인공지능 시대에서는 데이터 단계에서부터 여성의 참여가 많아야 한다면서 학교 교육 현장을 돌아보니 여성을 대상으로 하는 소프트웨어 및 코딩 교육이 매우 부족했는데다른 선진 국가들처럼 여성 소프트웨어 교육을 집중적으로 지원하는 프로그램들이 많아져야 한다고 했다.


 

■ 사용자 없는 플랫폼 노동...“사용자 찾고 권리 보호해야

 

인제대학교 법학과 박은정 교수는 플랫폼을 매개로 하는 다양한 일자리들이 발생하고 또 더욱 확대될 것이 예정된 상황에서플랫폼 노동자 중 특히 가사노동자들의 노동법적 보호 문제에 대해 살펴봤다.

 

박 교수는 플랫폼 노동관계에서의 노무제공방식은 기존의 아날로그 근로계약을 통한 근로자의 근로 제공과는 다르지만부정할 수 없는 것은 여기서도 전통적인 노동관계에서와 같은 노동이 이뤄지고 있다는 점이라며 일반적으로 평면적 노사관계에 적용되는 노동보호 법제를 플랫폼 노동에 어떻게 적용할 것인가의 문제는 매우 중요하다고 했다.

 

박 교수에 따르면 플랫폼 노동의 내용이 아닌 형식에 주목하면 사용자 없는 노동이 되어 플랫폼 노동자의 근로자성은 인정받지 못한다그 결과 근로자라면 당연히 적용받았을 근로시간 보호임금 보장휴게권·휴일권·휴가권 등 쉴 권리노조 결성 및 단체교섭 요구 통해 근로조건 향상을 도모할 권리고용·산재 보험 등 사회보험제도 수급권 등이 모두 제거된다이 때문에 일을 중개하는 사람과 일을 시키는 사람은 있지만 노동관계법상 의무를 부담하는 사용자는 존재하지 않게 된다는 것이다.

 

박 교수는 적극적으로 사용자를 찾아 노동자 보호라는 노동법제의 목적을 도모해야 한다면서 사용자는 노동의 종류와 내용 및 특성에 따라 해당 노동을 사용하는 것에 대한 책임을 부담하는 자이면 충분하고경우에 따라서는 가사노동 중개업소플랫폼또 경우에 따라서는 가사노동을 요청한 이용자(고객)가 각각 혹은 함께 필요한 범위에서 사용자로서의 책임을 질 수 있어야 한다는 의견을 개진했다. ‘사용자가 반드시 전통적 형태의 기존 근로관계를 전제한 사용자여야 한다거나 회사중개업체법인 등이어야 하는 건 아니라는 것이다.

 

이에 대해 토론자로 참여한 성신여대 법학과 권오성 교수는 가사서비스 제공 플랫폼 문제에서 시급한 것은외견상 직업소개의 법형식을 가장하고 있으나실질적으로는 플랫폼에 직접 고용된 가사서비스 근로자에 해당하는 경우를 찾아내어 플랫폼 업체가 근로기준법상 사용자 책임을 지도록 하는 것이라고 했다.


그는 가사서비스 제공 플랫폼이 직접 고용 방식으로 사업을 운영하기로 의사 결정한 경우근로기준법의 전면 적용은 당연한 전제여야 하지 일부 내용 적용 배제를 흥정할 대상이 될 수는 없다면서 지난 11월 27일 정부가 한 가사서비스 플랫폼에 대해 근로기준법 적용에 대한 실증특례를 부여한 것을 비판했다.

 





■ 남여 대립 관계 아닌 보완 관계로 볼 때 편견편향 극복 쉬워져

 

성균관대 법학전문대학원 한애라 교수는 ‘AI와 젠더차별’ 문제를 디자인 단계데이터 부족데이터 편향의 관점에서 살펴봤다.

 

한 교수는 먼저 디자인 단계에서 젠더 고정관념이 반영될 경우 이 고정관념이 강화 또는 확대 재생산되는 문제가 생긴다면서 성희롱이나 언어폭력에 대한 무감각 문제이용자의 어떤 발언에도 공손하게 대답하는 AI 스피커와의 상호작용이 인간에게 투사되기 쉬워진다는 문제도 있다고 지적했다.

 

데이터 부족이 인종 차별을 야기하는 것과 같은 맥락에서 성별 차별도 야기할 수 있다는 게 한 교수의 설명이다한 통계에 따르면 마이크로소프트의 안면인식 알고리즘은 백인 남성에 대해서는 0%의 오류율을 보였지만 백인 여성은 1.7%, 흑인 남성은 6.0%, 흑인 여성은 20.8%의 오류율을 나타냈다. ‘FACE++’의 알고리즘의 경우 흑인 남성 오류율(0.7%)보다 백인 여성 오류율(6.0%)이 훨씬 높게 나타나기도 했다.

 

한 교수는 의학 연구가 남성 중심으로 이루어져 여성 질환은 연구 주제로도 덜 선정되고 남성에게 맞는 치료법들로 만들어지는 결과같은 질병에 대한 치료가 여성에게는 자주 부정확하고 덜 효과적인 치료가 되고 있다면서 “AI 영역에서도 이 같은 현상이 생길지 모른다고 말했다.


데이터 편향으로 인한 차별 문제는 몇 가지 사례를 들었다대표적인 것이 아마존의 고용 AI’ 실패 사례로아마존은 10년간 축적된 지원 자료로 학습을 시켜 2014년부터 지원자를 AI로 선별하는 알고리즘을 개발했다가 2017년 개발을 포기했다알고리즘은 ‘womens’가 들어가면 선호하지 않고남성이 즐겨 쓰는 표현들에 선호도를 보여 여성을 심하게 차별하는 결과를 나타낸 것이다.

 

한 교수는 가장 확실한 해결책은 과학기술과 미디어 영역에 여성이 활발히 진출하여 젠더 균형을 이루는 것이라고 하는 한편 설명가능성과 정확성을 둘 다 담보할 수 없고 둘 중 하나를 포기해야 하는 알고리즘의 특성상 편향이 있다는 사실도 그냥 봐서는 알아채기 어려운 점이 존재한다는 점을 짚었다이 같은 머신 러닝 차별에 대한 대응 어려움은 실정법 적용과 업계 자율규제소비자운동 및 적절한 입법 등의 총체적인 노력으로 극복해야 한다는 주장이다.

 

이 주제에 토론자로 참여한 한국마이크로소프트 정교화 대표변호사는 문제 있는 데이터를 학습한 AI가 차별 문제를 발생시킬 수 있다는 점은 분명하다고 했다이 점은 모든 사람들이 갖고 있는 의식적 또는 무의식적 차별을 배제하기 위해 의식적으로’ 노력하는 것으로 해결해야 한다는 것이다.

이와 관련하여 마이크로소프트 내 FATE(Fairness, Accountability, Transparency, and Ethics in AI) 연구 그룹은 AI 개발이 사회에 혁신적이면서 윤리적일 수도 있게 하기 위하여 컴퓨터 공학이나 기술적인 측면뿐만 아니라 철학사회학인문학적 측면에서도 연구를 진행하고 있다고 전했다.


정 변호사는 편견과 편향을 극복할 수 있는 수단은 문화와 교육훈련그리고 서로 간의 지속적인 대화와 토론이 될 텐데남성과 여성을 대립적인 관계로만 보지 않고 서로를 보완하는 존재로 보아야 더욱 원활할 것이라고 말했다.





목록