알림마당         법조•법학계 소식

[한국인공지능법학회] 대화형 인공지능 ‘이루다’ 서비스 종료, 쟁점화된 인공지능 윤리 이슈

<첫째 줄 왼쪽부터 고학수 회장, 이준환 교수, 박상철 교수, 둘째 줄 가운데부터 한애라 교수, 정교화 대표변호사

아래 줄 가운데부터 정미나 정책실장, 김경만 과장>

 

 


한공인공지능법학회(회장 고학수 교수)가 지난 24, “이루다 사건으로 본 인공지능 거버넌스: AI의 일탈을 어떻게 막을 것인가?”라는 주제로 특별기획 좌담회(웨비나)를 개최했다. 최근 AI 챗봇 이루다를 부적절하게 사용한 일부 유저들의 사례가 부각되면서, 사회적 관심이 인공지능 윤리와 적법한 개인정보 이용이라는 문제에 집중됐다. 이에 학회는 각계 전문가들과 함께 인공지능 윤리 문제를 깊이 있게 고민해 보고, 사안의 올바른 해결책을 모색하는 자리로서 이번 좌담회를 마련했다고 전했다.

 

이날 참여한 패널은 6명이다. 이준환 서울대 언론정보학과 교수는 HCI(Human Computer Interaction, 인간-컴퓨터 상호작용연구) 전공으로, 기업체 근무 및 챗봇 개발 경험에 바탕한 기술적 부분과 현장 고민에 대한 의견을 말했다. 인공지능법 전공의 서울대 법학전문대학원 박상철 교수는, 인공지능 모델링에 대한 경험을 바탕으로 MLP(Multilayer Perceptron, 다층 퍼셉트론) 등 기술적 측면과 법·정책 관점을 공유했다.

 

성균관대 법학전문대학원 한애라 교수는 인공지능 윤리와 혐오, 젠더, 공정성을 키워드로 하여 사안을 검토했다. 정교화 한국마이크로소프트 대표변호사는 글로벌 IT 기업이 인공지능 윤리 영역을 어떻게 바라보고, 어떤 고민들을 하며 현장에서 실천하고 있는지를 소개했다. 코리아스타트업포럼 정미나 정책실장은 이번 사안을 보는 스타트업계의 시각과, 사회정책적으로 업계에 대한 어떤 배려가 필요한지를 말했다. 정부인사로 참여한 김경만 과학기술정보통신부 인공지능기반정책과장은, 이루다 사안으로 촉발된 인공지능정책의 바른 방향성에 대한 고민과 관점을 공유했다.

 

고도화된 모델 이루다‘fallback’ 메시지가 문제였나

 

이준환 교수는 이루다 사안의 고민점을 크게 세 가지로 정리했다. 설명가능한 인공지능 (XAI, explainable AI) 문제 성 고정관념 (gender stereotype) 문제 관계형성 (building relationship) 의 문제다.

 

이 교수는 이루다 사안은 AI라는 블랙박스 안에서 어떤 일이 일어나고 있는지 알 수 없다는 측면에서 문제가 되었다면서 챗봇 대화모델을 수립할 때 챗봇이 질문의 의도를 파악하지 못하거나 답변을 할 수 없을 때 노출할 fallback 메시지를 설정하는데, 이루다는 자연스럽게 잘 만들어진 fallback 메시지로 대화를 했지만 그 기반에 무관심혹은 회피의 전략이 있었기 때문에 문제가 됐다고 분석했다. “페미니즘에 대해 어떻게 생각해?”라는 유저의 질문에 이루다가 절대 싫어. 이상한 거 같아라고 답변을 한 경우도 fallback 메시지라는 견해다. 나아가 “‘무관심혹은 회피의 전략은, 이루다가 가진 생각없이 상대에 맞춰주는 어린 여성이라는 캐릭터를 더욱 강화하는 쪽으로 작동했다는 점도 지적했다.

 

이 교수는 이루다가 대화 상대방에 따라 친밀도 단계를 구분하고, 친밀도 레벨을 상승시킬 수 있는 구조로 설정되었다는 점에서 문제가 된 부분도 있다고 했다. 이 때문에 일부 유저들이 마치 게임을 하듯 이루다와의 친밀도 레벨을 무리하게 올리려고 한 현상이 나타났다는 것이다. 이 교수는 이루다가 기계적 친밀도가 아니라 사회적 행위자로서 유저와 rapport(라포, 친밀관계)를 형성하도록 사회과학적 시각에서 설계되었다면 어땠을까 하는 아쉬움이 있다고 말했다.

 

박상철 교수는 대화형 인공지능의 발달단계에 따른 구분상, 이루다가 ‘open-domain chatbot’에 해당한다고 설명했다. 현재 나와 있는 가장 정교한 자연어 처리 프로그램을 썼고, 엄청난 양의 말뭉치가 필요한 복잡도 높은 모델이어서, 사전검수를 해도 의도하지 않은 결과값이 생성될 수 있다는 것이다.

 

박 교수는 이번 사안으로 인해 이루다 서비스가 중단된 데 대해 안타까움을 표하며 “AI로 인해 채용면접이나 대출심사, 신용평가, 사법 판단 등에서 불이익을 받는 차별적 처우문제와, 이번과 같은 차별적 발화문제는 달리 취급해야 한다는 의견을 보였다. “차별적 발화의 경우 주로 정신적 피해로서 객관적 차별지표 설정이 어렵고, 표현의 자유와의 관계도 고려되어야 하며, 사전감사가 어렵다는 점을 감안해야 한다는 견해다. 그는 이루다 서비스만 중단된 것이 아니고 이 건으로 인해 놀란 국립국어원도 말뭉치 내려받기 서비스를 중단했다면서 국립국어원으로서는 현명하게 대처한 것이지만, 연구자나 관계자 입장에서는 되돌릴 수 없는 피해가 생긴 것도 아니고, 개선도 가능했던 이번 사안의 결과가 이러한 데 대해 의문이 있다고 덧붙였다.

 

인공지능 이용자 윤리 교육도 중요하다

 

한애라 교수는 이루다 사업은 자발적으로 중단한 것이지만, 만일 사업자가 문제가 됐음에도 중단하지 않았다면 중단시킬 수 있는 사안이었는지에 대한 고민도 필요하다고 했다. 한 교수는 이루다를 20세 여성이자 유저의 애인 혹은 친구로 설정한 때부터 젠더 이슈가 문제될 거라는 점은 예정된 일이었다기업의 입장에서 상업성을 우선해 이 같은 선택을 할 때, 상업성보다 윤리성을 앞세워 의사결정을 할 수 있도록 기업의 의사결정 라인에 여성의 비율을 높여야 한다고 주장했다. 나아가 기업이 정부 예산지원을 받거나 투자를 받는 단계에서부터 윤리적 의사결정이 높은 비율로 고려되도록 제도화가 되어야 하며, 여성 개발자의 비율도 높아져야 한다고 했다.

 

정교화 변호사는 마이크로소프트사의 ‘transparency note’를 소개하며 “MS는 기업만 제품을 잘 만들고 그치는 것이 아니라, 이를 이용하는 이용자들이 윤리적으로 잘 사용하는 것도 중요하다고 여겨서 고객의 윤리적 이용을 위한 안내를 마련하고 있다고 전했다. 이루다 사안을 MS챗봇(Conversational AI) 가이드라인에 비추어 분석하면서는 이루다의 용도를 남용이 높을 수밖에 없는 연애 대상으로 설정한 점, 기술의 한계 설명과 인간의 대응으로 전환되는 루트 없이 fallback에 의존한 점, 이용자가 준수해야 할 윤리 안내가 미비했던 점등을 아쉬운 점으로 꼽았다.

 

정미나 정책실장은 이번 사안으로 인해 스타트업계는 모든 걸 할 수 있지만 (역시) 아무것도 할 수 없다는 무력감을 느꼈다면서 기업들을 보호하고 성장시킬 수 있는 현실적인 가이드라인이 부재함이 안타깝다고 호소했다. 특히 이루다 수준의 인공지능을 만들기 위해서는 약 3천 억의 비용이 드는 것으로 추정된다면서 많은 기업들이 데이터 확보에 어려움을 겪고 있는 만큼 정부가 공공 차원에서 가공할 수 있는 양질의 데이터를 적극적으로 제공해주어야 한다고 말했다.

 

김경만 과장은 이루다 사안이 침소봉대가 되어 이것이 인공지능의 발전과 신뢰를 저해하는 데까지 이르면 안된다고 생각한다면서 다만 이번 사례를 계기로 국민이 인공지능 윤리의 중요성을 생각할 수 있게 된 점에 대해서는 긍정적으로 본다고 했다. 김 과장은 국민이 인공지능을 어느 정도로 신뢰하는지의 측면도 중요하지만, 국민이 이용자로서 인공지능을 얼마나 윤리적으로 사용할 수 있는지의 측면도 중요하기 때문에 이용자 윤리 교육이 필요하다는 점에 공감한다면서 정부는 특히 중소기업들이 마음놓고 인공지능을 개발하고 활용할 수 있도록 정책적 배려와 예산 뒷받침을 할 것이지만, 당장 무언가를 하라는 것보단 조금 긴 호흡으로 정부와 발을 맞춰주면 좋을 것 같다고 말하기도 했다.

 

 


목록