아리랑TV 'Foreign Correspondents', '이루다' 논란 빚은 AI 윤리문제 토론..."개발자·이용자 모두 고민 필요"

류수근 기자 / 기사승인 : 2021-01-28 19:04:50
  • -
  • +
  • 인쇄
28일 오후 8시 방송...AI의 순기능과 악용가능성 조명
“MS의 AI 챗봇 ‘조’...특정 단어 계속 언급시 채팅 종료”
“AI윤리표준 제정해 공공이익 부합토록 AI기술 규제해야”
[메가경제= 류수근 기자] 최근 국내에서 인공지능(AI) 챗봇 ‘이루다’ 관련 논란이 이어지고 있는 가운데, 아리랑TV의 뉴스 토론 ‘포린 코레스폰던츠(Foreign Correspondents)’가 28일 오후 8시 'AI의 두 얼굴‘이라는 제목으로 AI 윤리문제를 다룬다.


‘포린 코레스폰던츠’는 외신기자들과 함께 국내외의 다양한 이슈들을 살펴보는 프로그램으로, 이번주 방송에는 브루스 해리슨 CBC뉴스 기자, 스티븐 브로윅 닛케이 아시아 기자, 모르텐 라르센 프리랜서 기자 등이 출연해 AI의 순기능과 AI가 악용될 경우 발생할 문제들을 짚어본다.

이날 방송에서는 또, 토비 월시 뉴사우스웨일스대 교수와 앨런 윈필드 영국 브리스틀 로보틱스랩 교수를 연결해 AI 윤리 문제에 대한 견해를 들어본다.
 

▲ 아리랑TV의 뉴스 토론 프로그램 ‘포린 코레스폰던츠(Foreign Correspondents)’가 28일 오후 8시 'AI의 두 얼굴‘이라는 제목으로 AI 윤리문제를 짚는다. [사진= 아리랑TV 제공]

먼저, 모르텐 기자는 AI 챗봇 ‘이루다’ 관련 논란을 두고 화두를 던졌다.

그는 “‘이루다’는 사람들이 나누었던 대화를 기반으로 만들어진 것이라 혐오 발언도 실제 사람의 대화를 기반으로 한 것”이라면서 “챗봇이 인간처럼 혐오 발언을 했더니 불쾌감을 느끼고 있는 것인데, AI가 우리 인간의 어두운 면을 드러내고 있는 것은 아닌지, 개발자들의 책임인지 아니면 인간 모두의 책임인지 고민해 봐야한다”고 주장했다.

브루스 기자는 혐오발언 예방 안전장치에 대한 사례를 들면서 여전히 남는 문제점을 지적했다.

그는 “마이크로소프트(MS) AI 챗봇 '조'의 경우, 특정 단어를 계속해서 언급하면 강제로 채팅을 종료해버리는 등 혐오 발언을 예방할 수 있는 여러 안전장치를 마련했었다”면서 “이러한 장치는 강제로 대화를 종료하기 때문에 또 다른 검열 문제를 야기하긴 하지만, AI가 알고리즘을 기반으로 하여 대화를 이어가는 방식이라 어떤 말을 내뱉을지 인간이 제어하기가 어려운 면이 있다”고 설명했다.

화상으로 연결한 토비 월시 뉴사우스웨일스대 교수는 규제를 통해 AI 기술을 통제할 수 있다는 주장에 대한 의견을 밝힌다.

그는 “자율 주행차가 등장하면 운전자 과실 사망 사고를 줄일 수 있는 한편, 자율주행 기술로 로봇 무기를 만들 수 있는 것처럼 AI는 좋게도, 나쁘게도 쓰일 수 있는 이중용도(dual use) 기술”이라면서 “우리는 오랜 시간 기술을 규제해선 안된다고 생각해왔지만, 최근엔 기술도 규제가 가능하고, 또 규제해야 한다는 움직임을 보이고 있다”고 전했다.

▲ [사진= 아리랑TV 제공]

이에 대해, 앨런 윈필드 영국 브리스틀 로보틱스랩 교수는 “각국 정부는 AI 기술 관련 규정을 제공하고 감독하는 규제기관을 설립하여 AI 기술이 공공의 이익을 위해서 사용될 수 있도록 해야한다”고 제시했다.

그러면서 “최근 미국 전기전자학회 표준화 기구에서 AI의 윤리표준을 개발 중인데, 표준이 완료되면 규제기관에서 이를 활용하여 챗봇 등 AI 기술을 규제할 수 있을 것”이라 밝혔다.

이에 대해, 브루스 기자는 “우리는 초연결 사회에 살면서 AI 등 기술발전에 따른 부작용도 당연히 맞닥뜨리게 될 수밖에 없는데, 앨런 윈필드 교수의 의견처럼 규정이 제정되어 기술발전으로 인한 피해를 줄였으면 한다”고 동의했다.

이날 아리랑TV ‘포린 코레스폰던츠’는 마지막으로 “앞으로 AI가 우리 삶에 어떤 영향을 미칠지”를 예상했다.

브루스 기자는 “AI는 인간과의 협업이 가능하다는 특징을 가지고 있어, 의료수술 시 회복 시간을 단축시키는 등 의료분야에서 유용하게 사용될 수 있다”고 전망했다. 그러면서 “물론 AI를 이용해 무기를 개발하는 등 안 좋은 방향으로 악용할 수도 있지만, 그렇다고 해서 AI를 완전히 배척해서는 안된다고 생각한다”며 “좋은 쪽으로 사용될 수 있도록 관련 규제를 만들어나가는 것이 중요하다”는 의견을 제시했다.

 

[저작권자ⓒ 메가경제. 무단전재-재배포 금지]

뉴스댓글 >