메트로人 머니 산업 IT·과학 정치&정책 생활경제 사회 에듀&JOB 기획연재 오피니언 라이프 AI영상 플러스
글로벌 메트로신문
로그인
회원가입

    머니

  • 증권
  • 은행
  • 보험
  • 카드
  • 부동산
  • 경제일반

    산업

  • 재계
  • 자동차
  • 전기전자
  • 물류항공
  • 산업일반

    IT·과학

  • 인터넷
  • 게임
  • 방송통신
  • IT·과학일반

    사회

  • 지방행정
  • 국제
  • 사회일반

    플러스

  • 한줄뉴스
  • 포토
  • 영상
  • 운세/사주
IT/과학>IT/인터넷

'인공지능 윤리대전' 개막...AI 자율지능시스템 '윤리인증 프로그램' 마련돼야

변순용 서울교육대학교 교수는 한국인공지능윤리협회(KAIEA)는 17일 온라인 개최한 '인공지능 윤리 대전?AI for Human' 콘퍼런스에서 'AI 로봇윤리원칙의 한국적 전개'를 주제로 발표를 하고 있다.

인공지능(AI) 자율지능시스템의 알고리즘 편향성을 축소하기 위해 자율지능시스템에 대한 '윤리인증 프로그램'이 마련돼야 하며, 윤리 인증을 이원화할 필요가 있다는 의견이 제기됐다.

 

변순용 서울교육대학교 교수는 한국인공지능윤리협회(KAIEA)가 17일 온라인으로 개최한 '인공지능 윤리 대전-AI for Human' 콘퍼런스에서 'AI 로봇윤리원칙의 한국적 전개'란 주제 발표를 통해 "스마트홈, 자율주행차 등 기술이 발전하고 있는데, 이 같은 자율지능시스템들이 안전하고 신뢰할 만한 지 확인하기 어려워 실생활 도입의 중요한 문턱으로 작용할 수 있다"며 "AI 시스템에 대한 윤리 인증으로 이 문제를 해결할 수 있다"고 주장했다.

 

그는 "국가기준표준 관련 기관에서 윤리 인증에 대한 연구를 시작했으며, 최근 책임성, 투명성, 편향성에 대한 윤리 인증 프로그램을 마련한다는 얘기가 나오고 있다"며 "이 3가지 기준은 안전성 기준을 될 수 있지만, 윤리성의 기준이 될 수 있는 지 논란의 여지가 있다"고 말했다.

 

변 교수는 "윤리 인증을 이원해야 할 필요성이 큰데, 첫 번째는 기준 인증으로 자율주행차이냐, 도로교통통제시스템이냐, 의료 로봇이냐에 따라 체크할 기준이 달라 제품별로 세트를 구성해서 인증할 필요가 있다"며 "두번째는 윤리 인증으로 자율성 인증이 필요하다"고 강조했다.

 

그는 자율성 인증을 위해 AI 도덕성의 단계를 3단계로 구분할 필요가 있다고 설명했다. 첫 단계는 사용자가 지시하는 것을 AI가 무조건 수용하는 '명령의 무조건적 수용' 단계이며, 2단계는 '상벌에 따른 결과'로 사람이 이를 좋게 평가하는 지 나쁘게 평가하는 지 분석해 이에 따라 적용하는 자율성을 가지는 단계이다. 3단계는 '사회적 규약 준수' 단계로 윤리적으로 안 되는 것은 무조건 하지 않는 단계로, 드론이 촬영을 하려고 했지만 촬영금지 구역, 비행금지 구역 등 표시가 있는 경우, 사전에 허가를 받지 않으면 이를 촬영하지 않는 경우이다. 그는 "자율주행차에서 개인승용차, 버스, 화물차 등 3 종류 차량의 운행 기준이 달라야 하는 것처럼, AI 도덕성도 3가지로 구분할 필요가 있다"고 덧붙였다.

 

변 교수는 "AI 윤리원칙에서 4가지 윤리원칙이 꼭 필요한 데, 가장 중요한 것은 '공공성을 해치지 않는 범위 내에서 인간의 존엄성을 최대한 실현해야 한다는 것'"이라며 "AI나 로봇을 원하면서도 불안해하는 이유는 인간을 해할 수 있기 때문인 데, 'AI는 도구적인 존재여야 한다'"고 설명했다. 이어 'AI는 인간의 명령을 수행해야 한다'와 '거부권을 가져야 한다'는 원칙이 필요하다고 덧붙였다.

 

전창배 한국인공지능윤리협회 이사장은 'AI윤리의 개요' 주제 발표를 통해 "미국에서 재판 지원 AI가 범죄 재범률을 예측할 때 흑인이 백인보다 범죄를 저지를 확률이 최대 77% 높다고 판단했는데, 실제로 재범률을 보니 흑인이 백인보다 2배 이상 높지 않았다"며 "이는 흑인 범죄자는 59% 검거되는 데 반해 백인 범죄자는 검거율이 39%에 그치기 때문으로 결국 사람의 편향성이 작용한 것"이라고 설명했다. 또 최근 국회에서 정당 대표 연설 기사를 인터넷 포털 사이트서 AI가 뉴스 위치를 배치하는 데 있어 알고리즘의 편향성 논란이 있었다고 덧붙였다.

 

그는 "지금까지 AI의 편향성, AI의 오류, AI의 악용, 개인정보 보호, 킬러로봇 문제 등 5가지 문제가 나타나고 있다"며 "향후에는 더 많은 문제가 나타날 수 있어 안전장치로 AI 윤리가 반드시 필요하다"는 의견을 제기했다. 그는 이어 "AI 윤리가 AI 산업 발전을 막을 수 있다고 우려하는데, 우리나라가 AI 발전이 뒤져 있기 때문에 법제화되는 규제는 최소화해야 한다"며 "AI 기술과 윤리는 동반자 관계여야 한다"고 강조했다.

 

홍익대학교 황기연 교수는 국토교통부가 자율주행차가 윤리적 판단을 할 때 내리게 될 판단 기준이 중요하다고 판단해, 국내외 사례 연구를 추진한 끝에 마련한 '자율주행 윤리가이드라인(안)'을 소개했다.

 

황 교수는 "우버의 자율주행자동차가 시범 중에 보행자를 치어 죽인 사고가 발생하면서 큰 충격을 줬다"며 "자율주행차를 여러 단계로 레벨이 나눠 개발하는데, 이번 윤리 가이드라인에는 사람이 거의 개입하지 않는 고도의 자율주행 자동차 4단계를 대상으로 연구를 진행했다"고 설명했다.

 

그는 "운전자의 개입 없이 자율주행 시스템 만으로 운행하는 상황에서 사고를 피할 수 없는 경우, 판단기준을 사고별로 세세히 정할 수 없어 윤리지침이 꼭 필요하다"며 "이번 가이드라인안에 대한 의견 수렴 후 연내 자율주행차 윤리 가이드라인 최종안을 확정할 계획"이라고 밝혔다.

트위터 페이스북 카카오스토리 Copyright ⓒ 메트로신문 & metroseoul.co.kr