메트로人 머니 산업 IT·과학 정치&정책 생활경제 사회 에듀&JOB 기획연재 오피니언 라이프 AI영상 플러스
글로벌 메트로신문
로그인
회원가입

    머니

  • 증권
  • 은행
  • 보험
  • 카드
  • 부동산
  • 경제일반

    산업

  • 재계
  • 자동차
  • 전기전자
  • 물류항공
  • 산업일반

    IT·과학

  • 인터넷
  • 게임
  • 방송통신
  • IT·과학일반

    사회

  • 지방행정
  • 국제
  • 사회일반

    플러스

  • 한줄뉴스
  • 포토
  • 영상
  • 운세/사주
IT/과학>IT/인터넷

'이루다' 사태로 중요성 커진 AI 윤리, 정부 AI 윤리 체크리스트, 생애주기별 윤리교육 커리큘럼 마련할 것

변순용 서울교대 교수가 2일 과기정통부와 정보통신정책연구원이 2일 서울 더케이호텔과 온라인으로 개최한 '사람 중심의 인공지능 구현을 위한 정책 세미나'에서 '인공지능 윤리 교육의 방향과 도전'이라는 주제로 발표를 하고 있다.

'이루다' 사태로 인공지능(AI) 윤리가 AI 서비스 개발 단계부터 적용돼야 한다는 공감대가 형성되는 가운데, 과학기술정보통신부가 올해 국내 최초로 AI 윤리지침에 대한 구체적인 내용을 담아 AI 개발 현장에서 직접 사용할 수 있는 AI 윤리 체크리스트를 내놓을 계획이다. 또 영유아, 초·중·고는 물론 대학생, AI대학원생, 시민, 개발자 등 대상을 구분하고, AI 윤리 교육에 활용할 수 있는 생애주기별 AI 윤리교육 커리큘럼을 마련할 예정이다.

 

문정욱 정보통신정책연구원 센터장은 과기정통부와 정보통신정책연구원(KISDI)이 2일 서울 더케이호텔과 온라인으로 개최된 '사람 중심의 인공지능을 위한 인공지능 윤리 정책세미나'에서 "현재 정부와 공동으로 윤리점검 체크리스트 마련을 위해 국내 사례를 수집하고 선행 연구를 정리하는 단계로, 해외에서 발표된 윤리점검 체크리스트 사례를 검토하고 있다"며 "최종적으로는 기업·학계·정부·시민단체·이용자들이 활용할 수 있는 AI 윤리 정책 협력 플랫폼을 개발할 계획"이라고 밝혔다.

 

그는 이를 통해 참여주체별로 체크리스트를 만들 때 ▲무엇을 위한 건지 목적을 명확화하고 ▲주체의 범위를 개발자, 제공자(관리자), 이용자 중 정확히 구분할 필요가 있으며 ▲윤리 기준간 상충 문제는 없는 지 ▲현업에서 적용 가능해 실질적 참고지침 역할을 할 수 있는 지 등을 고려해야 한다고 발표했다. 또 AI 산업 발전이 저해되지 않도록 산업 경제 분야의 자율규제 환경 조성과 강제력·구속력 사이 균형점을 찾아야 하며, 결국은 AI 서비스가 국제 기준에 맞는 체크리스트를 만들 수 있도록 국제 협력을 진행해야 한다고 설명했다.

 

문 센터장은 유럽연합(EU)이 2019년 4월 발표한 후속조치로 지난해 7월 선보인 체크리스트인 '신뢰할 수 있는 AI를 위한 자체 평가 목록'은 개발자, 구매조달, 경영담당 등 회사의 다양한 구성원이 평가에 참여하도록 하고, 기본 권리에 대한 영향을 사전 평가할 수 있도록 했다고 설명했다.

 

그는 " EU에서는 AI가 성별, 민족 등 사람을 차별할 수 있는 지, 아동의 권리가 보호되는 지, 표현, 연대의 자유가 보장되는 지 등을 체크하도록 했으며, 기술적 오류나 악의적인 사용으로 인간에게 해로운 영향이 있는 지 사전에 따져보게 했다"며 "투명성 조항으로는 사람이 아닌 AI와 소통인 지 명확히 알렸는지, 설계과정에서 많은 이해 관계자를 포함시켰는지, 사회 전체에 어떤 영향을 미치는 지, 책무성 감사를 위해 외부 3자를 평가에 포함시켰는지 등을 확인하도록 했다"고 말했다.

 

또 영국 정보위원회(ICO)가 내놓은 'AI 및 데이터 보호 안내지침'에 따르면 AI 관련 책임 문제를 확인하기 위해 AI 시스템 거버넌스 및 데이터 보호 위험 관리 고위 경영진, 개인정보보호책임관 등이 평가에 참여하도록 했으며, 데이터 처리의 적법성·공정성·투명성을 위해 AI 시스템 관련 편향과 차별 위험에 어떻게 대응할 지, AI의 개인정보 처리에 대한 목적과 법적 근거를 어떻게 정의할 지 등을 사전에 체크하도록 했다.

 

문 센터장은 "MS의 'AI 공정성 체크리스트'에서는 구성 단계, 정의 단계, 프로토타임 개발단계, 제품·서비스 개발단계, 출시단계, 향상 단계로 나눠 단계별로 공정성을 체크하고 있다"며 "특히, 잠재적인 위험 완화를 위해 시스템 버전을 수정하게 했고, 이 과정이 불가능할 경우, 만일의 사태에 대비한 완화조치를 마련하고 개발 중단까지 고려하도록 했다"고 발표했다.

 

그는 또 "카테기멜론 대학이 내놓은 '윤리적 AI 설계 체크리스트'에서는 ▲책무성 ▲관련 위험·혜택에 대한 인지 ▲존중과 보안으로 키워드를 구분했으며, 개발팀들이 의도하지 않은 결과가 발행할 수 있다는 점을 인지하고 미리 서명하도록 했다"며 "투명성을 위해 명확한 출처를 밝히고 AI 시스템의 의사 결정 사항에 대해 설명이 제공되도록 했고, 발생할 수 있는 위험을 완화하기 위해 사전에 계획을 만들게 했다"고 설명했다.

 

이어 변순용 서울교대 교수는 '인공지능 윤리 교육의 방향과 도전'이라는 주제 발표를 통해 "우리나라와 중국의 경우, AI 교육이 AI 개발 전문가를 기르기 위한 직업교육 전 단계의 느낌이 강하게 나는데, 초기 단계이니 나타나는 문제지만 이를 개선할 필요가 있다"며 "미국, 핀란드, 호주의 경우, AI가 사회에 미치는 영향이나 철학, AI와 인간의 상호작용 등 인문학적 고려가 반영된 점을 적극 고려해야 한다"고 밝혔다.

 

그는 과기정통부가 지난해 내놓은 AI 윤리원칙과 연계해 AI 윤리 커리큘럼에 담을 수 있는 내용을 소개했다. AI 윤리의 3대 기본원칙은 ▲인간의 존엄성 원칙 ▲사회의 공공선 원칙 ▲기술의 합목적성 원칙으로 규정돼 있다.

 

변 교수는 "AI 윤리의 10대 핵심요건을 바탕으로 인간의 존엄성 원칙을 위해 AI가 인간의 생명이나 해를 끼치지 않도록 안전하게 사용하도록 개인적 도덕 역량을 키워야 하고, 사회공공선 원칙을 위해 AI가 특정층에 독점되지 않고 취약계층이 충분히 접근할 수 있도록 해야 한다"며 "기술의 합목적성을 위해 AI가 인류의 삶을 위해 개발됐으며, 윤리적으로도 효과적인 지 확인하는 과정을 포함해야 한다"고 지적했다. 그는 이어 "AI로 인한 인권 침해를 어떻게 방지할 지와 개인적, 사회적 역량에 따라 다양한 주제를 설정하고 초등학교 등 학생 수준별, 학급별, 전문가 인지 등 대상별로 구분해 콘텐츠를 차별성 있게 구성해야 하고 우리나라의 특수성까지 고려하는 것이 중요하다"고 덧붙였다.

트위터 페이스북 카카오스토리 Copyright ⓒ 메트로신문 & metroseoul.co.kr