'이루다' 사태 이후 개인정보보호위원회가 개인정보 보호 수칙 마련에 나서고, 시민단체들이 토론회 등을 통해 자율적 규제가 아닌 법적 규제가 필요하다는 입장을 밝히는 등 규제 강화를 주장하면서 인공지능(AI) 업계의 우려가 커지고 있다.
AI 관련 협회들은 AI 윤리 인증제도 등 시행을 통해 민간 차원에서 AI 기업들이 AI 윤리지침을 준수할 수 있도록 유도한다는 방침이다.
또 이루다 사태가 관련 법이 없어서 발생한 문제가 아니라, 한 기업이 개인정보보호법을 위반한 소지가 큰 만큼 더 이상의 법적 규제를 강화해서는 안 된다는 주장도 제기되고 있다.
◆개인정보위 수칙 마련, 시민단체 규제 강화 목소리에 AI 업계 우려
개인정보보호위원회는 26일 AI 제품, 서비스에서 개인정보가 안전하게 보호될 수 있도록 개인정보 보호 수칙을 마련하겠다고 밝혔다. 다음달 중 전문가 및 산업계 의견 수렴 후 3월에 개인정보 보호 수칙을 발표한다는 방침이다.
이는 '이루다' 사태와 같이 AI 등 신기술로 서비스를 개발하면서 정보 주체 권리가 침해당한다는 지적이 잇따름에 따라, 개발 현장에서부터 개인정보 보호 수칙을 반영하도록 한다는 것이다.
AI 개발자, 서비스 제공자 등이 기획 단계부터 어떤 개인정보보호 원칙을 준수해야 하는 지 등 구체적인 사항이 담길 예정이다. 기존에 정부 등이 내놓았던 AI 윤리원칙이 추상적인 규정에 그쳐 실제 적용에 어렵다는 점도 고려한 것이다.
AI 업계에서는 아직 초기 시장인 AI 산업이 위축되는 것을 막기 위해 기업들이 AI 윤리 원칙을 자율적으로 도입해야 한다는 입장을 밝혀왔는데, 개인정보위 수칙이 발표되면 강제성을 가지는 게 아니냐는 우려가 나오고 있다.
또 시민단체들이 이루다 사태로 자율적 규제가 아닌 법적 규제가 필요하다는 목소리를 높아지고 있어 규제 강화로 이어질 소지도 있다.
이광석 서울과학기술대 교수는 문화연대 주최로 지난 26일 개최된 'AI 챗봇 이루다가 던진 우리 사회의 과제' 긴급토론회에서 발제를 통해 "이루다 사태로 AI 개발자들에게 철저한 윤리 교육이 필요한가, 법적 규제책이 필요한 가 관심이 쏠려 있는데, 이미 윤리적 해결책을 넘어섰다"며 "시민의 데이터 권리에 대한 재점검이 필요하며, AI 개발의 윤리나 원칙을 어겨도 전문화된 법적 규제가 없는 것이 문제"라고 지적했다. 그는 이어 "이를 의무화할 법제도가 마련되어야 하며, AI의 사회적 오남용을 심사하고 감독하기 위한 전문기관이나 심의기구 마련도 중요하다"는 입장을 피력했다.
반면, 이루다 사태는 개별 기업의 잘못일 뿐 법 규정이 없어 생긴 문제가 아닌 만큼, 그 이상의 법적 규제는 필요하지 않다는 주장도 나오고 있다.
이경전 경희대 교수는 "이번 이루타 사태는 기존 법 체계에서 개별 기업이 법을 제대로 준수하지 않아 생긴 불법적인 일로, 법 테두리에서 합법적으로 한 일이 아니라는 점에 핵심이 있다"며 "법이 미비한 상태에서 이뤄진 문제가 아니고, 명백한 법 규정이 있는 상황에서 일어난 일로, 법적 규제를 더 강화해야 한다는 주장은 맞지 않다"고 밝혔다.
◆AI 관련 협회들, "법·강제적 규제보다 협회 등 민간 자율 규제가 바람직"
한국인공지능협회, 한국인공지능윤리협회 등 AI 관련 협회들은 법이나 강제적인 규제보다는 AI 인증제도 등을 통해 올해 회원사들이 자체적으로 AI 윤리를 준수할 수 있도록 유도하겠다는 입장이다.
500여개 회원사를 보유한 한국인공지능협회 김현철 회장은 "협회가 현재 발행하고 있는 AI 테크인증, 비즈인증 등에 하반기에는 AI 윤리인증을 포함시켜 회원사들이 AI 윤리규정을 준수하도록 할 계획"이라며 "협회에서 AI 인증을 받으면 투자를 받을 때 기술 인증 역할을 할 수 있고,정부 R&D 과제에서도 더 좋은 평가를 받을 수 있어 인증을 받은 기업들이 이미 100개사를 넘어섰다"고 밝혔다. 그는 이어 "협회는 이미 2019년 7월 공동선언문을 통해 AI 윤리규정을 내놓았다"며 "이 지표를 준수하면 데이터 수집, 개발 단계부터 이미 법에 저촉되지 않는 윤리적인 서비스를 기획할 수 있게 된다"고 설명했다.
전창배 한국인공지능윤리협회 이사장도 "AI 기술에 대한 안정성과 윤리성에 대한 평가를 정부가 직접 나서 한다면 기업 입장에서는 강력한 규제로 느낄 수 있으며, 기업들이 스스로 AI 제품에 대해 검증한다면 이 또한 중립적일 수 없는 문제가 있다"며 "협회 등 민간 차원에서 이를 검증할 필요가 있으며, 우리 협회도 검인증 시스템과 가이드라인을 마련해 기업들이 이를 지키도록 촉구할 계획"이라고 밝혔다. 그는 또 "AI 기술의 안전성과 윤리성에 대한 검인증 시스템 구축과 가이드라인이 완료되면 기업들이 이를 통해 AI 제품, 서비스 출시 전 안전성과 윤리성이 제대로 확보됐는지 확인할 수 있다"고 말했다.
Copyright ⓒ 메트로신문 & metroseoul.co.kr
Copyright ⓒ Metro. All rights reserved. (주)메트로미디어의 모든 기사 또는 컨텐츠에 대한 무단 전재ㆍ복사ㆍ배포를 금합니다.
주식회사 메트로미디어 · 서울특별시 종로구 자하문로17길 18 ㅣ Tel : 02. 721. 9800 / Fax : 02. 730. 2882
문의메일 : webmaster@metroseoul.co.kr ㅣ 대표이사 · 발행인 · 편집인 : 이장규 ㅣ 신문사업 등록번호 : 서울, 가00206
인터넷신문 등록번호 : 서울, 아02546 ㅣ 등록일 : 2013년 3월 20일 ㅣ 제호 : 메트로신문
사업자등록번호 : 242-88-00131 ISSN : 2635-9219 ㅣ 청소년 보호책임자 및 고충처리인 : 안대성