|
24일 오전 과학기술정보방송통신위원회는 전체회의에서 'AI 기본법 공청회'를 진행했다.
공청회에 참석한 고환경 법무법인 광장 변호사는 AI 법제화 방향성에 대해 "과장된 위험에 대한 규제 신설이 아니라, 실질적 위험에 대한 규제 위주로 이뤄저야 한다"고 강조했다.
고환경 변호사는 "챗GPT 등 생성형AI 발전 속도가 예상을 뛰어넘으며 일부 전문가는 AI 위험을 핵무기에 빗대거나 인류 멸종 가능성을 경고하기도 한다. 그러나 AI 위험이 지나치게 과장됐다는 비판도 있다"며 "앤드류 응 스탠포드대 교수는 AI 기술에 의한 인류 멸종 가능성은 지나치게 과장됐다. 핵무기에 빗대는 것은 실질적 유사성 찾기 어렵다는 의견을 밝힌 바 있다"고 설명했다.
이어 "우리나라 AI 기본법은 기본법 성격에 맞게 전반적 규제 프레임 제시하는 역할 해야 한다. 인공지능 기술 기업 육성과 인재 유치, 유출 방지 등에 방점에 두는 내용으로 입법돼야 한다"며 "규제 관련 내용은 최소화하고, 적정 규제와 AI 신뢰성 보장을 위한 자율 규제 위주로 설계돼야 한다. 또 우리나라 AI 기본법이 글로벌 규제와의 정합성 및 상호 운용성을 갖출 수 있도록 기본 개념 등에 대한 면밀한 검토도 이뤄져야 할 것"이라고 말했다.
배경훈 LG AI 연구원장은 기업들이 AI 위험 완화를 위한 자발적 노력을 이어가도록 기본법이 산업 진흥에 초점을 맞춰야 한다고 주장했다.
배 연구원장은 "대한민국 AI 기술은 미국, 중국에 비해 격차가 큰 상황이다. 이제 겨우 인공지능을 활용한 산업 진흥 토대를 만들어가는 시점"이라며 "많은 기업들은 AI 윤리원칙을 수립하고 이를 준수하기 위해 노력하고 있다. LG는 AI 윤리적 측면의 감시, 관리를 위한 조직과 절차를 갖추고 있다. AI 알고리즘 모델의 편견과 오류를 찾아내고 데이터 거버넌스를 구축해 저작권과 개인정보 이슈를 검토한다"고 밝혔다.
또 "AI 윤리 원칙을 지키는 것은 기업 입장에서 AI 서비스 사용하는 고객의 신뢰와 직결된다. 이는 기업의 생존을 좌우하는 문제"라며 "기업은 신뢰할 수 있는 AI를 개발하기 위한 자발적 노력을 게을리할 수 없다"고 덧붙였다.
유승익 한동대학교 교수는 AI 관련 법안의 주안점은 '글로벌 입법'에 맞춰져야 한다고 강조했다. 유 교수는 "세계적으로 AI 관련한 법안들이 상호 운용성과 통용성을 보이고 있는데, 대한민국 국회가 갈라파고스가 돼서는 안 된다"며 "우리나라 AI 기본법도 글로벌 입법 차원에서 통용성을 보여야 한다"고 말했다.
이어 "시민사회 입장에서 걱정되는 부분은, 진흥 위주로 선입법을 하고 문제가 발생하면 후에 보완한다는 입법 경로"라며 "AI의 위험이 명백한 상황에서 제도적 안전장치가 거의 없는 상태로 입법이 되면 국내로도 그렇고 세계적으로도 유례가 없는 졸속 입법이 될 것"이라고 지적했다.