“지금의 AI가 위험한 것은 데이터 기반이기 때문입니다. 수많은 데이터를 넣어 결과를 생성하는 귀납적인 모델이기 때문입니다. 왜 이런 결과가 나왔는지 설명이 안되는 것이죠. 이 문제를 해결하려면 연역적 방식인 전통적 AI 방법론을 이용해야 합니다.”
한마디로 AI의 신뢰성을 확보하기 위해 ‘꼰대 AI’의 방법론, 즉 연역적 원칙을 가진 AI가 생성형AI에서 피드백을 주고 감시하는 과정이 필요하다는 것입니다.
이미 국내에서도 AI의 안전한 개발을 위한 가이드라인 표준을 만들고 있습니다. 국제기구에서 AI 신뢰성 표준을 만들고 있는 프로젝터 리더이자 한국정보통신기술협회(TTA)의 '신뢰할 수 있는 인공지능 가이드라인' 제정을 주도한 이재호 시립대 인공지능학과 교수로부터 안전한 AI 개발을 위한 조건이 무엇인지 들어봅니다.