인공지능 해부하기 : 설명 가능한 인공지능(eXplainable AI)
최근 인공지능 분야는 학술적 단계를 넘어서 실제 산업에 적용 가능한 수준으로 발전하였고, 다양한 산업분야의 여러 프로세스를 대체하고 있습니다. 자율주행, 로봇, 의료, 금융 및 군사 정보에 이르는 다양한 플랫폼에서 빠르게 상용화가 진전 될 것으로 기대됨과 동시에 인공지능이 예측하는 결과에 대한 근거, 도출 과정의 타당성 등의 논리적인 한계점이 지적되고 있습니다. 이에 따라 사용자에게 인공지능 시스템의 의사결정에 대한 설명을 제공하고, 인공지능 시스템에 대한 전반적인 이해 및 강약점을 이해하도록 도와주는 설명 가능한 인공지능(eXplainable AI) 기술이 새로운 기술로 주목받고 있습니다. 인공지능 시스템을 이해 한다는 것, 또한 해당 시스템에 대한 강점 및 약점을 이해한다는 것은 의사 결정에 대한 신뢰성 구축과 동시에 개발자에게 더 나은 모델을 만들 수 있는 가능성을 줄 수 있을 것 입니다.
본 발표에서는 설명 가능한 인공지능의 개요 및 필요성 등의 전반적인 소개와 더불어 실제 설명 가능한 인공지능의 구현 방식 및 활용 방안에 대하여 설명합니다.
발행: 2021년 5월 20일