|
|
|
|
|
정보기하학과 머신러닝 [3]: 거울하강법
앞 선 두 번의 글에서 우리는 쿨백-라이블러 거리Kullback-Leibler divergence의 특별함에 대해서 이야기 하였다. 이 거리는 지수족exponential family 확률모형의 브레그만 거리Bregman divergence임과 동시에 충분통계량sufficient statistic에 대해 불변이다. 이 번 글에서는 머신러닝의 최적화 과정에 정보기하학이 어떻게 멋지게 쓰일 수 있는지 살펴보겠다.
|
|
|
|
|
|
HORIZON은 고등과학원이 발간하는 과학전문 웹진으로 최신 과학의 뛰어난 성과들을 전달하고자 합니다.
|
기존의 미디어에서 전달하지 않은 깊이와 학술적인 논문에서 펼치지 못하는 범위의 영역을 탐사해 보고자 합니다.
|
02455 서울특별시 동대문구 회기로 85 | Tel. 02-958-3711 | horizon@kias.re.kr
|
|
|
|
|
|
|