ArtificialIntelligence神经网络算法损失函数Kullback-LeiblerDivergence认识本页总览认识2025年02月07日柏拉文越努力,越幸运 一、认识 Kullback-Leibler (KL) 散度 二、公式 DKL(P∥Q)=∑iP(i)logP(i)Q(i)D_{KL}(P \parallel Q) = \sum_{i} P(i) \log \frac{P(i)}{Q(i)}DKL(P∥Q)=i∑P(i)logQ(i)P(i)