Ich bin kein Mathematiker. Ich habe im Internet nach KL Divergence gesucht. Was ich gelernt habe, ist, dass die KL-Divergenz den Informationsverlust misst, wenn wir die Verteilung eines Modells in Bezug auf die Eingabeverteilung approximieren. Ich habe diese zwischen zwei kontinuierlichen oder diskreten Verteilungen gesehen. Können wir es zwischen kontinuierlich und diskret machen oder umgekehrt?