نتایج جستجو برای: معیار kullback
تعداد نتایج: 34836 فیلتر نتایج به سال:
In this paper we extend Bayesian Kullback YING YANG BKYY learning into a much broader Bayesian Ying Yang BYY learning System via using di erent sep aration functionals instead of using only Kullback Diver gence and elaborate the power of BYY learning as a gen eral learning theory for parameter learning scale selection structure evaluation regularization and sampling design with its relations to...
We give a detailed analysis of the Gibbs-type entropy notion and its dynamical behavior in case of time-dependent continuous probability distributions of varied origins: related to classical and quantum systems. The purpose-dependent usage of conditional Kullback-Leibler and Gibbs (Shannon) entropies is explained in case of non-equilibrium Smoluchowski processes. A very different temporal behav...
غلاف سوختهای هستهای یکی از مهمترین اجزا رآکتور محسوب میشود. این غلافها آلیاژ زیرکونیم ساخته میشوند؛ اما خواص ترمومکانیکی چندان مناسبی ندارند؛ لذا در پژوهش سعی شده با تغییر مواد بهکاررفته NuScale به یک نوترونیکی و مناسب دست پیدا شود. قلب موجب ضریب تکثیر مؤثر طول بازه سوختگذاری میگردد. شبیهسازی که M5 بهره میبرد بهعنوان معیار همچنین همراه سه نوع دیگر آلیاژهای رایج دو آن FeCrAl است، د...
In this article, we address the issues of stability and data-efficiency in reinforcement learning (RL). A novel RL approach, Kullback-Leibler divergence-regularized distributional (KL-C51) is proposed to integrate advantages both (KL) one framework. KL-C51 derived Bellman equation TD errors regularized by KL divergence a perspective explored approximated strategies properly mapping correspondin...
با استفاده از دادههای تجربی، تابع توزیع نزدیکترین فاصله مجاور را برای هستههای پایدار و رادیواکتیو مستقیما با روش تخمین دانسیته کرنلی (kernel density estimation) محاسبه کرده و فاصله تابع به دست آمده با دو حد منظم و آشوبناک را با استفاده از روش واگرایی kullback-leibeller به دست میآوریم. نتایج به دست آمده نشان میدهند که طیف هستههای پایدار منظمتر از هستههای رادیواکتیو بوده و طیف هستههای با ...
In applications of differential geometry to problems of parametric inference, the notion of divergence is often used to measure the separation between two parametric densities. Among them, in this paper, we will verify measures such as Kullback-Leibler information, J-divergence, Hellinger distance, -Divergence, … and so on. Properties and results related to distance between probability d...
Recently Habibi et al. (2006) defined a pre-experimental criterion for the potential strength of evidence provided by an experiment, based on Kullback-Leibler distance. In this paper, we investigate the potential statistical evidence in an experiment in terms of Renyi distance and compare the potential statistical evidence in lower (upper) record values with that in the same number of ii...
نمودار تعداد نتایج جستجو در هر سال
با کلیک روی نمودار نتایج را به سال انتشار فیلتر کنید