نتایج جستجو برای: aveboost
تعداد نتایج: 4 فیلتر نتایج به سال:
In this paper, a new algorithm called Averaged Conservative Boosting (ACB) is presented to build ensembles of neural networks. In ACB we mix the improvements that Averaged Boosting (Aveboost) and Conservative Boosting (Conserboost) made to Adaptive Boosting (Adaboost). In the algorithm we propose we have applied the conservative equation used in Conserboost along with the averaged procedure use...
طبقه بندی تقویت تطبیقی یک روش شناخته شده و موثر برای جمع آوری ویژگی های مثبت گروهی از یادگیرهای ضعیف موازی است; با این حال، از حساسیت بالا به داده های نویزی و همچنین آموزش تعداد زیادی از یادگیرهای ضعیف رنج می برد. در اینجا، یک روش جدید به منظور کاهش تعداد یادگیرهای تطبیقی با استفاده از روش گرام اشمیت به صورت یک طرح وزن دهی جدید که منجر به متعامد شدن توزیع تمام یادگیرهای تنبل می شود پیشنهاد شده ...
The design of an ensemble of neural networks is a procedure that can be decomposed into two steps. The first one consists in generating the ensemble, i.e., training the networks with significant differences. The second one consists in combining properly the information provided by the networks. Adaptive Boosting, one of the best performing ensemble methods, has been studied and improved by some...
AdaBoost [4] is a well-known ensemble learning algorithm that constructs its constituent or base models in sequence. A key step in AdaBoost is constructing a distribution over the training examples to create each base model. This distribution, represented as a vector, is constructed to be orthogonal to the vector of mistakes made by the previous base model in the sequence [6]. The idea is to ma...
نمودار تعداد نتایج جستجو در هر سال
با کلیک روی نمودار نتایج را به سال انتشار فیلتر کنید