This HTML5 document contains 45 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
n15http://linked.opendata.cz/ontology/domain/vavai/riv/typAkce/
dctermshttp://purl.org/dc/terms/
n4http://purl.org/net/nknouf/ns/bibtex#
n18http://linked.opendata.cz/resource/domain/vavai/projekt/
n6http://linked.opendata.cz/resource/domain/vavai/riv/tvurce/
n17http://linked.opendata.cz/ontology/domain/vavai/
n16http://linked.opendata.cz/resource/domain/vavai/vysledek/RIV%2F67985807%3A_____%2F04%3A00105191%21RIV%2F2005%2FMSM%2FA06005%2FN/
n19https://schema.org/
shttp://schema.org/
skoshttp://www.w3.org/2004/02/skos/core#
n5http://linked.opendata.cz/ontology/domain/vavai/riv/
n2http://linked.opendata.cz/resource/domain/vavai/vysledek/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
n11http://linked.opendata.cz/ontology/domain/vavai/riv/klicoveSlovo/
n9http://linked.opendata.cz/ontology/domain/vavai/riv/duvernostUdaju/
xsdhhttp://www.w3.org/2001/XMLSchema#
n14http://linked.opendata.cz/ontology/domain/vavai/riv/jazykVysledku/
n13http://linked.opendata.cz/ontology/domain/vavai/riv/aktivita/
n20http://linked.opendata.cz/ontology/domain/vavai/riv/druhVysledku/
n12http://linked.opendata.cz/ontology/domain/vavai/riv/obor/
n8http://reference.data.gov.uk/id/gregorian-year/

Statements

Subject Item
n2:RIV%2F67985807%3A_____%2F04%3A00105191%21RIV%2F2005%2FMSM%2FA06005%2FN
rdf:type
skos:Concept n17:Vysledek
dcterms:description
Decision forests (ensembles of trees) achieve usually smaller generalization error compared to single trees. In the classical methods for growing forests, bagging and boosting, the individual trees are constructed by methods originally developed for growing a single tree as the final predictor. In particular, the trees are usually pruned. For such trees, using weights (confidences) for individual trees improves the accuracy of the prediction of the ensemble. Random forests technique (Breiman 2001) uses a specific tree growing process, which does not produce good individual trees, but the whole ensemble frequently achieves better results than ensembles of trees obtained by classical bagging and boosting. One of the default features of Random Forests technique is that it does not use any weights. The current paper presents experiments demonstrating that in specific situations, appropriately chosen weights may improve the prediction for Random Forests of limited size. Decision forests (ensembles of trees) achieve usually smaller generalization error compared to single trees. In the classical methods for growing forests, bagging and boosting, the individual trees are constructed by methods originally developed for growing a single tree as the final predictor. In particular, the trees are usually pruned. For such trees, using weights (confidences) for individual trees improves the accuracy of the prediction of the ensemble. Random forests technique (Breiman 2001) uses a specific tree growing process, which does not produce good individual trees, but the whole ensemble frequently achieves better results than ensembles of trees obtained by classical bagging and boosting. One of the default features of Random Forests technique is that it does not use any weights. The current paper presents experiments demonstrating that in specific situations, appropriately chosen weights may improve the prediction for Random Forests of limited size. Rozhodovací lesy (soubory rozhodovacích stromů) obvykle dosahují menší generalizační chyby než jednotlivé stromy. V klasických metodách pro konstrukci lesů (bagging a boosting) jsou jednotlivé stromy konstruovány metodami, které byly původně navrženy pro konstrukci jednotlivých stromů jakožto výsledných prediktorů. Speciálně, tyto stromy jsou obvykle prořezávány. Pro takovéto stromy použití vah listů pro jednotlivé stromy zvyšuje přesnost predikce celého souboru. Metoda Random Forests (Breiman 2001) používá specifický postup konstrukce stromů, který nedává dobré jednotlivé stromy, ale celý soubor často dosahuje lepších výsledků než soubory získané klasickým baggingem a boostingem. Jedna ze základních vlastností metody Random Forests je, že nepoužívá žádné váhy listů. Prezentovaný článek ukazuje výsledky experimentů, které potvrzují, že v určitých situacích vhodně vybrané váhy listů mohou zlepšit predikci souboru získaného metodou Random Forests při omezeném počtu použitých stromů.
dcterms:title
Experimental Study of Leaf Confidences for Random Forest Experimental Study of Leaf Confidences for Random Forest Experimentální studie vážení listů pro metodu Random Forests
skos:prefLabel
Experimentální studie vážení listů pro metodu Random Forests Experimental Study of Leaf Confidences for Random Forest Experimental Study of Leaf Confidences for Random Forest
skos:notation
RIV/67985807:_____/04:00105191!RIV/2005/MSM/A06005/N
n5:strany
1767;1774
n5:aktivita
n13:P
n5:aktivity
P(LN00A056)
n5:dodaniDat
n8:2005
n5:domaciTvurceVysledku
n6:3559491 n6:5636809
n5:druhVysledku
n20:D
n5:duvernostUdaju
n9:S
n5:entitaPredkladatele
n16:predkladatel
n5:idSjednocenehoVysledku
563749
n5:idVysledku
RIV/67985807:_____/04:00105191
n5:jazykVysledku
n14:eng
n5:klicovaSlova
decision trees;random forest;weights;leaf confidences
n5:klicoveSlovo
n11:random%20forest n11:decision%20trees n11:weights n11:leaf%20confidences
n5:kontrolniKodProRIV
[D4E86D836E0E]
n5:mistoKonaniAkce
Prague
n5:mistoVydani
Heidelberg
n5:nazevZdroje
Computational Statistics
n5:obor
n12:BA
n5:pocetDomacichTvurcuVysledku
2
n5:pocetTvurcuVysledku
2
n5:projekt
n18:LN00A056
n5:rokUplatneniVysledku
n8:2004
n5:tvurceVysledku
Kotrč, Emil Savický, Petr
n5:typAkce
n15:WRD
n5:zahajeniAkce
2004-08-23+02:00
s:numberOfPages
8
n4:hasPublisher
Physica Verlag
n19:isbn
3-7908-1554-3