Random Forest: Diferenzas entre revisións

Contido eliminado Contido engadido
Elisardojm (conversa | contribucións)
m Arranxos varios
Liña 1:
'''''Random Forest''''' é un metaalgoritmo de [[aprendizaxe automática]] (Machine Learning) deseñado como unha modificación substancial da idea de empaquetado (bagging) que constrúe unha gran colección de ''árbores'' sen correlación para posteriormente calcular a súa [[Media (matemáticas) | media]]. Para a súa aplicación na maioría de problemas, a resolutividade do ''Random Forest'' é similar á do algoritmo de empaquetado, coa suma de que son máis sinxelos de adestrar e parametrizar. Como consecuencia, a súa popularidade é alta e desenvólvense en multitude de módulos de aprendizaxe automática. <ref>{{Cita libro |título= The Elements of Statistical Learning |nome=Trevor |nome2= Robert |apelidos= Hastie |apelidos2=Tibshirani |ano= 2001|editorial= Springer}}</ref>
 
== Definición de Random Forest ==
A idea principal no metaalgoritmo de empaquetado é o cálculo da [[Media (matemáticas) | media]] sobre moitos modelos de ruído non distorsionados ou simplificados. As árbores, en [[informática]], son candidatas ideais para emular a idea de empaquetado, posto que capturan complexas interaccións nas estruturas de calquera conxunto de datos dado. Así mesmo medra con suficiente profundidade para evitar calquera distorsión ou simplificación (bias). Sumado a que as árbores adoitan asociarse a grandes cantidades de ruído, benefícianse enormemente da limpeza a través do cálculo da [[Media (matemáticas) | media]]. Así mesmo, dado que cada árbore xerada por empaquetado ten idéntica distribución, espérase que a media de varios deles <math>B</math> achegue os mesmos resultados que a media individual.
 
A media de <math>B</math> variábeis aleatorias, cada unha cunha [[varianza]] de σ<sup>2</sup> aporta unha varianza total de <math>1/B</math>xσ<sup>2</sup>.
 
''Random Forest'' introduciuse baixo está definición por [[Leo Breiman]] en [[2001]], aínda que a maioría das ideas presentábanse dispersas na literatura con anterioridade. Notabelmente [[Tin Kam Ho]] en [[1995]] introduciu o termo, e usouno parcialmente sobre subconxuntos aleatorios de características atopadas en común nun conxunto de datos.
 
[[Jerome H. Friedman]] en [[2007]] probou que incrementando e calculando a media de mostras de tamaño <math>N/2</math> aproxímase (en consideracións de bias e varianza) á idea de empaquetado, así como usar mostras menores que N reduce a varianza aínda máis (a través do proceso de decorrelación).