The Altair Community is migrating to a new platform to provide a better experience for you. In preparation for the migration, the Altair Community is on read-only mode from October 28 - November 6, 2024. Technical support via cases will continue to work as is. For any urgent requests from Students/Faculty members, please submit the form linked here
Resultados diferentes para los mismos datos de partida
Buenos días.
Tengo una pregunta:
- Tengo un conjunto de datos (2600 ejemplos, 90 atributos) y varios modelos de predicción.
- La label es una variable binominal
- Aplico los modelos al conjunto de datos originales y a una réplica de éste que sólo contiene los últimos 30 ejemplos.
- Por supuesto, los valores de los atributos de los casos comunes de ambos conjunto de datos (e original y su réplica de los últimos casos) son idénticos
Pues bien, los valores de las “confidences” obtenidos son diferentes.
Entiendo que esto pase con modelos tipo KNN, pero no con modelos basados en reglas o en árboles.
¿Cuál es la explicación?
0
Best Answer
-
MarcoBarradas Administrator, Employee-RapidMiner, RapidMiner Certified Analyst, Member Posts: 272 UnicornHola todo depende de cómo has construido tus modelos y el proceso de validación que seguiste en el mismo.
Recuerda que los modelos generalizan las reglas a partir de las estadísticas que sacan y los patrones de los datos que estás revisando Por lo tanto sí metes un registro en entrenamiento y en validación al mismo y no lo hiciste con cross validation tendrás el resultado que mencionas.
Así mismo al generalizar el modelo es posible que algunas predicciones cambien ya que el modelo siempre tendrá un grado de error. Un acccurracy de 80% no siempre significa un buen modelo ya que puedes tener un recall muy bajo en la clase minoritaria.
https://machinelearningparatodos.com/que-es-el-sobreajuste-u-overfitting-y-por-que-debemos-evitarlo/
https://www.cienciadedatos.net/documentos/30_cross-validation_oneleaveout_bootstrap
0
Answers
el conjunto de datos seleccionado condiciona una de las métricas utilizadas en los árboles de decisiones. Normalmente se trabaja con la impureza de Gini o con la entropía.
cada conjunto de datos elegido tendrá sus propias métricas o su grado de impurezas. cuando trabajas con un subconjunto aleatorio este puede tener una menor impureza que el conjunto global y dar resultados diferentes.
espero haberte ayudado un poco.
Un saludo