Los algoritmos ensablados se forman de la unión de algortimos simples con algunos más complejos que te permiten realizar gran cantidad de tareas.
En el libro «50 conceptos de Machine Learning» elaborado por Paradigma Digital definen el Bagging o bootstrapping and aggregating como una de las técnicas que intentan obtener clasificadores más estables y actualmente este es uno de los campos de investigación abiertos en el ámbito de sistemas de clasificación.
Para comenzar a utilizarlo primero tienes que seleccionar muestras aleatorias de un conjunto de datos de entrenamiento con reemplazo, lo que significa que una muestra dada puede contener cero, uno o más de una copia de ejemplos en el conjunto de datos de entrenamiento (muestra de arranque). Luego se ajusta un modelo de aprendizaje débil en cada muestra de datos. Finalmente, las predicciones de todas las clases débiles en forma se combinan para hacer una predicción única (por ejemplo, agregada).

Un algortimos de este tipo es el Random Forest, y suelen recibir el nombre de ensamblados.