El problema con exigir un límite de profundidad, está precisamente en escoger un límite adecuado. Profundidad iterativa va aumentando gradualmente la profundidad hasta encontrar una meta. Es óptimo y completo como breadth-first pero requiere de poca memoria como depth-first.
La cantidad de nodos expandidos es similar a breadth-first, solo que algunos nodos se expanden varias veces.
Aunque parece que se repite mucho trabajo de más, en la práctica es relativamente poco.
Por ejemplo, en lugar de que sea , el primero se expande veces, el segundo veces, el tercero , etc.
Por ejemplo, con un branching factor de 10 y con profundidad 5, los nodos expandidos serían , con iterative deepending son: más de nodos.
Entre más grande sea el factor de arborecencia, menor el trabajo extra.
Sin embargo, inclusive para un árbol binario se toma como el doble de tiempo que breadth-first pero con mucho menos memoria.
En general, si el espacio de búsqueda es grande y no se sabe la profundidad del árbol es el método a usar.