Временная сложность
Временная сложность(Time complexity) - основной параметр, характеризующий алгоритм; определяется как число шагов, выполняемых алгоритмом в худшем случае, обычно рассматривается как функция размера задачи, представленной входными данными. Обычно под размером теоретико-графовой задачи понимается число вершин графа [math]\displaystyle{ n }[/math], число дуг [math]\displaystyle{ m }[/math] или пара [math]\displaystyle{ (n,m) }[/math]. Под шагом алгоритма понимается выполнение одной из команд некоторой гипотетической машины. Поскольку при таком определении шага сложность алгоритма зависит от конкретного вида машинных команд, во внимание принимается асимптотическая сложность, т.е. асимптотическая скорость увеличения числа шагов алгоритма, когда размерность задачи неограниченно растет. Ясно, что при двух произвольных "разумных" способах перевода алгоритма в последовательность машинных команд соответствующие сложности различаются не более чем на мультипликативную константу, а их скорость роста одинакова.
При сравнении скорости роста двух функций [math]\displaystyle{ f(n) }[/math] и [math]\displaystyle{ g(n) }[/math] используются следующие обозначения: [math]\displaystyle{ \begin{array}{ll} f(n) = O(g(n)) \Longleftrightarrow & \mbox{ существуют константы } C, \; N \gt 0 \mbox{ такие,} \\ & \mbox{ что }f(n) \leq C \cdot g(n) \mbox{ для всех }n \geq N; \\ f(n) = \Omega(g(n)) \Longleftrightarrow & \mbox{ существуют константы } C, \; N \gt 0 \mbox{ такие,} \\ & \mbox{ что }f(n) \geq C \cdot g(n) \mbox{ для всех }n \geq N. \end{array} }[/math]
Другое название --- Вычислительная сложность.
См. также
Литература
[Ахо-Хопкрофт-Ульман],
[Евстигнеев-Касьянов/94],
[Липский]