Python中的最大递归深度是多少,如何增加它?
Posted
技术标签:
【中文标题】Python中的最大递归深度是多少,如何增加它?【英文标题】:What is the maximum recursion depth in Python, and how to increase it? 【发布时间】:2011-03-20 09:01:53 【问题描述】:我这里有这个尾递归函数:
def recursive_function(n, sum):
if n < 1:
return sum
else:
return recursive_function(n-1, sum+n)
c = 998
print(recursive_function(c, 0))
它工作到n=997
,然后它会中断并吐出RecursionError: maximum recursion depth exceeded in comparison
。这只是堆栈溢出吗?有没有办法绕过它?
【问题讨论】:
另见***.com/questions/5061582/… memoization 可以通过终止先前计算的值而不是增加堆栈大小来加速您的函数并增加其有效递归深度。 递归限制通常为1000。 @tonix 解释器添加了一个堆栈帧(堆栈跟踪中的line <n>, in <module>
),此代码为n=1
占用2 个堆栈帧(因为基本情况是n < 1
,所以对于@987654329 @它仍然递归)。而且我猜递归限制不包括在内,因为它是“当你达到 1000 时出错”而不是“如果你超过 1000 (1001) 时出错”。 997 + 2
小于 1000 所以它可以工作 998 + 2
不是因为它达到了限制。
@tonix 没有。 recursive_function(997)
有效,它在998
处中断。当您调用 recursive_function(998)
时,它使用 999 个堆栈帧,解释器添加 1 个帧(因为您的代码总是像***模块的一部分一样运行),这使其达到了 1000 个限制。
【参考方案1】:
看来你只需要set a higher recursion depth:
import sys
sys.setrecursionlimit(1500)
【讨论】:
在我的情况下,我忘记了基本情况下的 return 语句,它继续超过 1000。Python 开始抛出这个异常,我很惊讶,因为我确定没有。它要创建的堆栈来运行它。 sys.setrecursionlimit(50) 如果您的程序正在进入递归并且您希望错误消息不是相同文本的页面和页面,则少量是有用的。在调试(我的)糟糕的递归代码时,我发现这非常有用。【参考方案2】:这是为了避免堆栈溢出。 Python 解释器限制了递归的深度,以帮助您避免无限递归,从而导致堆栈溢出。
尝试增加递归限制 (sys.setrecursionlimit
) 或在不使用递归的情况下重新编写代码。
来自Python documentation:
sys.getrecursionlimit()
返回递归限制的当前值,Python 解释器堆栈的最大深度。此限制可防止无限递归导致 C 堆栈溢出和 Python 崩溃。可以通过
setrecursionlimit()
设置。
【讨论】:
在我的 Anaconda x64, 3.5 Python on Windows 上,默认限制为 1000。【参考方案3】:是的,它可以防止堆栈溢出。 Python(或者更确切地说,CPython 实现)不会优化尾递归,并且肆无忌惮的递归会导致堆栈溢出。您可以使用sys.getrecursionlimit
检查递归限制:
import sys
print(sys.getrecursionlimit())
并使用sys.setrecursionlimit
更改递归限制:
sys.setrecursionlimit(1500)
但这样做很危险——标准限制有点保守,但 Python 堆栈帧可能非常大。
Python 不是一种函数式语言,尾递归也不是一种特别有效的技术。如果可能,迭代地重写算法通常是一个更好的主意。
【讨论】:
根据我的经验,您需要增加sys
和 resource
模块中的限制:***.com/a/16248113/205521
作为将其转换为迭代版本的策略,a tail call optimization decorator could be used
您可以使用svn.python.org/projects/python/trunk/Tools/scripts/… 找出您的操作系统上限
对于那些对源代码感兴趣的人,默认递归限制设置为 1000 hg.python.org/cpython/file/tip/Python/ceval.c#l691 并且可以使用hg.python.org/cpython/file/tip/Python/sysmodule.c#l643 的 API 进行更改,这反过来又将限制设置为 @ 的新值987654328@
尾递归在为其优化的编程语言中是一种非常有效的技术。对于正确的问题,迭代实现可能更具表现力。答案可能意味着“特别是在 Python 中”,但这不是它所说的【参考方案4】:
使用保证尾调用优化的语言。或者使用迭代。或者,通过decorators 变得可爱。
【讨论】:
这简直就是把婴儿和洗澡水一起扔出去。 @Russell:我提供的选项中只有一个建议这样做。 “用装饰器变得可爱”并不是一个选择。 @Mr.B 除非您需要超过ulimit -s
的堆栈帧,是的,它是***.com/a/50120316【参考方案5】:
我意识到这是一个老问题,但对于那些阅读的人,我建议不要对此类问题使用递归 - 列表要快得多并且完全避免递归。我将其实现为:
def fibonacci(n):
f = [0,1,1]
for i in xrange(3,n):
f.append(f[i-1] + f[i-2])
return 'The %.0fth fibonacci number is: %.0f' % (n,f[-1])
(如果您从 0 而不是 1 开始计算斐波那契数列,则在 xrange 中使用 n+1。)
【讨论】:
既然可以使用 O(1),为什么还要使用 O(n) 空间? 以防 O(n) 空间注释令人困惑:不要使用列表。当您只需要第 n 个值时,列表将保留所有值。一个简单的算法是保留最后两个斐波那契数并将它们相加,直到你得到你需要的那个。还有更好的算法。 @Mathime:xrange
在 Python 3 中简称为 range
。
@EOL 我知道了
@Mathime 我正在为那些阅读这些 cmets 的人明确说明。【参考方案6】:
我遇到了类似的错误“超出最大递归深度”。我发现错误是由我使用os.walk
循环访问的目录中的损坏文件触发的。如果您在解决此问题时遇到问题并且正在使用文件路径,请务必缩小范围,因为它可能是损坏的文件。
【讨论】:
OP 确实给出了他的代码,他的实验可以随意重现。它不涉及损坏的文件。 你是对的,但我的回答并不适合 OP,因为这是四年前的事了。我的回答旨在帮助那些因文件损坏而间接导致 MRD 错误的人——因为这是最早的搜索结果之一。它帮助了某人,因为它被投票赞成。感谢您的反对。 这是我在搜索将“最大递归深度”回溯连接到损坏文件的问题时在任何地方发现的唯一内容。谢谢!【参考方案7】:编辑:6 年后,我意识到我的“使用生成器”是轻率的,没有回答问题。我很抱歉。
我想我的第一个问题是:你真的需要改变递归限制吗?如果不是,那么也许我的或任何其他不涉及更改递归限制的答案都将适用。否则,如前所述,使用sys.getrecursionlimit(n)
覆盖递归限制。
使用生成器?
def fib():
a, b = 0, 1
while True:
yield a
a, b = b, a + b
fibs = fib() #seems to be the only way to get the following line to work is to
#assign the infinite generator to a variable
f = [fibs.next() for x in xrange(1001)]
for num in f:
print num
以上fib()
函数改编自Introduction to Python Generators。
【讨论】:
必须将生成器分配给变量的原因是因为[fibs().next() for ...]
每次都会生成一个新的生成器。
另一种用法,例如 islice
docs.python.org/3/library/itertools.html#itertools.islice 从生成器中获取元素。
使用 islice
需要如下所示(对于第 1001 个数字):value = next(islice(fib(), 1000, 1001))
。【参考方案8】:
当然,斐波那契数可以通过应用 Binet formula 以 O(n) 计算:
from math import floor, sqrt
def fib(n):
return int(floor(((1+sqrt(5))**n-(1-sqrt(5))**n)/(2**n*sqrt(5))+0.5))
正如评论者指出的那样,由于2**n
,它不是 O(1) 而是 O(n)。还有一个区别是你只能得到一个值,而通过递归你会得到Fibonacci(n)
的所有值直到那个值。
【讨论】:
python中没有long的最大尺寸。 值得注意的是,对于较大的n
,由于浮点不精确,这会失败 - (1+sqrt(5))**n
和 (1+sqrt(5))**(n+1)
之间的差异小于 1 ulp,因此您开始得到不正确的结果。跨度>
NumPy 中实际上没有大整数...
@user202729 这不是真的,使用Exponentiattion by squaring 计算2**n
实际上是O(log(n))。
@user202729 任何数字的长度都是 O(log(n)) 位,除非它以一元表示。例如“1”在二进制中是 1 位长,而 1,000,000 在二进制中是 10 位长。【参考方案9】:
许多人建议增加递归限制是一个很好的解决方案,但这并不是因为总会有限制。而是使用迭代解决方案。
def fib(n):
a,b = 1,1
for i in range(n-1):
a,b = b,a+b
return a
print fib(5)
【讨论】:
【参考方案10】:作为@alex suggested,您可以使用generator function 按顺序而不是递归地执行此操作。
这是您问题中的代码的等价物:
def fib(n):
def fibseq(n):
""" Iteratively return the first n Fibonacci numbers, starting from 0. """
a, b = 0, 1
for _ in xrange(n):
yield a
a, b = b, a + b
return sum(v for v in fibseq(n))
print format(fib(100000), ',d') # -> no recursion depth error
【讨论】:
【参考方案11】:resource.setrlimit
也必须用于增加堆栈大小并防止段错误
Linux 内核limits the stack of processes。
Python 将局部变量存储在解释器的栈中,因此递归占用了解释器的栈空间。
如果 Python 解释器尝试超过堆栈限制,Linux 内核会导致分段错误。
堆栈限制大小由getrlimit
和setrlimit
系统调用控制。
Python 通过resource
模块提供对这些系统调用的访问。
sys.setrecursionlimit
提到例如https://***.com/a/3323013/895245 只增加了 Python 解释器自身对其自身堆栈大小施加的限制,但并未触及 Linux 内核对 Python 进程施加的限制。
示例程序:
main.py
import resource
import sys
print resource.getrlimit(resource.RLIMIT_STACK)
print sys.getrecursionlimit()
print
# Will segfault without this line.
resource.setrlimit(resource.RLIMIT_STACK, [0x10000000, resource.RLIM_INFINITY])
sys.setrecursionlimit(0x100000)
def f(i):
print i
sys.stdout.flush()
f(i + 1)
f(0)
当然,如果你不断增加 setrlimit
,你的 RAM 最终会耗尽,这会导致你的计算机因交换疯狂而停止运行,或者通过 OOM Killer 杀死 Python。
在 bash 中,您可以通过以下方式查看和设置堆栈限制(以 kb 为单位):
ulimit -s
ulimit -s 10000
我的默认值为 8Mb。
另见:
Setting stacksize in a python script What is the hard recursion limit for Linux, Mac and Windows?在 Ubuntu 16.10、Python 2.7.12 上测试。
【讨论】:
尝试在Stack *** 修正后设置rlimit_stack
可能会导致失败或相关问题。另请参阅红帽 Issue 1463241
我使用这个(Python 资源部分)来帮助我在 Tim Roughgarden 教授的平均(巨大)数据集上实现 Kosaraju 的算法。我的实现适用于小型集合,当然大型数据集的问题是递归/堆栈限制......或者是吗?嗯,是的!谢谢!【参考方案12】:
如果你只想得到几个斐波那契数,你可以使用矩阵法。
from numpy import matrix
def fib(n):
return (matrix('0 1; 1 1', dtype='object') ** n).item(1)
因为 numpy 使用快速求幂算法,所以速度很快。你得到 O(log n) 的答案。它比比内公式更好,因为它只使用整数。但是,如果您希望所有斐波那契数都达到 n,那么最好通过记忆来完成。
【讨论】:
遗憾的是,您不能在大多数竞争激烈的编程评委中使用 numpy。但是,是的,先生,您的解决方案是我最喜欢的。我已经使用矩阵解决方案来解决一些问题。当您需要一个非常大的斐波那契数并且您不能使用模数时,这是最好的解决方案。如果允许您使用模数,则使用 pisano 周期是更好的方法。【参考方案13】:如果您经常需要更改递归限制(例如在解决编程难题时),您可以像这样定义一个简单的context manager:
import sys
class recursionlimit:
def __init__(self, limit):
self.limit = limit
def __enter__(self):
self.old_limit = sys.getrecursionlimit()
sys.setrecursionlimit(self.limit)
def __exit__(self, type, value, tb):
sys.setrecursionlimit(self.old_limit)
然后调用具有自定义限制的函数,您可以这样做:
with recursionlimit(1500):
print(fib(1000, 0))
在退出with
语句的主体时,递归限制将恢复为默认值。
附:对于较大的递归限制值,您可能还希望增加 Python 进程的堆栈大小。例如,这可以通过ulimit
shell 内置或limits.conf(5)
文件来完成。
【讨论】:
你也想up the process' recursion limit withresource
。没有它,你会得到一个分段错误,如果你 setrecursionlimit
太高并尝试使用新的限制(大约 8 兆字节的堆栈帧,使用简单函数转换为约 30,000 个堆栈帧),整个 Python 进程将崩溃上面,在我的笔记本电脑上)。
@Boris:可以添加到上下文管理器中,但是提高堆栈大小限制仅适用于 root(超级用户)。【参考方案14】:
我想给你一个使用记忆计算斐波那契的例子,因为这将允许你使用递归计算显着更大的数字:
cache =
def fib_dp(n):
if n in cache:
return cache[n]
if n == 0: return 0
elif n == 1: return 1
else:
value = fib_dp(n-1) + fib_dp(n-2)
cache[n] = value
return value
print(fib_dp(998))
这仍然是递归的,但使用了一个简单的哈希表,允许重复使用之前计算的斐波那契数,而不是重复它们。
【讨论】:
【参考方案15】:import sys
sys.setrecursionlimit(1500)
def fib(n, sum):
if n < 1:
return sum
else:
return fib(n-1, sum+n)
c = 998
print(fib(c, 0))
【讨论】:
这个答案已经被多次给出。请删除它。【参考方案16】:我们可以使用@lru_cache
装饰器和setrecursionlimit()
方法来做到这一点:
import sys
from functools import lru_cache
sys.setrecursionlimit(15000)
@lru_cache(128)
def fib(n: int) -> int:
if n == 0:
return 0
if n == 1:
return 1
return fib(n - 2) + fib(n - 1)
print(fib(14000))
输出
3002468761178461090995494179715025648692747937490792943468375429502230242942284835863402333575216217865811638730389352239181342307756720414619391217798542575996541081060501905302157019002614964717310808809478675602711440361241500732699145834377856326394037071666274321657305320804055307021019793251762830816701587386994888032362232198219843549865275880699612359275125243457132496772854886508703396643365042454333009802006384286859581649296390803003232654898464561589234445139863242606285711591746222880807391057211912655818499798720987302540712067959840802106849776547522247429904618357394771725653253559346195282601285019169360207355179223814857106405285007997547692546378757062999581657867188420995770650565521377874333085963123444258953052751461206977615079511435862879678439081175536265576977106865074099512897235100538241196445815568291377846656352979228098911566675956525644182645608178603837172227838896725425605719942300037650526231486881066037397866942013838296769284745527778439272995067231492069369130289154753132313883294398593507873555667211005422003204156154859031529462152953119957597195735953686798871131148255050140450845034240095305094449911578598539658855704158240221809528010179414493499583473568873253067921639513996596738275817909624857593693291980841303291145613566466575233283651420134915764961372875933822262953420444548349180436583183291944875599477240814774580187144637965487250578134990402443365677985388481961492444981994523034245619781853365476552719460960795929666883665704293897310201276011658074359194189359660792496027472226428571547971602259808697441435358578480589837766911684200275636889192254762678512597000452676191374475932796663842865744658264924913771676415404179920096074751516422872997665425047457428327276230059296132722787915300105002019006293320082955378715908263653377755031155794063450515731009402407584683132870206376994025920790298591144213659942668622062191441346200098342943955169522532574271644954360217472458521489671859465232568419404182043966092211744372699797375966048010775453444600153524772238401414789562651410289808994960533132759532092895779406940925252906166612153699850759933762897947175972147868784008320247586210378556711332739463277940255289047962323306946068381887446046387745247925675240182981190836264964640612069909458682443392729946084099312047752966806439331403663934969942958022237945205992581178803606156982034385347182766573351768749665172549908638337611953199808161937885366709285043276595726484068138091188914698151703122773726725261370542355162118164302728812259192476428938730724109825922331973256105091200551566581350508061922762910078528219869913214146575557249199263634241165352226570749618907050553115468306669184485910269806225894530809823102279231750061652042560772530576713148647858705369649642907780603247428680176236527220826640665659902650188140474762163503557640566711903907798932853656216227739411210513756695569391593763704981001125
来源
functools lru_cache
【讨论】:
很好,但您不需要行 sys.setrecursionlimit(15000)。您可以在最后使用 print(fib.cache_info()) 进行检查和优化。 在python 3.9中,最好使用@cache(128)而不是@lru_cache(128)。【参考方案17】:我们还可以使用动态规划自下而上方法的变体
def fib_bottom_up(n):
bottom_up = [None] * (n+1)
bottom_up[0] = 1
bottom_up[1] = 1
for i in range(2, n+1):
bottom_up[i] = bottom_up[i-1] + bottom_up[i-2]
return bottom_up[n]
print(fib_bottom_up(20000))
【讨论】:
【参考方案18】:我不确定我是否在重复某人,但前段时间一些好心人为递归调用的函数编写了 Y 运算符,例如:
def tail_recursive(func):
y_operator = (lambda f: (lambda y: y(y))(lambda x: f(lambda *args: lambda: x(x)(*args))))(func)
def wrap_func_tail(*args):
out = y_operator(*args)
while callable(out): out = out()
return out
return wrap_func_tail
然后递归函数需要形式:
def my_recursive_func(g):
def wrapped(some_arg, acc):
if <condition>: return acc
return g(some_arg, acc)
return wrapped
# and finally you call it in code
(tail_recursive(my_recursive_func))(some_arg, acc)
对于斐波那契数,您的函数如下所示:
def fib(g):
def wrapped(n_1, n_2, n):
if n == 0: return n_1
return g(n_2, n_1 + n_2, n-1)
return wrapped
print((tail_recursive(fib))(0, 1, 1000000))
输出:
..684684301719893411568996526838242546875
(实际上是数字的音调)
【讨论】:
【参考方案19】:RecursionError:比较中超出了最大递归深度
解决方案:
首先最好知道当您在 Python 中对较大的输入 (> 10^4) 执行递归函数时,您可能会遇到“超出最大递归深度错误”。
Python 中的 sys 模块有一个函数 getrecursionlimit() 可以显示你的 Python 版本中的递归限制。
import sys
print("Python Recursive Limitation = ", sys.getrecursionlimit())
在某些版本的 Python 中默认值为 1000,而在其他版本中为 1500
您可以更改此限制,但非常重要的是要知道如果您将其增加太多会出现内存溢出错误。
所以在增加它之前要小心。您可以在 Python 中使用 setrecursionlimit() 来增加此限制。
import sys
sys.setrecursionlimit(3000)
请点击此链接以获取有关导致此问题的原因的更多信息:
https://elvand.com/quick-sort-binary-search/
【讨论】:
以上是关于Python中的最大递归深度是多少,如何增加它?的主要内容,如果未能解决你的问题,请参考以下文章