我仍然不知道为什么会这样,但是我可能已经找到了解决方法。我在一些文档中读到了可能存在竞争状况(关于什么,我不确定,因为不应有两个项目竞争同一资源)。
我更改了抓取代码以执行此操作:
import timebrowserObj.get(url)time.sleep(3)soup = BeautifulSoup(browserObj.page_source, 'lxml')
我没有选择为何选择3秒的具体原因,但是自从添加此延迟以来,我没有遇到
Message: failed to depre response frommarionette任何要抓取的URL错误。
更新:2018年10月
六个月后,这仍然是一个问题。Firefox,Geckodriver,Selenium和PyVirtualDisplay已全部更新为最新版本。此错误使自发重复发生而没有模式:有时有效,有时无效。
解决此问题的方法是将服务器上的RAM从1 GB增加到2 GB。自从增加以来,没有发生过这样的失败。



