栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

无法顺利通过表格

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

无法顺利通过表格

我会使用

FormRequest.from_response()
哪个为您完成所有工作,因为您仍然可能会错过一些字段:

from scrapy.spider import baseSpiderfrom scrapy.selector import HtmlXPathSelectorfrom scrapy.http import FormRequest, Requestfrom robots_immo.items import AnnonceItemclass ElyseAvenueSpider(baseSpider):    name = "elyse_avenue"    allowed_domains = ["elyseavenue.com"] # i fixed this    start_urls = ["http://www.elyseavenue.com/"] # i added this    def parse(self, response):        yield FormRequest.from_response(response, formname='moteurRecherche', formdata={'recherche_distance_km_0':'20', 'recherche_type_logement':'9'}, callback=self.parseAnnonces)    def parseAnnonces(self, response):        hxs = HtmlXPathSelector(response)        annonces = hxs.select('//div[@id="contenuCentre"]/div[@]')        items = []        for annonce in annonces: item = AnnonceItem() item['nom'] = annonce.select('span[contains(@class,"nomBienImmo")]/a/text()').extract() item['superficie'] = annonce.select('table//tr[2]/td[2]/span/text()').extract() item['prix'] = annonce.select('span[@]/span[1]/text()').extract() items.append(item)        return items


转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/662325.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号