关于scarpy ip的bug

先描述一下问题:在学习《Learning Scrapy》的过程中,根据ch03的代码,下载了Docker,然后Docker的地址为192.168.99.100,为了图方便,没有修改hosts的内容,在代码中,直接使用ip作为start urls,然后,无法爬取下一个页面,一直是以为是Rule写错了,修改Rule也无法验证,因为没有办法获取下一页的内容

起始的代码为:

1
2
allowed_domains = ['192.168.99.100']
start_urls = ['192.168.99.100:32768/properties/index_00000.html',]

修改为:

1
2
allowed_domains = ['web']
start_urls = ['http://web:32768/properties/index_00000.html',]

这样就可以了,但是不知道原因,如果以后知道了,就再补上
补一个stackoverflow的问题链接,没人回答╮(╯▽╰)╭

Profeel wechat
添加微信,加我好友,与我直接交流!

坚持原创技术分享,您的支持将鼓励我继续创作!