爬虫找不到详情页URL的参数

第一种情况

这是网址
我要做的是获取全部数据包括列表页和详情页
这个网站看上去是很容易获取,都是很标准的格式,只是详情页跳转了一次url,翻页虽然没用参数但是有data,一切看上去都很容易。
翻页方案一

        driver = webdriver.Firefox()
        driver.get(response.url)
        soup = BeautifulSoup(driver.page_source, 'lxml')
        for i in range(300):
            table=soup.find('table',class_='Winstar-table').find_all('tr')
             #解析迭代
            driver.find_element_by_link_text('[下一页]').click()
            time.sleep(2)
            soup = BeautifulSoup(driver.page_source, 'lxml')
        driver.close()

翻页方案二

        VIEWSTATE = response.xpath("//input[@id='__VIEWSTATE']/@value").extract_first()
        EVENTVALIDATION = response.xpath("//input[@id='__EVENTVALIDATION']/@value").extract_first()
        for i in range(392):
            data = {
                '__EVENTTARGET': '_ctl9$lbtnNextPage',
                '__EVENTARGUMENT': '',
                '__LASTFOCUS': '',
                '__VIEWSTATE': VIEWSTATE,
                '__EVENTVALIDATION': EVENTVALIDATION,
                '_ctl9:dprlEnterpriseType': '01',
                '_ctl9:dprlEnterpriseClassify': '',
                '_ctl9:txtEnterpriseName': '',
                '_ctl9:txtGotoPage': ''
                    }
           #迭代
            res = requests.post(response.url, headers=self.headers1, data=data)
            html = etree.HTML(res.text)
            VIEWSTATE = html.xpath("//input[@id='__VIEWSTATE']/@value")[0]
            EVENTVALIDATION = html.xpath("//input[@id='__EVENTVALIDATION']/@value")[0]

方案二我一开始用的 BeautifulSoup去解析,但是没成功,后来小伙伴改用了xpath,我发现是我少加了一个参数。
接下来就是进入到详情页


截图一.png

截图一是在列表页获取的详情页URL但是里面的内容并不全,真正的信息在下面


截图二.png

根据请求的URL特点,就是找到一个RelatingID
我去看了请求页的源码
function tonclick(id)
        {   
            if(id.length == 3)//id长度判断,=3的才是实际节点。
            {
                var ran = randomnumber=Math.floor(Math.random()*100);
                var itemtype = GetUrlParam("ItemType");
                var itemid = GetUrlParam("ItemID");
                var tabid = GetUrlParam("tabid");
                var moduleid = GetUrlParam("moduleid");
                var resourceID = GetUrlParam("ResourceID");
                window.open(InfoTable.OpenUrl(itemtype,itemid,id).value+"&tabid="+tabid+"&moduleid="+moduleid+"&ResourceID="+resourceID+"&Ran="+ran,'main')
            }
        };
        function GetUrlParam( paramName )
        {
            var oRegex = new RegExp( '[\?&]' + paramName + '=([^&]+)', 'i' ) ;
            var oMatch = oRegex.exec( window.location.search ) ;
            if ( oMatch && oMatch.length > 1 )
                return oMatch[1] ;
            else
                return '' ;
        }
        function loadxml(tableid)
        {
            document.getElementById("treebox").innerHTML="";//先将树清空。
            tree=new dhtmlXTreeObject("treebox","100%","100%",0);
            tree.setImagePath("Skin/Default/Image/");
            tree.setOnClickHandler(tonclick);
            tree.loadXMLString('<FolderGroup Id="0"><FolderItem Name="企业信息" Id="01" open="1" im0="books_close.gif" im1="books_open.gif" im2="books_close.gif"><FolderItem Id="011" Name="企业概况" Table="ConstructionAptitudes" im0="book_gray.gif" ShowAbout="2" LocalShow="00" LinkAddress="../../DesktopModules/BaseInfo/EnterpriseSurvey.aspx" Key="GUID" RelatingKey="EnterpriseTypeGUID" UserPurview="001111" System="111" IsDefault="true" /></FolderItem></FolderGroup>');
            tonclick(tableid);//加载默认打开页面
        }   
        function loadpage(itemtype)
        {
            var itemid = GetUrlParam("ItemID");
            var tabid = GetUrlParam("tabid");
            var moduleid = GetUrlParam("moduleid");
            var resourceID = GetUrlParam("ResourceID");
            location.href = "InfoTable.aspx?ItemID="+itemid+"&ItemType="+itemtype+"&tabid="+tabid+"&moduleid="+moduleid+"&ResourceID="+resourceID;
        }

开始我觉的是逆向解开就能得到RelatingID,但是仔细找找你就会发现RelatingID藏得并不复杂


截图三.png

打开详情页的url会调用/ajax/JSJG.CollectionLoad.WebUI.InfoTable,JSJG.CollectionLoad.WebUI.ashx这个请求,获取一个详情的URL

重点来了

截图四.png

调用/ajax/JSJG.CollectionLoad.WebUI.InfoTable,JSJG.CollectionLoad.WebUI.ashx会用到Payload参数
下面是获取RelatingID的代码

                referer='http://host/'+tr.find('a')['onclick'].split('(\'')[1].split('\'')[0]
                ItemID =referer.split('ItemID=')[1].split('&')[0]
                ItemType ='01'
                url = 'http://host/ajax/JSJG.CollectionLoad.WebUI.InfoTable,JSJG.CollectionLoad.WebUI.ashx?_method=OpenUrl&_session=no'
                payload = 'itemtype={}\r\nitemid={}\r\ntable=011'.format(ItemType, ItemID)
                headers = {
                          'Referer':str(referer),
                          'Host':'host',
                          'Content-Type':'text/plain;charset=UTF-8',
                          'Origin':'http://host',
                          'Accept':'*/*',
                          'Accept-Encoding':'gzip, deflate',
                          'Accept-Language':'zh-CN,zh;q=0.9',
                          'Connection': 'keep-alive',
                          'Content-Length': '67',
                          'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.18 Safari/537.36', }
                res = requests.post(url, headers=headers, data=payload)
                RelatingID = re.search("RelatingID=(.*?)'", res.text).group(1)

特别提示要注意payload传参方式
到这里就获取到了RelatingID,然后拼接一下URL,解析保存然后任务就完成啦!
但是程序跑完我发现保存的数据大概只有六页
因为我用到了两次headers,第一个headers在所有方法的最前面,第二个headers是在一个方法里面

headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.18 Safari/537.36'}
  self.headers['Referer'] = referer
  self.headers['Host'] = 'host'
  self.headers['Content-Type'] = 'text/plain;charset=UTF-8'
  self.headers['Origin'] = 'http://host'
  self.headers['Accept'] = '*/*'
  self.headers['Accept-Encoding'] = 'gzip, deflate'
  self.headers['Accept-Language'] = 'zh-CN,zh;q=0.9'
  self.headers['Connection'] = 'keep-alive'
  self.headers['Content-Length'] = '67'

我掉进的坑是这俩重名但是在方法内部使用了self来调用,这就导致它请求的时候会认为我是调用的全局headers而不是方法内部的headers
解决完重跑可以得到全部5k+的数据了,开心

最后感谢我的小伙伴给与我的帮助

未完待续。。。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,451评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,172评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,782评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,709评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,733评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,578评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,320评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,241评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,686评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,878评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,992评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,715评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,336评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,912评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,040评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,173评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,947评论 2 355

推荐阅读更多精彩内容