selenium+requests实战酒仙网

一,结果


image.png

二,思路

三,上源码



from selenium import webdriver
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.common.by import By
import time
from bs4 import BeautifulSoup
import requests
import re
import pymysql



conn = pymysql.Connect(host='x',user='x',password='x',port=x,database='x',charset='x')
dataname = input('请输入数据库名称:')
cursor = conn.cursor()
sql = "CREATE TABLE IF NOT  EXISTS %s(ID INT(10) NOT NULL PRIMARY KEY AUTO_INCREMENT,TIME_DATA TIMESTAMP DEFAULT CURRENT_TIMESTAMP," \
      "A VARCHAR(255),B VARCHAR(255),Cc varchar(10),D VARCHAR(255),E VARCHAR(255), F VARCHAR(255),G VARCHAR(255))ENGINE=INNODB DEFAULT CHARSET=UTF8"
value = (dataname)
cursor.execute(sql%value)
print('创建成功!!')



url = 'http://www.jiuxian.com/'
browser = webdriver.Firefox()
browser.set_window_size(900,900)
timeout = WebDriverWait(browser,10)
browser.get(url)





time.sleep(3)

input_a =timeout.until(EC.presence_of_element_located((By.ID,'wd')))
#input_a = browser.find_element_by_id('wd')
print('一个a通过,下一步')
input_a.clear()
input_a.send_keys('白酒')
input_a.send_keys(Keys.ENTER)


# html_apage = browser.page_source
# soupa = BeautifulSoup(html_apage,'lxml')
# html_aprice = [html_aprice.get_text() for html_aprice in soupa.find_all('p',class_='price')]
# html_aid = [html_aid['proimgid'] for html_aid in soupa.find_all('img',attrs={'proimgid':re.compile('\d+')})]
# for aprice,aid in zip(html_aprice,html_aid):
#     print(aprice,aid)
#     aids = aid      #商品ID
#     aprices =aprice   #商品价钱

p = 346
p2 =1
while True:

    if p == 346:
        time.sleep(4)
        input_a = timeout.until(EC.presence_of_element_located((By.ID, 'wd')))
        print('正在跳转到葡萄酒')
        input_a.clear()
        input_a.send_keys('葡萄酒')
        input_a.send_keys(Keys.ENTER)
        time.sleep(3)


    for apage in range(0,10000,2500):
        browser.execute_script('window,scrollBy(0,{})'.format(apage))
        time.sleep(3)
        print(apage)
        if apage == 5000:
            break


    html_apage = browser.page_source
    soupa = BeautifulSoup(html_apage, 'lxml')
    html_aprice = [html_aprice.get_text() for html_aprice in soupa.find_all('p', class_='price')]
    html_aid = [html_aid['proimgid'] for html_aid in soupa.find_all('img', attrs={'proimgid': re.compile('\d+')})]
    for aprice, aid in zip(html_aprice, html_aid):
        print('\n\n价钱:%s\nID:%s'%(aprice, aid))
        a6 = ('\n\n价钱:%s\nID:%s'%(aprice, aid))

        print('正在进行requests请求!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!')
        url = 'http://www.jiuxian.com/goods-{}.html'.format(aid)
        # url1 = 'http://www.jiuxian.com/goods-16807.html'
        headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:57.0) Gecko/20100101 Firefox/57.0'
        }
        response_three = requests.post(url, headers=headers)
        if response_three.status_code == 200:
            # print(response_three.text)
            html = response_three.text
            soup = BeautifulSoup(html, 'lxml')
            items = soup.find_all('ul', class_='intrList clearfix')


            response_three = requests.post(url, headers=headers)
            if response_three.status_code == 200:
                # print(response_three.text)
                html = response_three.text
                soup = BeautifulSoup(html, 'lxml')
                items = soup.find_all('ul', class_='intrList clearfix')
                for li in items:

                    # a3原配料
                    try:

                        a3 = [a3.get_text() for a3 in li.find_all('ul',class_='intrList clearfix')]
                    except:
                        pass


                    try:
                        a1 = [li.get_text() for li in li.find_all('li')[3:4]][0]
                        # print([li.get_text() for li in li.find_all('li')[3:4]][0])  # 1.酒厂名称
                    except:
                        pass
                    try:
                        a6 = [li.get_text() for li in li.find_all('li')[4:5]][0]
                        # print([li.get_text() for li in li.find_all('li')[4:5]][0])  # 2.容量
                    except:
                        pass

                itema = soup.find_all('div', class_='comName')
                for h in itema:
                    nameitem = h.get_text().replace('\n', '')

                    a2 = nameitem  # !酒名称

                    try:
                        a55 = re.findall('\d+ml|\d+mL', nameitem)  # !容量
                        a5 = ''.join(list(a55))
                    except:
                        pass
                    try:
                        a44 = re.findall('(\d+.){1}\W', nameitem)  # 度数
                        a4 = ''.join(list(a44))

                    except:
                        pass
                    try:
                        aa = ('名称:{}\n容量:{}\n酒精度:{}度,{}{}{}'.format(a1, a2, a3, a4, a5, a6))
                        print('名称:{}\n容量:{}\n酒精度:{}度,{}{}{}'.format(a1, a2, a3,a4,a5,a6))
                    except:
                        pass
                    try:
                        sql = "INSERT INTO %s(A,B,Cc,D,E,F)VALUES('1.酒厂名称:%s','2.酒名:%s','3.原配料:%s','4.度数:%s','5.容量:%s','6.%s')"
                        value_sql2 = (dataname, a1, a2, a3, a4, a5, a6)
                        cursor.execute(sql % value_sql2)

                        print('sql1')
                    except:
                        sql = "INSERT INTO %s(A,B,D,E,F)VALUES('1.酒厂名称:%s','2.酒名:%s','4.度数:%s','5.容量:%s','6.%s')"
                        value_sql2 = (dataname, a1, a2, a4, a5, a6)
                        cursor.execute(sql % value_sql2)

                        print('sql2')
                    finally:
                        conn.commit()
                        print('导入成功!')



    if p2 == p2:
        p2 +=1
        next_element = timeout.until(EC.presence_of_element_located((By.LINK_TEXT, '{}'.format(p2))))
        next_element.click()
        print('下一页')
        print('葡萄酒第%s页' % p2)


    if p == p:
        p +=1
        next_element = timeout.until(EC.presence_of_element_located((By.LINK_TEXT, '{}'.format(p))))
        next_element.click()
        print('下一页')
        print('白酒第%s页'%p)




        #     nextpage = browser.find_element_by_xpath('//*[@class="clearfix"]/*/*/a[@class="nextpage"]')
        #     nextpage.click()


    # time.sleep(20)
    # browser.quit()
    # print('关闭浏览器')




©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,490评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,581评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,830评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,957评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,974评论 6 393
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,754评论 1 307
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,464评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,357评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,847评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,995评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,137评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,819评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,482评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,023评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,149评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,409评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,086评论 2 355

推荐阅读更多精彩内容