上千元的Python爬虫外包案例,学会你就赚了

Posted python0921

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了上千元的Python爬虫外包案例,学会你就赚了相关的知识,希望对你有一定的参考价值。

技术图片

 

 

前言

随着互联网时代的到来,人们更加倾向于互联网购物。某宝又是电商行业的巨头,在某宝平台中有很多商家数据。

今天带大家使用python+selenium工具获取这些公开的

适合人群:

Python零基础、对爬虫数据采集感兴趣的同学!

环境介绍:

python 3.6
pycharm
selenium
time

1、安装selenium模块

pip install selenium

 

2、请求网页地址

if __name__ == __main__:
    keyword = input(请输入你要查询的商品数据:)
    driver = webdriver.Chrome()
    driver.get(https://www.taobao.com)
    main()

 

 

技术图片

 

3、登录淘宝账户,并搜索商品

def search_product(key):
    """模拟搜索商品,获取最大页数"""
    driver.find_element_by_id(q).send_keys(key)  # 根据id值找到搜索框输入关键字
    driver.find_element_by_class_name(btn-search).click()  # 点击搜索案例
    driver.maximize_window()  # 最大化窗口
    time.sleep(15)

 page = driver.find_element_by_xpath(//*[@id="mainsrp-pager"]/div/div/div/div[1])  # 获取页数的标签
    page = page.text  # 提取标签的文字
    page = re.findall((d+), page)[0]  
    # print(page)
    return int(page)

 

 

技术图片

 

 

4、获取商品数据

def get_product():
    divs = driver.find_elements_by_xpath(//div[@class="items"]/div[@class="item J_MouserOnverReq  "])
    for div in divs:
        info = div.find_element_by_xpath(.//div[@class="row row-2 title"]/a).text  # 商品名称
        price = div.find_element_by_xpath(.//strong).text +   # 商品价格
        deal = div.find_element_by_xpath(.//div[@class="deal-cnt"]).text  # 付款人数
        name = div.find_element_by_xpath(.//div[@class="shop"]/a).text  # 店铺名称
        print(info, price, deal, name, sep=|)
        with open(data.csv, a, newline=‘‘) as csvfile:  # newline=‘‘  指定一行一行写入
            csvwriter = csv.writer(csvfile, delimiter=,)  # delimiter=‘,‘  csv数据的分隔符
            csvwriter.writerow([info, price, deal, name])  # 序列化数据,写入csv
            
def main():
    search_product(keyword)
    page = get_product()

 

 

技术图片

 

技术图片

 

如果你处于想学Python或者正在学习Python,Python的教程不少了吧,但是是最新的吗?说不定你学了可能是两年前人家就学过的内容,在这小编分享一波2020最新的Python教程。获取方式,私信小编 “ 资料 ”,即可免费获取哦!

以上是关于上千元的Python爬虫外包案例,学会你就赚了的主要内容,如果未能解决你的问题,请参考以下文章

程序员用Python爬虫做副业半个月就赚了3W

ssh-你懂你就赚了

❤️‍Kettle--老板说:这套生产数据库千万亿级数据量迁移方案,学会就赚了❤️‍(工作学习必备,建议收藏)

24. CSS偏移反爬见过没,打开本文你就能学会 | 爬虫训练场

24. CSS偏移反爬见过没,打开本文你就能学会 | 爬虫训练场

不入Python爬虫陷阱:如何在4个月学会爬取大规模数据