从医药电商的发展看一代人购药习惯的改变--Pyspider爬虫篇

Posted zone7

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了从医药电商的发展看一代人购药习惯的改变--Pyspider爬虫篇相关的知识,希望对你有一定的参考价值。

编辑:zone

来源:InThirty

简介:不务正业的智慧医疗产品经理一枚

源码:见评论区


目录

  • 背景介绍

  • 目标分析

  • 准备工作

  • 爬虫分析

  • 爬虫小结


正文共6409字8图,预计阅读时间17分钟


背景介绍


工作关系,一直有在关注国内医药电商行业。

2018年9月,孵化自原1号店医药电商版块的1药店母公司在美国纳斯达克交易所挂牌上市,也将国内医药B2C电商这个概念再次推到了大众面前。本篇文章也是希望通过1药网这个国内医药电商巨头入手,以微知著,通过数据来看看医药电商是否逐渐在改变这一代人的购药习惯。


目标分析


所谓知己知彼,百战不殆,在爬虫工作开始之前,首先需要对我们的目标有个比较深入的了解,这能够极大地提升后面的工作效率,起到事半功倍的作用。


  • 商品列表

1药网首页跟普通的B2C交易网站大同小异,从首页的分类上我们能够看出平台商品的大致分类情况,商品这块数据的抓取,也将会从分类入手。



点击进入category页面之后,网站将所有一、二、三级分类全部展示出来了,而三级之后即对应具体的商品列表,所以商品数据的获取思路也就不言而喻了


从医药电商的发展看一代人购药习惯的改变(一)--Pyspider爬虫篇


  • 商品详情

医药电商的商品详情还是有别于普通电商的,主要在于标准药品信息、药品说明书这两块,整个商品详情分四个部分:


  • 商品信息

包含商品分类、图片、名称、商家、等等商品基本信息


从医药电商的发展看一代人购药习惯的改变(一)--Pyspider爬虫篇


  • 药品信息

包含批准文号、药品类型、规格等药品基本信息


从医药电商的发展看一代人购药习惯的改变(一)--Pyspider爬虫篇


  • 药品说明书

这块是药品的特殊信息,非药商品的话没有这一部分,具体分析见代码分析部分


从医药电商的发展看一代人购药习惯的改变(一)--Pyspider爬虫篇


  • 商品评价

由于从商品数据上没法看出一个商品的销售数据,所以只能另辟蹊径,通过评论数据来分析


从医药电商的发展看一代人购药习惯的改变(一)--Pyspider爬虫篇


准备工作


  • 项目环境

Python3.7+macOS+Mongodb

数据存储方面的话选择的是Mongodb,因为本身我也不是开发人员,所以用什麽考虑自身顺手比较重要


  • 爬虫框架

Pyspider+PhantomJS

1药网的商品数据部分是通过JS动态加载的,所以这里选用Pyspider这个爬虫框架,结合PhantomJS对付它绰绰有余


Requests+BeautifulSoup

原先评论数据也一起写了,但是跑起来之后发现一条商品对应的评论数会很多,对整体的效率影响很大,所以就单独出来另外爬


  • 其它库

pymongo

Python下的Mongodb驱动


re

用于正则匹配


爬虫分析


  • Pyspider介绍

安装相关的这里就不再细讲了,需要注意的一点是PhantomJS安装之后一定要配置好环境变量,win和mac的配置方式也不同,具体各位可以自行查阅相关文档。

全部安装完成之后,直接敲pyspider命令即可全模式启动,这个时候如果PhantomJS环境变量配置没问题的话,PhantomJS会一同启动。


从医药电商的发展看一代人购药习惯的改变(一)--Pyspider爬虫篇


没报错的话,浏览器输入127.0.0.1:5000即可访问pyspider控制台,页面如下图


从医药电商的发展看一代人购药习惯的改变(一)--Pyspider爬虫篇


点击Create,输入项目名称以及目标URL,即可创建一个新的爬虫项目,默认代码如下


#!/usr/bin/env python
# -*- encoding: utf-8 -*-
# Created on 2019-02-13 18:07:19
# Project: 222

from pyspider.libs.base_handler import *

class Handler(BaseHandler):
   crawl_config = {
   }

   @every(minutes=24 * 60)
   def on_start(self):
       self.crawl('http://test.com', callback=self.index_page)

   @config(age=10 * 24 * 60 * 60)
   def index_page(self, response):
       for each in response.doc('a[href^="http"]').items():
           self.crawl(each.attr.href, callback=self.detail_page)

   @config(priority=2)
   def detail_page(self, response):
       return {
           "url": response.url,
           "title": response.doc('title').text(),
       }


以上代码就是官网的Quickstart实例,我就直接翻译文档解释一下

  • def on_start(self) 是脚本的入口. 当点击 run 按钮的时候,它将被调用。

  • self.crawl(url, callback=self.index_page)* 是这里最重要的API. 它将会添加一个爬虫任务到待爬列表. 大多数配置信息通过 self.crawl 的参数来指定。

  • def index_page(self, response) 获得一个 Response* 对象. response.doc* 是一个pyquery对象(可以通过类似jQuery的API去提取元素)。

  • def detail_page(self, response) 返回一个字典对象作为结果。结果默认会被捕获进自带的resultdb,你可以通过  on_result(self, result) 方法去管理。


  • 商品部分代码分析

爬虫入口(on_start)

从网站的分类页面入手,获取到的response传给categories_page这个方法,

validate_cert=False

关闭证书验证

fetch_type='js'

动态加载


def on_start(self):
       self.crawl('https://www.111.com.cn/categories/', callback=self.categories_page, validate_cert=False, fetch_type='js')


分类URL获取

通过css选择器选取各三级分类的URL信息,再将URL传给下一个方法处理

def categories_page(self, response):
       for each in response.doc('.allsort em > a').items():
           self.crawl(each.attr.href, callback=self.cagetory_list_page, validate_cert=False, fetch_type='js')


商品URL获取

由于商品列表是分页的,在获取商品URL的时候还需要处理分页,所以该方法中next即获取下一页的URL,并传给自身方法再次获取下一些的商品URL,直到没有下一页为止


def cagetory_list_page(self, response):
       for each in response.doc('#itemSearchList a[target="_blank"][class="product_pic pro_img"]').items():
           self.crawl(each.attr.href, callback=self.detail_page, validate_cert=False, fetch_type='js')
       next = response.doc('#search_table > div.turnPageBottom > a.page_next').attr.href
       self.crawl(next, callback=self.cagetory_list_page, validate_cert=False, fetch_type='js')


商品详情获取

篇幅问题,抽主要代码做思路分析,具体代码见Github。

首先通过css选择器获取详情页上的商品信息,其中关于药品说明书那一块,由于非药商品是没有的,而且有的话,字段也不一致,所以先通过标签判断是否存在,存在的话,再依次按照元素存到字典中

最后通过insert方法将整个商品信息字典插入到数据库


def detail_page(self, response):
       goods_id = response.doc('#gallery_view > ul > li.item_number').text()
       total_comments = response.doc('#fristReviewCount > span > a').text()
       instructions = {}
       if response.doc('#prodDetailCotentDiv > table > tbody > tr:nth-child(1) > th').text():
           for i in range(3,22):
               instructions_key = response.doc('#prodDetailCotentDiv > table > tbody > tr:nth-child({}) > th'.format(i)).text().split(" ")[0]
               instructions_value = response.doc('#prodDetailCotentDiv > table > tbody > tr:nth-child({}) > td'.format(i)).text()
               instructions[instructions_key] = instructions_value
       url_id = re.findall('\d+',response.url)[1]  
       goods_data = {
           'url_id': url_id,
           'goods_id': goods_id,
           'instructions': instructions,
       }
       self.insert_goods(goods_data)


数据插入


def __init__(self):
       self.client = MongoClient('mongodb://localhost:27017')
       self.drug = self.client.drug
       
   def insert_goods(self,data):
       collection = self.drug['goods']
       collection.update({'goods_id':data['goods_id']},data,True)



  • 评论部分代码分析


后面查看源码找到了商品评论部分的api,只有商品id和页码两个参数,于是就单独写了一个脚本专门爬评论,不过由于需要商品id,所以这部分工作需要上半部分完成之后才能进行


数据处理

由于爬虫的时候没有对数据进行清洗,所以先通过这个方法对一些字符处理一下


def dbmodify(self):
       for data in self.collection.find({},{"goods_id":1,"goods_price":1}):
           try:
               _id = data['_id']
               id = data['goods_id'].split(":")[1]
               price = data['goods_price'].split("¥")[1]
               self.collection.update({'_id': _id},{'$set':{'goods_id':id,'goods_price':price}})
               print(_id, id, price)
           except IndexError:
               pass


获取商品ID

从数据库中取出没有被采集过评论的商品id(这里我特地设置了一个字段,用于断点续爬)


goods_list = []
for data in self.collection.find({'commspider': False}, {"url_id"}):
   id = data['url_id']
   goods_list.append(id)


获取商品评论信息

首先判断商品是否有品论信息,有的话再获取评论总页数,传给另外一个方法再去分页采集评论详情,并且将数据库中标记字段改为已采集


def getBaseArgument(self,goods_id):
       base_url = 'https://www.111.com.cn/interfaces/review/list/html.action'
       data = {
           'goodsId': goods_id,
           'pageIndex': 1,
           'score': '1&_19020301'
       }
       try:
           self.collection.update_one({'url_id': goods_id}, {'$set': {'commspider': True}})
           requests.packages.urllib3.disable_warnings()
           requests.adapters.DEFAULT_RETRIES = 5
           # 设置连接活跃状态为False
           s = requests.session()
           s.keep_alive = False
           r = s.get(base_url, params=data, timeout = 5,verify=False)
           r.close()
           soup = BeautifulSoup(r.text, 'html.parser')
           if soup.find_all("div", class_="view_no_result"):
               return "No Comments!"
           else:
               total_page_text = soup.find_all(text=re.compile(r'共\d+页'))[0]
               pattern = re.compile(r'\d+')
               total_page = pattern.findall(total_page_text)
               return total_page[0]
       except requests.exceptions.RequestException as e:
           print(e)


分页采集评论详情


def getCommlist(self,goods_id, total_page):
       base_url = 'https://www.111.com.cn/interfaces/review/list/html.action'
       try:
           for i in range(1, int(total_page)):
               data = {
                   'goodsId': goods_id,
                   'pageIndex': i,
                   'score': '1&_19020301'
               }
               try:
                   requests.packages.urllib3.disable_warnings()
                   requests.adapters.DEFAULT_RETRIES = 15
                   # 设置连接活跃状态为False
                   s = requests.session()
                   s.keep_alive = False
                   r = s.get(base_url, params=data, timeout = 5,verify=False)
                   r.close()
                   soup = BeautifulSoup(r.text, 'html.parser')
                   for tr in soup.find_all("tr"):
                       comments = {}
                       try:
                           comments['goodsId'] = goods_id
                           comments['content'] = tr.find('p').text.strip()
                           comments['date'] = tr.find('p', attrs={'class': 'eval_date'}).text.strip()
                           self.comm_collection.insert_one(comments)
                       except:
                           print(goods_id + "Have some problem!\n")
                       print(comments)
               except requests.exceptions.RequestException as e:
                   print(e)
       except ValueError:
           return "No Comments! Try next!"


爬虫小结

  


如果您觉得本文不错,请帮忙点个好看


往期推荐:













以上是关于从医药电商的发展看一代人购药习惯的改变--Pyspider爬虫篇的主要内容,如果未能解决你的问题,请参考以下文章

医药电商平台解决方案

医药医疗行业S2B2C电商平台赋能企业把握差异化竞争优势,提升供应链效率

数商云医药医疗行业B2B平台:如何赋能企业数字化转型,破局传统医药通路难题

IPFS--下一代网络Web3.0的最佳“候选对象”

数商云B2B商城系统为医药行业线上签约提速赋能,加强企业业务协同管理

数商云B2B商城系统为医药行业线上签约提速赋能,加强企业业务协同管理