网络爬虫|接口测试|另一种技术:使用 shell 命令获取资源

Posted 软件测试资源站

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了网络爬虫|接口测试|另一种技术:使用 shell 命令获取资源相关的知识,希望对你有一定的参考价值。

概述

之前接口测试的时候,经常遇到从response中截取数据的情况,处理起来可能也相对简单一点。今天换个玩法,用shell命令获取头条个人主页文章。

命令如下:

$ curl https://www.toutiao.com/u/840c2172e2e3 |grep 'title' | awk -F '>' '{print $2}' | grep -v -e '</div' -e '</title' |awk -F '<' '{print $1}' 接口测试框架优化(三)---支持简单串接口使用charles筛选、修改请求与响应linux下mysql常用操作(学习笔记)随便写写最近的面试一些linux命令学习(二)--grep命令一些linux命令学习(一)windows下appium1.6排坑及安装基于python+appium+yaml安卓UI自动化测试分享接口测试框架优化(二)---主要代码

网络爬虫|接口测试|另一种技术:使用 shell 命令获取资源

详述

实现这个目标,需要懂一些基础的命令

  • curl

  • grep

  • awk

curl命令学习

curl命令是一个利用URL规则在命令行下工作的文件传输工具。它支持文件的上传和下载,所以是综合传输工具,但按传统,习惯称curl为下载工具。

目前我只get到了使用curl命令发送请求,暂时没有用来上传下载文件,所以不多做介绍。

输入 curl -h,可以看到使用帮助

$ curl -hUsage: curl [options...] <url> --abstract-unix-socket <path> Connect via abstract Unix domain socket --anyauth Pick any authentication method-a, --append Append to target file when uploading --basic Use HTTP Basic Authentication --cacert <file> CA certificate to verify peer against --capath <dir> CA directory to verify peer against-E, --cert <certificate[:password]> Client certificate file and password --cert-status Verify the status of the server certificate --cert-type <type> Certificate file type (DER/PEM/ENG) --ciphers <list of ciphers> SSL ciphers to use --compressed Request compressed response --compressed-ssh Enable SSH compression...

就我自己实际操作的几个介绍一下:

1.获取页面内容

curl https://www.toutiao.com/

不加任何选项使用 curl 时,默认会发送 GET 请求来获取链接内容

2.发送POST请求

curl -H "Content-Type: application/json" -X POST-d '{"uid": "10588666", "device_code": "", "count": 8, "op": 1, "page": 1, "content_type": [1,2,3,4], "skip_freq": 0, "exclude_docs": [], "is_wifi": 0, "is_videopage": 0, "region": 111, "register_timestamp":1519642955, "tk": "ACAWILmsfP5FV7JqM6knRK66w8j9Rqr0Aqk0NzUxNDk1MDg5NTIyNQ", "client_version":20826, "group":"exp_test_member00"}' http://localhost:2051/recommend

这边用到了3个参数

  • H 定义请求头 header

  • X 指定请求方式

  • d 指定发送的数据

3.显示响应头

curl -I https://www.toutiao.com/u/840c2172e2e3

加了-I 参数,仅显示response header,结果如下

$ curl -I https://www.toutiao.com/u/840c2172e2e3 % Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 0 0 0 0 0 0 0 0 --:--:-- --:--:-- --:--:-- 0HTTP/1.1 200 OKDate: Mon, 14 May 2018 13:05:15 GMTServer: TengineContent-Type: text/html; charset=utf-8X-Frame-Options: DENYX-XSS-Protection: 1; mode=blockX-Content-Type-Options: nosniffETag: W/"600753ffd703a50bfb60aca2580cddb0"Cache-Control: max-age=0, private, must-revalidateSet-Cookie: locale=zh-CN; path=/Set-Cookie: _m7e_session=406d79c64df9441d376f82b2; path=/; expires=Mon, 14 May 2018 19:05:15 -0000; secure; HttpOnlyX-Request-Id: 9813d0cf-a68e-492f-8d04-580b8e149af6X-Runtime: 0.129613Strict-Transport-Security: max-age=31536000; includeSubDomains; preloadX-Via: 1.1 PSfjqzdx7yx12:4 (Cdn Cache Server V2.0), 1.1 xinxiazai13:1 (Cdn Cache Server V2.0)Connection: keep-aliveX-Dscp-Value: 0

4.保存响应的内容

curl -o D:jianshu.html https://www.toutiao.com/u/840c2172e2e3

执行此命令,会在D盘根目录生成一个toutiao.html文件,如图:

网络爬虫|接口测试|另一种技术:使用 shell 命令获取资源

curl命令还有其他用法,我这边由于暂时没有用到,所以没有进一步操作,感兴趣可以参考这篇文章学习一下

grep命令学习

关于grep命令,我上次学习了一次,这边就不多说了,可以参照我之前的学习笔记。

shell命令获取文章标题中用到grep的可能就是 -v -e 两个命令,相对还是比较简单的。

awk命令学习

awk我也是get到一点皮毛,没有很深入研究。大致工作流如下:

-F 分隔符划分域,,$0则表示所有域,$1表示第一个域,$n表示第n个域。默认域分隔符是"空白键" 或 "[tab]键".

举个例子:

D盘下新建一个文件,awk.txt。

执行命令:

$ nl awk.txt 1 root 1 name:001 2 cha 2 naaa:002 3 dong 3 nacc:003 4 fead 4 naic:004

如果只要显示行号

$ nl awk.txt |awk '{print $1}'1234

如果要显示:后面的内容

$ nl awk.txt |awk -F':' '{print $2}'001002003004

结束

使用shell获取头条主页文章,写法肯定不止这一种方法

$ curl https://www.toutiao.com/u/840c2172e2e3 |grep 'title' | awk -F '>' '{print $2}' | grep -v -e '</div' -e '</title' |awk -F '<' '{print $1}'

但是大致上思路是固定的:

  • 将结果用grep 筛选出需要的,排除不需要的

  • 再用awk分割选择自己需要的域即可。

期待后面,开发出更多关于shell的玩法。。。


程序爬虫抓取有用资源共享给大家

关注后,私信回复【资料包】获取如下内容,

测试资料、工具安装、Python、效率软件、自动化测试报告、梯子、微信群、测试框架 等


另外

「微软小冰」机器人,欢迎调戏。


回复「小冰」

或其它任意关键词即可


同时你们获取资料的方式更加智能,

回复你想要的任意资料名称

小冰都会给你找出来。

 

      另外再       

通知一件事

头条号内容注重分享互联网爬虫获取的各种资源。

头条号请点击「阅读原文」直达。


END

以上是关于网络爬虫|接口测试|另一种技术:使用 shell 命令获取资源的主要内容,如果未能解决你的问题,请参考以下文章

接口测试的另一种方式 – 接口测试平台

接口测试的另一种方式 – 接口测试平台

Python为啥叫爬虫?

网络爬虫与HTTP协议

什么是网络爬虫技术?

接口测试注意的点