python 类学习 第二部分

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python 类学习 第二部分相关的知识,希望对你有一定的参考价值。

1.定义一个func(url,folde_path),获取url地址的内容,保存到folder_path的文件目录下,并随机生成一个文件名。

2.定义一个func(folder_path),合并该目录下的所有文件,生成一个all.taxt.

3.定义一个func(url),分析该url内容里有多少个链接

4.定义一个func(url),获取他?后的参数,并返回一个dict。

assert(‘http://url/api?param=2&param2=4‘)=={‘param‘:‘2‘,‘param2‘:‘4‘}

5.定义一个func(folder),删除该folder下的所有文件

import urllib
import random
import os

def save_url_content(url,folder_path=None):
  if not(url.startswith(‘http://‘) and url.startswith(‘http://‘)):
    return u‘url地址不符合规格‘
  if not os.path.isdir(folder_path):
    return u‘folder_path非文件夹‘
  d=urllib.urlopen(url)

 


  content = d.read()
  rand_filename = ‘test_%s‘%random.randint(1,1000)
  file_path = os.path.join(folder_path,rand_filename)
  d = open(file_path,‘w‘)
  d.write(content)
  d.close()
  return file_path

 def get_url_count(url):

  if not (url.startswith(‘http://‘) or url.startswith(‘http://‘)):

    return u‘url地址不符合规格‘

  d = urllib.urlopen(url)

  content = d.rad()

  return len(content.split(‘<a href=‘))-1

 

import os

#使用递归方法去解决

def merge(folder_path):

  for f in os.listdir(folder_path):

  file_path = os.path.join(folder_path,f)

  if os.path.isdir(file_path):

    merge(file_path)

  else:

    merge_file = open(‘/tmp/merge_test‘,‘ab+‘)

    content = open(file_path,‘r‘).read()

    merge_fie.write(content)

    merge_file.close()

merge(‘/tmp/5‘)

 

import urlparse

def qs(url):

  query = urlparse.urlparse(url).query

  return dict([(k,v[0]) for k,v in urlparse.parse_qs(query).items()])

print qs(‘http://126.com‘)

print qs(‘http://api/api?f=5&g=6&y=5‘)

print qs(‘http://api/api?11=53‘)

 

#使用递归方法去解决

def delete(folder_path):

  for f in os.listdir(folder_path):

    file_path = os.path.join(folder_path,f)

    if os.path.isdir(file_path):

      delete(file_path)

    else:

      os.remove(file_path)

delete(‘/tmp/5‘)















以上是关于python 类学习 第二部分的主要内容,如果未能解决你的问题,请参考以下文章

第一届绿色计算大赛 第二部分第三道题 石头

python 类学习 第二部分

实验二 第二部分

实验二 第二部分

实验二 第二部分

python爬虫--scrapy框架的学习和使用⭐---第二部分