最近想备份网站,但是php下载文件的大小是限制的,而我也懒得装ftp再下载了,就想着暂时弄个二级域名站,然后用python(python3)的requests库直接下载网站根目录下的所有文件以及文件夹,以达到备份的目的。

1.安装requests库

pip install requests

2.下载文件夹下所有文件及文件夹

这里需要处理的地方主要是文件夹,这里我们判断出该链接是文件夹时,自动创建文件夹,并递归继续进行操作,否则判断该链接是文件,直接使用requests get方法下载,话不多说,看代码

import requests
import re
import os
import sys
def help(script):
	text = 'python3 %s 	https://www.bobobk.com ./' % script

	print(text)
def get_file(url,path):##文件下载函数
    content = requests.get(url)
    print("write %s in %s" % (url,path))
    filew = open(path+url.split("/")[-1],'wb')
    for chunk in content.iter_content(chunk_size=512 * 1024): 
        if chunk: # filter out keep-alive new chunks
            filew.write(chunk)
    filew.close()
def get_dir(url,path): #文件夹处理逻辑
    content = requests.get(url).text
    if "<title>Index of" in content:
        sub_url = re.findall('href="(.*?)"',content)
    
        print(sub_url)
        for i in sub_url:
            if "/" in i:
            
                i = i.split("/")[0]
                print(i)
                if i!="." and i!="..":
                    if not os.direxists(path+i):
                        os.mkdir(path+i)
                    
                    get_dir(url+"/"+i,path+i+"/")
                    print("url:"+url+"/"+i+"\nurl_path:"+path+i+"/")
            else:
                get_file(url+"/"+i,path)
    else:
        get_file(url,path)
if __name__ == '__main__':
	if len(sys.argv)<=1:
		help(sys.argv[0])
		exit(0)
	else:
		get_dir(sys.argv[1],"./")</code></pre>

至此,就在本地目录完全下载还原了原网站的路径和文件了。