今天這個小爬蟲比昨天復(fù)雜一些,是實現(xiàn)網(wǎng)站圖片下載。網(wǎng)站如下:
下載主頁照片:
當(dāng)然,只是單純實現(xiàn)了功能,沒有翻頁。
最終的效果如圖所示:是按照數(shù)字編號進行的命名,60張,大概1-2秒的時間,就全部下載好了。
好了接下來,看看實現(xiàn)的方法,需要注意的是,這個count 一定要提前設(shè)置好,否則每張圖片將是一樣的,或者數(shù)字1 的圖片會循環(huán)替換。真的是很奇妙??!
#請求過程
import?requests
from bs4 import BeautifulSoup
url = ""
headers = {"User-Agent": "Mozilla (Macintosh; Intel Mac OS X 10_14_6) AppleWebKi (KHTML, like Gecko) Chrome Safari;}
res = reque(url,headers=headers)
html = res.text
soup = BeautifulSoup(html,"lxml")
content_all = (class_="item")
#爬取過程
count?=?1
for content in content_all:
imgContent = con(name="img")
imgUrl = imgCon["data-src"]
imgfinal = ""+imgUrl
????response?=reque(imgfinal)
????img?=?re
????
#保存文件過程
with open(f"{count}.jpg","wb") as f:
????????f.write(img)
????count?=?count?+1?
整個過程用到的重要知識點:提取鏈接的url,.attrs["src"], 通過url獲取圖片的內(nèi)容,然后就是保存了。
1.《一鍵下載網(wǎng)站60張圖片,2秒完畢》援引自互聯(lián)網(wǎng),旨在傳遞更多網(wǎng)絡(luò)信息知識,僅代表作者本人觀點,與本網(wǎng)站無關(guān),侵刪請聯(lián)系頁腳下方聯(lián)系方式。
2.《一鍵下載網(wǎng)站60張圖片,2秒完畢》僅供讀者參考,本網(wǎng)站未對該內(nèi)容進行證實,對其原創(chuàng)性、真實性、完整性、及時性不作任何保證。
3.文章轉(zhuǎn)載時請保留本站內(nèi)容來源地址,http://f99ss.com/gl/2978859.html