今天這個小爬蟲比昨天復(fù)雜一些,是實現(xiàn)網(wǎng)站圖片下載。網(wǎng)站如下:

下載主頁照片:

當(dāng)然,只是單純實現(xiàn)了功能,沒有翻頁。

最終的效果如圖所示:是按照數(shù)字編號進行的命名,60張,大概1-2秒的時間,就全部下載好了。



好了接下來,看看實現(xiàn)的方法,需要注意的是,這個count 一定要提前設(shè)置好,否則每張圖片將是一樣的,或者數(shù)字1 的圖片會循環(huán)替換。真的是很奇妙??!


#請求過程 import?requests from bs4 import BeautifulSoup url = "" headers = {"User-Agent": "Mozilla (Macintosh; Intel Mac OS X 10_14_6) AppleWebKi (KHTML, like Gecko) Chrome Safari;} res = reque(url,headers=headers) html = res.text soup = BeautifulSoup(html,"lxml") content_all = (class_="item") #爬取過程 count?=?1 for content in content_all: imgContent = con(name="img") imgUrl = imgCon["data-src"] imgfinal = ""+imgUrl ????response?=reque(imgfinal) ????img?=?re ???? #保存文件過程 with open(f"{count}.jpg","wb") as f: ????????f.write(img) ????count?=?count?+1?


整個過程用到的重要知識點:提取鏈接的url,.attrs["src"], 通過url獲取圖片的內(nèi)容,然后就是保存了。

1.《一鍵下載網(wǎng)站60張圖片,2秒完畢》援引自互聯(lián)網(wǎng),旨在傳遞更多網(wǎng)絡(luò)信息知識,僅代表作者本人觀點,與本網(wǎng)站無關(guān),侵刪請聯(lián)系頁腳下方聯(lián)系方式。

2.《一鍵下載網(wǎng)站60張圖片,2秒完畢》僅供讀者參考,本網(wǎng)站未對該內(nèi)容進行證實,對其原創(chuàng)性、真實性、完整性、及時性不作任何保證。

3.文章轉(zhuǎn)載時請保留本站內(nèi)容來源地址,http://f99ss.com/gl/2978859.html