Python爬虫 爬取百度图片(使用selenium库web driver实现)

满是BUG的世界 2024-06-12 16:03:05 阅读 93

 闲着没事想写一个爬虫去爬取一下百度图片,但是通过连接访问发现返回的是 百度安全验证,然后发现selenium下的web driver可以直接调起浏览器访问网址,并且可以拿到网站内容,所以根据这个写了一个爬虫,代码可以在window上直接运行。

所需第三方库

import time#用于调起浏览器from selenium import webdriver# 用来解析网页内容from bs4 import BeautifulSoupimport os, requests,re

安装第三方库

可以考虑使用阿里云镜像加快安装速度,只需要把bs4换成对应的第三方库就可以。

pip install -i https://mirrors.aliyun.com/pypi/simple/ bs4

观察页面代码,查看自己需要爬去的标签格式

通过F12查看页面源代码可以发现,图片的标签是<img class="main_img img-hover" 标签下,我们需要拿到这个标签里的data-imgurl属性的内容。标题则是在<a class= "imgitem-title "标签下,我们需要title的内容拿来当标题

可以使用 bs4包里的 BeautifulSoup 用来解析网页拿到这两个标签获取我们想要的属性内容

#HTML解析器 b = BeautifulSoup(text, "html.parser") # 得到页面中所有 img标签并且class是main_img img-hover开头的图片列表 img = b.find_all("img", class_="main_img img-hover") # 得到页面中所有 a标签并且class是imgitem-title开头的图片标题列表 title = b.find_all("a", class_="imgitem-title")

直接上完整代码,可直接运行

我这里使用的是edge浏览器,如果想使用谷歌,可以把 webdriver.Edge() 换成 webdriver.Chrome();需要注意的是webdriver和浏览器的版本对应不上可能会调不起来。

import timefrom selenium import webdriverfrom bs4 import BeautifulSoupimport os, requests,re# 图片存储地址path = r"D:\pythonTest\photos"# 正则表达式 过滤并得到图片标题中所有的中文pattern = '[\u4e00-\u9fa5]+'def parseHtml(text): # 因为title标签有很多错误数据,所以记录一下下标 titleIndex = 0; #HTML解析器 b = BeautifulSoup(text, "html.parser") # 得到页面中所有 img标签并且class是main_img img-hover开头的图片列表 img = b.find_all("img", class_="main_img img-hover") # 得到页面中所有 a标签并且class是imgitem-title开头的图片标题列表 title = b.find_all("a", class_="imgitem-title") # 循环拿到的图片列表,解析标题下载图片 for index, value in enumerate(img): imageUrl = img[index]["data-imgurl"] imageName = "default" + str(index) # 一个循环用于拿到每个图片的正确标题 if len(title) > index: titleIndex = getImageTitle(title, titleIndex) imageName = "".join(re.findall(pattern, title[titleIndex].text)) if imageName == "": imageName = "default" + str(index) titleIndex += 1 imageName += ".jpg" print("准备下载第%s个图片,名字叫:%s 地址:%s" % (str(index+1), imageName, imageUrl)) savePhoto(imageUrl, imageName)# 页面里有很多class=imgitem-title的标签,图片的标题一般有title属性,根据title属性过滤标签def getImageTitle(title, index): if "title" in title[index].attrs: return index else: getImageTitle(title, index + 1) return index + 1# 保存照片def savePhoto(imageUrl, filename): p = os.path.join(path, filename) c = requests.get(imageUrl) createFile(path) with open(p, 'wb') as f: f.write(c.content) time.sleep(0.3) print("下载完了 休息0.3秒")# 创建本地文件def createFile(path): print("path:",path) file = os.path.exists(path) if not file: os.makedirs(path)# 滑动浏览器窗口,加载更多图片,滑动一次加载20多张图片# numer为想滑动的次数def slideBrowseWindow(driver, number): for i in range(number): time.sleep(0.1) driver.execute_script("window.scrollBy(0,{})".format(i * 1000)) time.sleep(0.3)if __name__ == "__main__": #这里的豪车可以改成自己想搜索的内容 searchName = "豪车" #这里使用的是edge浏览器,如果想使用谷歌浏览器,可以换成webdriver.Chrome() driver = webdriver.Edge() driver.get("https://image.baidu.com/search/index?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&st=-1&fm=result&fr=&sf=1&fmq=1709260324755_R&pv=&ic=&nc=1&z=&hd=&latest=&copyright=&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&dyTabStr=MCwxLDMsMiw4LDYsNCw1LDcsOQ%3D%3D&ie=utf-8&sid=&word="+ searchName +"&f=3&oq=%E7%BE%8E%E5%A5%B3&rsp=0") # 百度图片是下滑加载更多 slideBrowseWindow(driver, 10) # 获取页面的源代码 page_source = driver.page_source # 输出页面源代码 parseHtml(page_source) driver.quit() print("done.")



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。