主页 > 电脑硬件  > 

python使用selenium控制浏览器进行爬虫

python使用selenium控制浏览器进行爬虫

这里以谷歌浏览器为例,需要安装一下chromedriver,其他浏览器也有相对应的driver,chromedriver下载地址: googlechromelabs.github.io/chrome-for-testing/

然后是打开python环境安装一下依赖pip install selenium,验证一下控制浏览器是否成功

# -*- coding: utf-8 -*- from selenium import webdriver driverPath = r'D:\chromedriver-win64\chromedriver.exe' driver = webdriver.Chrome(executable_path=driverPath) url = 'http:// .baidu ' driver.get(url)

点击运行脚本可以看到以下页面就成功了。

爬虫的话需要使用到以下相关函数:

driver.find_element_by_class_name("class") # 通过class属性值定位 driver.find_element_by_id("id") # 通过id值定位 driver.find_element_by_name("name") # 通过属性名称定位 driver.find_element_by_css_selector("selector") # 通过css选择器定位,格式是(‘标签名[属性名=”属性值”]’) driver.find_element_by_link_text("text") # 通过超链接文本定位 driver.find_element_by_tag_name("tag") # 通过标签定位 driver.find_element_by_xpath("path") # 通过xpath路径定位

还有其他的输入操作send_keys和点击操作click()等等这些基本上满足浏览器的大部分操作需求

标签:

python使用selenium控制浏览器进行爬虫由讯客互联电脑硬件栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“python使用selenium控制浏览器进行爬虫