python使用selenium控制浏览器进行爬虫
- 电脑硬件
- 2025-07-21 19:06:11

这里以谷歌浏览器为例,需要安装一下chromedriver,其他浏览器也有相对应的driver,chromedriver下载地址: googlechromelabs.github.io/chrome-for-testing/
然后是打开python环境安装一下依赖pip install selenium,验证一下控制浏览器是否成功
# -*- coding: utf-8 -*- from selenium import webdriver driverPath = r'D:\chromedriver-win64\chromedriver.exe' driver = webdriver.Chrome(executable_path=driverPath) url = 'http:// .baidu ' driver.get(url)点击运行脚本可以看到以下页面就成功了。
爬虫的话需要使用到以下相关函数:
driver.find_element_by_class_name("class") # 通过class属性值定位 driver.find_element_by_id("id") # 通过id值定位 driver.find_element_by_name("name") # 通过属性名称定位 driver.find_element_by_css_selector("selector") # 通过css选择器定位,格式是(‘标签名[属性名=”属性值”]’) driver.find_element_by_link_text("text") # 通过超链接文本定位 driver.find_element_by_tag_name("tag") # 通过标签定位 driver.find_element_by_xpath("path") # 通过xpath路径定位还有其他的输入操作send_keys和点击操作click()等等这些基本上满足浏览器的大部分操作需求
python使用selenium控制浏览器进行爬虫由讯客互联电脑硬件栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“python使用selenium控制浏览器进行爬虫”
下一篇
深度学习中的Dropout