`
m635674608
  • 浏览: 5043820 次
  • 性别: Icon_minigender_1
  • 来自: 南京
社区版块
存档分类
最新评论

selenium 设置cookis异常

 
阅读更多

问 org.openqa.selenium.WebDriverException: <unknown>: Failed to set the 'cookie' property on 'Document': Cookies are disabled inside 'data:' URLs. 这是什么错误?

   WebDriver webDriver = new ChromeDriver();
         webDriver.manage().timeouts().implicitlyWait(10, TimeUnit.SECONDS);
         String []cookieitem=cookies.split("; ");
         for(int i=0;i<cookieitem.length;i++)
         {
          String []cookiei=cookieitem[i].split("=");
          System.out.println(cookiei.length);
         Cookie cookie = new Cookie(cookiei[0], cookiei[1]);
          webDriver.manage().addCookie(cookie);   
         }
         webDriver.get(url);


Starting ChromeDriver (v2.9.248315) on port 14669
2
org.openqa.selenium.WebDriverException: <unknown>: Failed to set the 'cookie' property on 'Document': Cookies are disabled inside 'data:' URLs.
  (Session info: chrome=33.0.1750.154)
  (Driver info: chromedriver=2.9.248315,platform=Windows NT 6.1 SP1 x86_64) (WARNING: The server did not provide any stacktrace information)
Command duration or timeout: 281 milliseconds
Build info: version: '2.41.0', revision: '3192d8a', time: '2014-03-27 17:18:15'
System info: host: 'yanfa', ip: '192.168.0.16', os.name: 'Windows Vista', os.arch: 'x86', os.version: '6.1', java.version: '1.6.0_13'
Session ID: b26329cdb7d741c20b72bdb078eada4b
Driver info: org.openqa.selenium.chrome.ChromeDriver

 

 

你应该知道你请求的网站  返回的cookie的名字  然后通过名字 找到这个cookie  

1首先首次登陆的时候  服务端返回cookie,通过webriver对象可以拿到这个cookie:
Cookie e =webDriver.manage().getCookieNamed("cookie名字");

2.在此打开网站需要请求2次此网站 因为浏览器需要添加和请求的URL同一个域的cookie:

1.  webDriver.get(url);

2.  webDriver.manage().addCookie(e );

3. webDriver.get(url);            

分享到:
评论

相关推荐

    selenium跳过webdriver检测并模拟登录淘宝

    对于自动化测试工具如Selenium来说,许多网站都设置了相应的机制来检测是否是Selenium发起的请求。一旦被检测到,通常会被限制访问或直接禁止。淘宝作为中国最大的电商平台之一,其安全性极高,对自动化爬取数据的...

    selenium-python.pdf

    Selenium 提供了一些常见的异常类型,用于处理可能发生的错误: ```python try: element = driver.find_element_by_id("nonexistent") except NoSuchElementException: print("Element not found") ``` **7.2 ...

    python+selenium +Firefox 实现bilibili(B站)自动登陆

    此外,为了确保脚本的健壮性,我们需要处理可能出现的异常情况,如网络延迟、验证码错误等。 总的来说,这个Python脚本利用Selenium和Firefox实现了B站的自动登录功能。然而,由于B站可能会更新其网页结构或增加...

    Selenium Python Bindings 2017年 新版 原版

    Selenium 提供了一系列异常类型来处理常见的错误情况,如 `NoSuchElementException`、`ElementNotVisibleException` 等: ```python try: element = driver.find_element_by_id("nonexistent") except ...

    Selenium自动化爬虫(公版)1

    以上只是 Selenium 的基础介绍,实际上,Selenium 还包含更多高级功能,如等待策略、异常处理、模拟键盘鼠标事件、执行 JavaScript 代码等,是网页自动化领域不可或缺的工具。学习和掌握 Selenium,可以极大地提高...

    基于selenium的淘宝爬虫系统.zip

    9. **异常处理**:考虑到网络波动和淘宝的反爬策略,应设置合理的重试机制,遇到错误时能够自动恢复。 10. **多线程/多进程**:为了提高爬虫效率,可以使用多线程或多进程并发抓取不同商品的数据。 **注意事项** 1...

    RSelenium:Selenium远程WebDriver的R客户端

    此外,还可以通过`getCookies()`和`addCookie()`管理浏览器cookie,通过`capturePageScreenshot()`捕获页面截图。 在网页自动化任务中,RSelenium常用于数据抓取,例如从动态加载或交互式网站上获取信息。同时,它...

    通过selenium模拟浏览器来自动观看电竞比赛获取电竞典藏罐,.zip

    此外,保持会话可能需要使用`add_cookie`方法保存登录状态,或者利用`execute_script`执行JavaScript来设置session。 6. **自动播放与控制**:模拟观看电竞比赛的关键在于控制视频播放。这可能涉及找到播放按钮元素...

    51job数据采集爬虫 - 51Job网络爬虫源码

    因此,了解如何设置合理的请求头、使用随机User-Agent、管理Cookie,甚至使用IP代理池来避免被封禁,都是确保爬虫稳定运行的重要技巧。 **代码组织与模块化** 一个良好的爬虫项目应该具备清晰的代码结构,如使用...

    苏宁cookie获取软件,已过滑块,可以自行完善接码

    5. **错误处理**:考虑到网络状况和苏宁服务器的变化,要加入异常处理机制,确保程序的健壮性。 总的来说,"苏宁cookie获取软件,已过滑块"是一个结合了Python编程、网络爬虫技术、滑块验证模拟和网页解析的项目。...

    selenium+pytesseract自动识别验证码实现自动健康打卡

    由于学校的网站无法通过cookie直接登录,因此必须先识别并输入验证码。 以下是实现自动健康打卡的详细步骤: 1. 安装必要的库:首先确保已安装Selenium、Pytesseract和Pillow。如果使用默认源安装较慢,可以使用...

    Python期末大作业,基于selenium的51job网站爬虫与数据可视化分析.zip

    同时,要处理登录和cookie,确保爬虫能够访问到需要的页面。**requests**库可以辅助发送HTTP请求,**BeautifulSoup**则用于解析HTML文档,与selenium结合使用,可以实现更高效的数据抓取。 数据抓取后,接下来是**...

    auto-cookie-clicker:自动Cookie Clicker大声笑

    5. 错误处理:考虑到网络环境的不稳定性和可能的服务器响应问题,错误处理机制必不可少,如重试、异常捕获等。 6. 日志记录:为了方便调试和监控,程序可能会记录每次操作的细节,如请求的URL、响应的状态码、点击...

    Java.Source.Browser

    5. **Cookie管理**: 如果浏览器支持登录和其他会话管理,那么它需要处理Cookie。Java的HttpCookie类可以用来存储和管理这些信息。 6. **网络异常处理**: 网络请求可能会遇到各种问题,如超时、连接错误等。项目中应...

    Python selenium的基本使用方法分析

    Selenium提供了管理Cookie的方法,包括获取、删除单个或全部Cookies。 ```python cookies = driver.get_cookies() cookies_dict = {cookie['name']: cookie['value'] for cookie in cookies} driver.delete_...

    QQ 空间动态爬虫,利用cookie登录获取所有可访问好友空间的动态保存到本地.zip

    使用`requests`库的`post`方法可以发送登录表单数据到服务器,通过设置`cookies`参数来携带登录后的cookie信息。 3. **处理Cookie**: Cookie是服务器发送到用户浏览器并存储的一小块数据,用于跟踪用户的会话信息。...

    Cookie-Clicker-Automation:Cookie Clicker 游戏的自动化脚本

    1. **Web自动化测试框架**:由于Cookie Clicker可能是在浏览器中进行的游戏,因此可能会使用如Selenium WebDriver这样的工具,它允许用Java编写代码来模拟用户对网页的各种交互,如点击、输入等。 2. **事件监听**...

    selenium_scraper

    此外,Selenium可以结合`requests`库,实现登录、cookie管理等功能,以便于访问需要登录的网站。 对于大型网站的抓取,通常会涉及多线程或异步处理,以提高效率。Python的`concurrent.futures`模块或者第三方的`...

    拼多多爬虫,爬取所有商品、评论等信息.zip

    5. **反爬策略与应对**:网站通常会有反爬机制,如设置Cookie、User-Agent限制、IP封锁等。在编写爬虫时,我们需要遵循网站的robots.txt文件,合理设置请求间隔,使用代理IP池,以及更换User-Agent以避免被识别为...

Global site tag (gtag.js) - Google Analytics