python3使用requests抓取部分https网站sslv3 alert handshake failure 错误?

By | 09月29日
Advertisement

在使用requests抓取部分https网站会有错误弹出,错误如下:requests.exceptions.SSLError: [SSL: SSLV3_ALERT_HANDSHAKE_FAILURE] sslv3 alert handshake failure (_ssl.c:600)。
代码部分就是简单的requests.get("https:XXXXX"),以前使用的ubuntu并没有出现过这种情况,现在换成了mac开发环境出现了这种问题,遍查无果,求赐教,是否是开发环境没有配置正确还是需要处理一下代码部分,感谢各位大神先。

--cut--

卖喵星人的包子在2015-09-29 14:43:34回答到:

在别的地方已经找到了答案,可以参考http://stackoverflow.com/questions/31730819/python-sslerror-using-requests-for-surveymonkey-com

Similar Posts:

  • 百度lee:建立符合搜索抓取习惯的网站

    A5交易A5任务 SEO诊断淘宝客 站长团购 之前百度站长lee给大家介绍了搜索抓取系统工作原理,根据该工作原理今天简要介绍一下如何建立网站是符合搜索引擎抓取系统习惯的. 1.简单明了的网站结构 Spider抓取相当于对web这个有向图进行遍历,那么一个简单明了结构层次分明的网站肯定是它所喜欢的,并尽量保证spider的可读性. (1)树型结构最优的结构即"首页-频道-详情页"; (2)扁平首页到详情页的层次尽量少,既对抓取友好又可以很好的传递权重. (3)网状保证每个页面都至少有一个

  • Charles抓取Android https包

    准备:下载Charles 手机设置:将手机与电脑连接,并在手机上设置HTTP代理: 长按与电脑连接同一网络的WiFi->修改网络配置->显示高级选项->手动代理服务器并填写代理主机和端口(8888) Charles设置:Proxy->SSL Proxying Settings->勾选Enable SSL Proxying 添加抓取Host:Add->在弹窗中填写Host,Port可以空着->OK 例如在微信朋友圈分享中随便打开一个连接,在Charles抓取到的请求

  • 侠客抓取目标网站内容实战

    A5交易A5任务 SEO诊断淘宝客 站长团购 之前提及,侠客站群内置了丰富的抓取模块,能够实现从主流搜索引擎.门户网站.博客等处抓取相关内容.但是如果想获得更高质量的内容,使用侠客站群的高级功能,自建抓取模块, 从目标网站上进行抓取无疑是一种好办法.现在,就以案例为导向,分享下本人利用侠客站群制作抓取模块,抓取特定目标网站的内容的经验. 侠客站群抓取模块有四种模式--关键词智能抓取模式.自定义抓取模式.蜘蛛抓取模式和同步追踪模式,抓取特定目标网站的内容,我们通常使用自定义抓取模式和蜘蛛抓取模式,

  • 拒绝搜索引擎抓取页面

    怎么样拒绝搜索引擎抓取页面?有些时候,我们建立的一些网页,不希望被网友通过搜索引擎找到,该如何做呢?本文介绍了如何使用robots.txt防止搜索引擎抓取页面的一些技巧. Robots.txt 文件对抓取网络的搜索引擎漫游器(称为漫游器)进行限制.这些漫游器是自动的,在它们访问网页前会查看是否存在限制其访问特定网页的 robots.txt 文件.如果你想保护网站上的某些内容不被搜索引擎收入的话,robots.txt 是一个简单有效的工具.这里简单介绍一下怎么使用它. 怎么样拒绝搜索引擎抓取页面?

  • 几种PHP实现网页抓取的程序代码

    使用Google引擎搜索出这样的文章,不错,怕大家搜索不到,特此重新排版转载出来! 网页抓取就像搜索引擎一个可以去自动抓取其它服务器上的内容了,下面我整理的几个php常用做法,大家一起来看看. 抓取某一个网页中的内容,需要对DOM树进行解析,找到指定节点后,再抓取我们需要的内容,过程有点繁琐.LZ总结了几种常用的.易于实现的网页抓取方式,如果熟悉JQuery选择器,这几种框架会相当简单. 一.Ganon 项目地址: http://code.google.com/p/ganon/ 文档: http

  • 我的java数据抓取经验

    本人担任职友集的java工程师五年,其中抓取数据占主要的一部分,抓取的信息只要有两部分,职位和简历,其中职位的抓取量为日均插入量为30万,更新量为60万,抓取全国300多个人才网站.职友集(现在改名为跳哪网)现在是全国职位量最高的垂直搜索引擎.月均广告收入约20万左右.当然这是经过我们团队的努力. 我们在职位抓取方面是下了很大的一番功夫,使我们的职位量无法被人超越,首先现在很多人才网站为人防止其它网站抓取它的信息,都在封IP,尤其是中华英才网,我们为了向我们的用户提供大而全的职位信息,时刻作出我

  • 使用scrapy进行大规模抓取

    文章来源:http://www.yakergong.net/blog/archives/500 使用scrapy有大概半年了,算是有些经验吧,在这里跟大家讨论一下使用scrapy作为爬虫进行大规模抓取可能遇到的问题.我们抓取的目标是教 育网上的网站(目前主要针对.edu.cn和.cas.cn/.cass.cn域名),这半年里抓取了百万以上的url,其实百万url的规模不算大,我 们一直在断断续续的修改,还没有开始全面的抓取. 如果想了解scrapy的话,推荐pluskid的scrapy轻松定制网

  • iOS开发——网络实用技术OC篇&网络爬虫-使用Python抓取网页数据

    网络爬虫-使用Python抓取网页数据 搬自大神boyXiong的干货! 闲来无事,看看了Python,发现这东西挺爽的,废话少说,就是干 准备搭建环境 因为是MAC电脑,所以自动安装了Python 2.7的版本 添加一个 库 Beautiful Soup ,方法这里说两种 1.在终端输入 pip install BeautifulSoup 2.手动下载包后,终端切换到 解压的文件夹,输入 sudo python setup.py install 下载地址BeautifulSoup 开始写代码吧

  • C#信息自动抓取

    C#web信息自动抓取 实现自定义网站信息分类抓取,存入本地数据库.生成静态页面或其它用户定义的信息结构,并下载与信息相关的多媒体文件. 开发 l 目标站点结构分析 本步骤是准确抓取信息个关键. 首先要选择更新频率高的页面做为抓取地址,然后分析要抓取内容页面url特点. 然后分析要抓取信息页面的元素特性,比如标题位置,内容位置 等,得到定位标记点. 将以上信息写成自己的配置文件或存到数据库中. 每个网站都需要分析,写出单独的配置文件,供抓取程序使用. l 信息提取 根据配置文件取得要抓取页面ur

  • JAVA抓取网页内容、生成kindle支持的mobi格式的文件时可能会遇到的问题及解决方案

    问题1:内容抓取Batch在解析rss时,有的网站的rss中明明有发布时间,但获取的发布时间始终为null. 原 因:那些网站的rss的发布时间格式不符合Rome.jar的要求,无法解析,所以返回null. 解决方案:修改Rome.jar的源码,在com/sun/syndication/rome.properties中增加 datetime.extra.masks属性,用于适应多种发布日期的格式. 如: datetime.extra.masks=yyyy-MM-dd HH:mm:ss|yyyy-

Tags: