http://www.sufeinet.com/plugin.php?id=keke_group

苏飞论坛

 找回密码
 马上注册

QQ登录

只需一步,快速开始

分布式系统框架(V2.0) 轻松承载百亿数据,千万流量!讨论专区 - 源码下载 - 官方教程

HttpHelper爬虫框架(V2.7-含.netcore) HttpHelper官方出品,爬虫框架讨论区 - 源码下载 - 在线测试和代码生成

HttpHelper爬虫类(V2.0) 开源的爬虫类,支持多种模式和属性 源码 - 代码生成器 - 讨论区 - 教程- 例子

查看: 4657|回复: 6

[其他] 为什么现在百度不能直接搜索呢?

[复制链接]
发表于 2013-12-14 23:57:14 | 显示全部楼层 |阅读模式
相同的连接为什么在浏览器上面能有结果。而httphelper就无结果呢?前几天都可以的。现在就不行了。
返回值为:
<html><head><noscript><meta http-equiv="refresh" content="0; url=http://www.baidu.com/baidu.html?from=noscript"/></noscript></head><body><script type="text/javascript">function getQueryStr(str){var url=window.location.href;var rs = new RegExp("(^|)"+str+"=([^&]*)(&|$)","gi").exec(url),tmp;if(tmp=rs){return tmp[2];}return ;}var wd=getQueryStr('wd');var vie=getQueryStr('ie')?getQueryStr('ie'):'utf-8';var eurl='http://www.baidu.com/s?wd='+wd+'&ie='+vie+'&tn=19045005_30_pg&ch=1';document.writeln('<meta http-equiv="refresh" content="0; url='+eurl+'"/>');</script></body></html>





1. 开通SVIP会员,免费下载本站所有源码,不限次数据,不限时间
2. 加官方QQ群,加官方微信群获取更多资源和帮助
3. 找站长苏飞做网站、商城、CRM、小程序、App、爬虫相关、项目外包等点这里
发表于 2013-12-15 08:22:01 | 显示全部楼层
连接是什么
发表于 2013-12-15 11:21:30 | 显示全部楼层
链接跳转了吧
 楼主| 发表于 2013-12-15 12:59:43 | 显示全部楼层

是的,就是用百度的连接。直接用httphelper打开,就会得到这个结果!
url="http://www.baidu.com/s?wd=xxxxx
发表于 2013-12-16 08:09:52 | 显示全部楼层
[C#] 纯文本查看 复制代码
            HttpHelper http = new HttpHelper();
            HttpItem item = new HttpItem()
            {
                URL = "http://www.baidu.com/s?wd=sufei",//URL     必需项    
                Method = "get",//URL     可选项 默认为Get   
                IsToLower = false,//得到的HTML代码是否转成小写     可选项默认转小写   
                Cookie = "",//字符串Cookie     可选项   
                Referer ="",//来源URL     可选项   
                Postdata = "",//Post数据     可选项GET时不需要写   
                Timeout = 100000,//连接超时时间     可选项默认为100000    
                ReadWriteTimeout = 30000,//写入Post数据超时时间     可选项默认为30000   
                UserAgent = "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0)",//用户的浏览器类型,版本,操作系统     可选项有默认值   
                ContentType = "text/html",//返回类型    可选项有默认值   
                Allowautoredirect = false,//是否根据301跳转     可选项   
                //CerPath = "d:\123.cer",//证书绝对路径     可选项不需要证书时可以不写这个参数   
                //Connectionlimit = 1024,//最大连接数     可选项 默认为1024    
                ProxyIp = "",//代理服务器ID     可选项 不需要代理 时可以不设置这三个参数    
                //ProxyPwd = "123456",//代理服务器密码     可选项    
                //ProxyUserName = "administrator",//代理服务器账户名     可选项   
            };
            HttpResult result = http.GetHtml(item);
            string html = result.Html;
            string cookie = result.Cookie;

正常的啊,应该是你代码有问题吧,再说了你写的连接也太简历了,地区,语言,标志都不加,百度肯定会认为是蜘蛛啊,屏蔽你很正常。没事多看看百度的参数。每一个都是有必要的,
 楼主| 发表于 2013-12-16 21:13:48 | 显示全部楼层
站长苏飞 发表于 2013-12-16 08:09
[mw_shl_code=csharp,true]            HttpHelper http = new HttpHelper();
            HttpItem item  ...

我以前是添加了参数的,以前能运行,现在不能运行了!后来我用webbrowser来替换了!
发表于 2013-12-18 08:06:22 | 显示全部楼层
努力学习 发表于 2013-12-16 21:13
我以前是添加了参数的,以前能运行,现在不能运行了!后来我用webbrowser来替换了!

要加这上些参数,不要有可能出错了。或者会自封 给你分分配个语言,这样肯定出现问题。安正规的来
您需要登录后才可以回帖 登录 | 马上注册

本版积分规则

QQ|手机版|小黑屋|手机版|联系我们|关于我们|广告合作|苏飞论坛 ( 豫ICP备18043678号-2)

GMT+8, 2024-6-9 18:41

© 2014-2021

快速回复 返回顶部 返回列表