怎么禁止百度收录页面带http的页面,只百度收录页面https??

拒绝访问 | www.52qingdao.com | 百度云加速
请打开cookies.
此网站 (www.52qingdao.com) 的管理员禁止了您的访问。原因是您的访问包含了非浏览器特征(c1b17-ua98).
重新安装浏览器,或使用别的浏览器37.9k 人阅读
标签:至少1个,最多5个
浏览器默认是不允许在 https 里面引用 http 资源的,一般都会弹出提示框。
用户确认后才会继续加载,用户体验非常差。
而且如果在一个 https 页面里动态的引入 http 资源,比如引入一个 js 文件,会被直接 block 掉的。Chrome v21 之后,在 SSL 加密页面 embed 非 SSL 的 Flash 资源也会被默默的屏蔽掉,只留下一句 console 报告。
如果你的网站同时准备了 https 资源和 http 资源,那么,可以使用相对协议可以帮助你实现当网站引入的都是 http 资源,网站域名更换为 https 后的无缝切换。
具体使用方法为:
&img src="//domain.com/img/logo.png"&
简而言之,就是将URL的协议(http、https)去掉,只保留//及后面的内容。这样,在使用https的网站中,浏览器会通过https请求URL,否则就通过http发送请求。
附注:如果是浏览本地文件,浏览器通过file://协议发送请求,导致请求失败,因此本地测试最好是搭建一个本地服务器。
使用相对协议请求 Google CDN 中的 jQuery ,使用方式为:
&script src="//ajax.googleapis.com/ajax/libs/jquery/1.4.2/jquery.js"&&/script&
&script&!window.jQuery && document.write(unescape('%3Cscript src="js/libs/jquery-1.4.2.js"%3E%3C/script%3E'))&/script&
上面的例子中除了引用 Google CDN 中的文件外,还添加了一个本地 jQuery 链接,以便连接 Google CDN 失败后,使用本地副本。代码判断过程为:
首先检查 jquery 对象是否存在,如果存在,证明 Google CDN 运行正常;
如果不存在,则说明连接 Google CDN 失败,引入本地 jQuery 库。
本猿认为,在国内相对特殊的网络环境中,Google CDN 请求缓慢甚至失败常有,因此不推荐引用 Google CDN 托管的各种库。即便有备用链接,浏览器还是会多次尝试请求 Google CDN 中的文件,这个过程可谓漫长,严重影响页面载入速度。
使用 iframe
使用 iframe 的方式引入 http 资源,比如在 https 里面播放优酷的视频,我们可以先在一个 http 的页面里播放优酷视频,然后将这个页面嵌入到 https 页面里就可以了。
另外一个典型的例子是在 https 页面里通过 Ajax 的方式请求 http 资源,Chrome 是不允许直接 Ajax 请求 http 的。如果两个页面的内容都可以控制的话,当前窗口可以 iframe 窗口进行通信。
这个小技巧同样适用于 CSS :
.omg { background: url(//websbestgifs.net/kittyonadolphin.gif); }
附注:&link&或@import引入样式表时使用相对协议,IE7、IE8 会下载文件两次。
6 收藏&&|&&30
你可能感兴趣的文章
不好意思, 没看请这句。(如果你的网站同时准备了 https 资源和 http 资源)
不好意思, 没看请这句。(如果你的网站同时准备了 https 资源和 http 资源)
学习了,以前看到好多使用相对协议的网站一直不明白!
学习了,以前看到好多使用相对协议的网站一直不明白!
用相对协议,还是去请求 https的资源 ,只是当网站是http的时候去请求http资源,当网站是https的时候请求https的。
用相对协议,还是去请求 https的资源 ,只是当网站是http的时候去请求http资源,当网站是https的时候请求https的。
使用 iframe 的方式引入 http 资源,比如在 https 里面播放优酷的视频,我们可以先在一个 http 的页面里播放优酷视频,然后将这个页面嵌入到 https 页面里就可以了。
这种方式是不行的。https页面里不能加载http的iframe的内容的。
使用 iframe 的方式引入 http 资源,比如在 https 里面播放优酷的视频,我们可以先在一个 http 的页面里播放优酷视频,然后将这个页面嵌入到 https 页面里就可以了。
这种方式是不行的。https页面里不能加载http的iframe的内容的。
坐进公司项目升级为https协议之后,有一些引用http网站下的资源,如js等都无法顺利加载,iframe对http下的视频也无法进行加载,请问你解决这个问题了没有?
坐进公司项目升级为https协议之后,有一些引用http网站下的资源,如js等都无法顺利加载,iframe对http下的视频也无法进行加载,请问你解决这个问题了没有?
你可能感兴趣的文章
分享到微博?
我要该,理由是:
在 SegmentFault,学习技能、解决问题
每个月,我们帮助 1000 万的开发者解决各种各样的技术问题。并助力他们在技术能力、职业生涯、影响力上获得提升。服务热线:400-678-4567
最新消息:
您现在的位置是: >
怎么禁止百度收录的方法?
小敏 次浏览
&&& 一些站长在遇到网站被黑的时候,通常急着去处理网站的内容却疏忽了网站被黑被攻击的本源,一方面网站可能在权限设置上缺少思考,另一方面网站可能有程序上的漏洞,基本上的,在于网络攻击者看重了网站域名在互联网搜索引擎的效果,利用网站挂马进而宣传其违法或有害信息。那么,怎么避免这么的疑问,除了能够挑选群英虚拟主机商品&&群英对虚拟主机用户供给了安全扫描功能,经过对反常操作的监测和剖析,尽可能第一时间提出告警和告诉用户,并及时阻挠非法操作的分散。
&&& 关于搜索引擎收录方面没有格外需求的用户,比方公司网站或内部工作系统等,在虚拟主机安全设置上能够思考利用robots文件来制止搜索引擎收录,这么的方法阻断了网络挂马的利益,经过这么的方法,也可能削减一些意外攻击危险。怎么制止搜索引擎收录呢?这儿从robots文件开端逐个叙述。
一.什么是robots.txt文件?
&&&   搜索引擎经过一种程序robot(又称spider),主动访问互联网上的页面并获取页面信息。
&&&   您能够在您的网站中创立一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的有些,这么,该网站的有些或全部内容就能够不被搜索引擎收录了,或许指定搜索引擎只收录指定的内容。
二. robots.txt文件放在哪里?
&&&   robots.txt文件应当放在网站根目录下。举例来说,当robots访问一个网站(比方http://www.abc.com)时,首先会查看该网站中是不是存在http://www.abc.com/robots.txt这个文件,假如机器人找到这个文件,它就会依据这个文件的内容,来断定它访问权限的规模。
网站 URL&&& 相应的 robots.txt的 URL
http://www.w3.org/&&& http://www.w3.org/robots.txt
http://www.w3.org:80/&&& http://www.w3.org:80/robots.txt
http://www.w3.org:1234/&&& http://www.w3.org:1234/robots.txt
http://w3.org/&&& http://w3.org/robots.txt
三. robots.txt文件的格局
&&& &robots.txt&文件包括一条或更多的记载,这些记载经过空行分隔(以CR,CR/NL, or NL作为结束符),每一条记载的格局如下所示:
&&&     &:&。
&&&   在该文件中能够使用#进行注解,详细使用方法和UNIX中的常规相同。该文件中的记载通常以一行或多行User-agent开端,后边加上若干Disallow行,详细情况如下:
&&& User-agent:
&&&   该项的值用于描绘搜索引擎robot的名字,在&robots.txt&文件中,假如有多条User-agent记载阐明有多个robot会遭到该协议的约束,对该文件来说,最少要有一条User-agent记载。假如该项的值设为*,则该协议对任何机器人均有用,在&robots.txt&文件中,&User-agent:*&这么的记载只能有一条。
&&& Disallow :
&&&   该项的值用于描绘不希望被访问到的一个URL,这个URL能够是一条完好的途径,也能够是有些的,任何以Disallow 开头的URL均不会被robot访问到。例如&Disallow: /help&对/help.html 和/help/index.html都不答应搜索引擎访问,而&Disallow: /help/&则答应robot访问/help.html,而不能访问/help/index.html。
&&& 任何一条Disallow记载为空,阐明该网站的一切有些都答应被访问,在&/robots.txt&文件中,最少要有一条Disallow记载。假如&/robots.txt&是一个空文件,则关于一切的搜索引擎robot,该网站都是敞开的。
四. robots.txt文件用法举例
例1. 制止一切搜索引擎访问网站的任何有些
   下载该robots.txt文件&& &
User-agent: *
Disallow: /
例2. 答应一切的robot访问
(或许也能够建一个空文件 &/robots.txt& file)
User-agent: *
例3. 制止某个搜索引擎的访问
User-agent: BadBot
Disallow: /
例4. 答应某个搜索引擎的访问&& &
User-agent: baiduspider
User-agent: *
Disallow: /
例5. 一个简略比如
  在这个比如中,该网站有三个目录对搜索引擎的访问做了约束,即搜索引擎不会访问这三个目录。
  需求留意的是对每一个目录有必要分隔声明,而不要写成 &Disallow: /cgi-bin/ /tmp/&。
  User-agent:后的* 具有特别的意义,代表&any robot&,所以在该文件中不能有&Disallow: /tmp/*& or &Disallow: *.gif&这么的记载呈现.
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
相关信息推荐
15:46:44 关键词:网络运营
百度文库信赖我们再了解不过了,能够找到各种材料,近来小编由于写某个计划的因素需求找些模板,当然首选百度文库了,在找材料的过程中发现有不少人使用文库做推广,其间一..
15:44:43 关键词:网络运营
自媒体相信这几年都比较熟悉的,例如很多自媒体的产品,技术自媒体,化妆自媒体等等。..
15:36:33 关键词:网络运营
微信公众号,相信大部分的人都比较熟悉了。因为对于一种已经出了好几年的产品。微信公众号的话,需要注意什么呢?..
16:57:06 关键词:网络运营
摘要:为什么要做微信营销 ..
18:56:33 关键词:网络运营
站长们在对网站进行SEO优化以后,也许会对全部网站的收录状况进行剖析,通常在这剖析过程中就会发现,网站分类目录下面的页面,并不能充沛的被收录,这说明网站的优化力度还不..
热门关键词所有回答(3)
你对整个网站使用https,然后入口设置为http,平时的跳转也都是http,只有当跳转到某个页面时强制https,退出时在强制到http。比如,你的网站有个a.html是需要https的,其他都不需要。那么你只要把代码中涉及到跳转到a.html的都改成强制https,比如以前&a href="/xxxx/a.html"&&/a&改成&a href="https://yoursite.com/a.html"&&/a&就可以了。这样的缺点就是可能要修改比较多的地方。更好的做法是,你在需要https的页面的后台代码里判断,如果是http,那么就重定向到https。
园豆:6310
水牛刀刀兄说的有道理,但我想提醒你的是,你的做法稍有不慎就可能有安全隐患。特别需要注意的是,post的表单页面和post到的页面都要https。
另外,水牛刀刀兄的做法中,保留了所有页面使用https的可能性。我个人不知道你为什么会想只在部分页面使用https&&
清除回答草稿
&&&您需要以后才能回答,未注册用户请先。}

我要回帖

更多关于 页面不收录 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信