1. 禁止搜索引擎跟踪网页的链接,而只对网页建索引
如果您不想搜索引擎追踪此网页上的链接,且不传递链接的权重,请将此元标记置入网页的 部分:
如果您不想BD追踪某一条特定链接,BD还支持更精确的控制,请将此标记直接写在某条链接上:
要允许其他搜索引擎跟踪,但仅防止BD跟踪您网页的链接,请将此元标记置入网页的部分:
2. 禁止搜索引擎在搜索结果中显示网页快照,而只对网页建索引
要防止所有搜索引擎显示您网站的快照,请将此元标记置入网页的部分:
要允许其他搜索引擎显示快照,但仅防止BD显示,请使用以下标记:
注:此标记只是禁止BD显示该网页的快照,BD会继续为网页建索引,并在搜索结果中显示网页摘要。
3. 我想禁止BD图片搜索收录某些图片,该如何设置?
禁止Baiduspider抓取网站上所有图片、禁止或允许Baiduspider抓取网站上的某种特定格式的图片文件可以通过设置robots实现,请参考“robots.txt文件用法举例”中的例10、11、12。
4. robots.txt文件的格式
"robots.txt"文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:
在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow和Allow行,详细情况如下:
User-agent:
该项的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受 到"robots.txt"的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效, 在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、Allow行,那么名为"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。
-
企业做小红书,不用自己忙!专业代运营,帮你轻松拿流量、拓客户
很多企业老板都有这样的困惑:知道小红书流量大、客户精准,想做却无从下手——没人懂平台规则、不会发内容、发了没人看,自己摸索又浪费时间精力,然后不了了之。 其实,企业做小红书,不用硬扛,找对专业小红书代运营,就能避开所有坑,让小红书成为你的获客利器,省心又高效。........
04-03
查看更多》
2026 -
小红书爆款笔记不用碰运气,4步结构拆解,企业也能轻松出片
各位企业老板,做小红书常头疼:花时间做的笔记,发布后播放量寥寥,无人问津。 小红书爆款笔记从不是靠运气,而是有固定结构。很多企业做不出爆款,只因没找对逻辑,盲目跟风。 重庆4066全球赢家信心之选科技今天就拆解核心结构——痛点→方法→案例→引导,通俗易懂,无论自己做还是找代运营,都能少走弯路。........
04-02
查看更多》
2026 -
别再乱找小红书代运营了!这3种,企业老板直接避开
做企业的都懂,现在小红书是引流获客的关键赛道——不用投太多钱,做好内容就能触达精准客户。但很多老板找代运营时,花了大几千、几万,要么没流量,要么没转化,甚至把账号做废了。不是小红书代运营没用,是你找错了!今天就给各位老板说句实在的,这3种代运营,不管对方吹得多天花乱坠,直接pass,别浪费时间和钱!一、只吹“保效果”不切实际贪便宜慎重很多老板一听“保效果”,而且便...........
04-01
查看更多》
2026
在线留言
让你的需求更快的得到回复
咨询热线:13752891587
咨询热线:023-68881200

贴心服务
实力担当
高品质
安全有保障