1. 禁止搜索引擎跟踪网页的链接,而只对网页建索引
如果您不想搜索引擎追踪此网页上的链接,且不传递链接的权重,请将此元标记置入网页的 部分:
<meta name="robots" content="nofollow">
如果您不想BD追踪某一条特定链接,BD还支持更精确的控制,请将此标记直接写在某条链接上:
<a href="signin.php" rel="nofollow">sign in</a>
要允许其他搜索引擎跟踪,但仅防止BD跟踪您网页的链接,请将此元标记置入网页的部分:
<meta name="Baiduspider" content="nofollow">
2. 禁止搜索引擎在搜索结果中显示网页快照,而只对网页建索引
要防止所有搜索引擎显示您网站的快照,请将此元标记置入网页的部分:
<meta name="robots" content="noarchive">
要允许其他搜索引擎显示快照,但仅防止BD显示,请使用以下标记:
<meta name="Baiduspider" content="noarchive">
注:此标记只是禁止BD显示该网页的快照,BD会继续为网页建索引,并在搜索结果中显示网页摘要。
3. 我想禁止BD图片搜索收录某些图片,该如何设置?
禁止Baiduspider抓取网站上所有图片、禁止或允许Baiduspider抓取网站上的某种特定格式的图片文件可以通过设置robots实现,请参考“robots.txt文件用法举例”中的例10、11、12。
4. robots.txt文件的格式
"robots.txt"文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:
<field>:<optional space><value><optional space>
在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow和Allow行,详细情况如下:
User-agent:
该项的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受 到"robots.txt"的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效, 在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、Allow行,那么名为"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。
-
企业小红书运营从0到1|老板必看的获客落地指南
不少企业老板都想借助小红书拓客,却总遇到这些问题: 账号发了多篇笔记,曝光平平、没有咨询、难以转化; 自建团队运营成本高,员工不懂平台逻辑,投入后看不到效果; 同行靠小红书稳定接单,自己的账号始终没起色。 其实企业做小红书,不靠盲目摸索,有一套可落地、能获客的标准化方法。今天用直白的语言,把企业小红书从 0 到 1 的运营逻辑讲透,帮企业少走弯路、高效对接精准客户...........
04-13
查看更多》
2026 -
重庆企业做小红书|专业代运营,省心获客、轻松起量
不少重庆企业老板都有同感:明明知道小红书流量精准、获客潜力大,想布局却处处碰壁——没人懂平台玩法、不会做内容、发了笔记没曝光,自己摸索耗时耗力,然后只能搁置。 其实企业做小红书,不用硬扛所有事。交给专业本地代运营团队,避开运营坑,让小红书成为企业稳定的获客渠道,省心又高效。........
04-11
查看更多》
2026 -
别再靠运气做小红书!企业号流量4阶段全拆解
企业做小红书,流量有迹可循,精准获客不盲目 不少企业老板做小红书都有这样的困扰:专门安排人力写笔记、拍产品,发出去后曝光寥寥;投了精力没效果,总觉得流量全靠系统随机分配,完全摸不清规律。 其实企业小红书的推流,从来不是碰运气,而是有清晰的阶段逻辑。今天用通俗的话拆解给企业老板看,看懂这套机制,做小红书才能少走弯路。........
04-11
查看更多》
2026
在线留言
让你的需求更快的得到回复
咨询热线:13752891587
咨询热线:023-68881200

贴心服务
实力担当
高品质
安全有保障