当前位置:首页 > 技术分享

网站禁止搜索引擎结果页被抓取的方法

1年前 (2024-12-01)技术分享1031

在搜索引擎(例如百度,谷歌等中看到一些网站的页面被搜索了大量的垃圾信息页面,其中一些搜索结果页还被索引,这些垃圾信息一旦被索引,就有可能被收录。如果不想搜索结果页面被收录的话,可以使用robots.txt和Robots Meta告诉搜索引擎不索引这些搜索结果页。一般 SEO 用的是robots.txt或Meta robots标签是针对某个特定页面。


1、robots.txt

创建robots.txt文件放在网站根目录或运行目录里,robots.txt文件格式如下:

User-agent: *

Disallow: /?*
Disallow: /admin
Disallow: /search

User-agent:告诉哪些搜索蜘蛛遵循规则,哪些不遵循规则,* 代表所有搜索引擎都遵循;

Allow:允许访问的页面或目录,允许访问所有的页面或目录;

Disallow:禁止访问页面或目录,如/?*所有带?后面的都不索引,禁止访问所有的页面或目录


2、Robots Meta

在网页头部添加以下代码:

<meta name='robots' content='index, follow, max-image-preview:large, max-snippet:-1, max-video-preview:-1' />


有些博客或论坛会有SEO相关的设置,可以研究一下。


扫描二维码在手机访问。

版权声明:本文由明乐 iMLDM发布,如需转载请注明出处。

本文链接:https://www.imldm.com/p/8.html

“网站禁止搜索引擎结果页被抓取的方法” 的相关文章

使用Nginx正向代理提升网站性能与安全性

在当今高速发展的互联网环境中,网站性能和安全性已成为衡量服务质量的关键指标。Nginx作为一款高性能的Web服务器和反向代理服务器,其正向代理功能同样强大。通过合理配置Nginx正向代理,不仅可以显著提升网站的访问速度,还能有效增强系统的安全性。…

B2B网站SEO终极指南:决胜国内市场与海外市场

对于B2B企业而言,官网不仅是展示窗口,更是核心的销售渠道和品牌阵地。在竞争激烈的线上环境中,搜索引擎优化(SEO)是获取精准客户、降低获客成本的关键。然而,面对不同的市场,SEO的策略也大相径庭。…

网站SEO外链建设全指南:从新站起步到老站优化

在搜索引擎优化(SEO)的领域中,外链建设始终占据着举足轻重的地位。它如同其他网站为你投出的“信任票”,是提升网站权威性、可见度和流量的关键引擎。无论是刚刚上线的新站,还是运营已久的老站,一套科学的外链策略都至关重要。本文将从外链的核心作用出发,分别为新站和老站提供一套完整、可操作的外链建设与优化方…

小白也能懂:网站TDK优化完整指南,快速拿下搜索引擎第一印象

您的网站是否在搜索引擎中缺乏曝光与点击?问题可能出在TDK上!本文为您提供一套即学即用的TDK优化方法论,通过精准撰写Title标题与Description描述,有效提升搜索排名与点击率,为网站带来源源不断的精准流量。…

HTTPS加密原理详解:从“握手”到“锁头”,你的数据这样被安全送达

为什么HTTPS是安全的?本文用“挂锁与钥匙”的生动比喻,带你一步步看懂HTTPS的TLS握手流程,揭秘非对称加密与对称加密如何分工协作,为你构建一道坚固的数据传输防火墙。…

构建高效网站结构:兼顾用户体验与SEO友好的双赢策略

本文为您详细解析如何通过优化网站结构,实现提升用户体验与增强SEO友好性的双重目标。从逻辑架构到技术细节,手把手教您构建一个清晰、高效、易于抓取的网站,从而增加流量、降低跳出率并提高转化率。…