快捷导航

如何解决网站死链问题?

[复制链接]
查看: 849|回复: 0

8万

主题

8万

帖子

26万

积分

论坛元老

Rank: 8Rank: 8

积分
260116
发表于 2020-11-15 00:00:00 | 显示全部楼层 |阅读模式
在网站日常运营,死链是难免会产生的,不仅影响了用户体验,也影响了搜索效果。那么,如何解决网站死链问题?接下来小编就跟大家分享下网站死链问题的解决方法,一起来看看吧!



1.网站改版最容易产生死链的

改版之前的页面如果有价值尽量不要删除和修改Url,若需要更换域名或Url分配规则,那一定要将之前的url进行301跳转到对应的Url;若老的数据必须删除,那删除的所有页面Url要进行整理和提交死链。

2.及时做好人工修复

首先,我们应该找到死链接存在于网站的什么位置,然后找到对应的死链接进行链接的修改。具体的修改方法,我们要借助FTP和DW工具。先用FTP工具把整个首页的后台文件拷贝下来,接着用DW打开,然后找到刚才查询到的死链接,在DW里进行修改并保存,最后把新保存的首页后台文件用FTP工具从新上传到网站根目录里。

3.向搜索引擎举报

我们还可以向搜索引擎举报,进入搜索引擎的举报中心页面,按照页面中的提示进行操作,如实填写相关信息。我们的目的是想要删除网站中的死链,不妨表明因为网站改版,之前的网页不在了,希望重新收录改版后的网站内容。搜索引擎收到这样的举报内容,就会将原有的URL死链进行删掉处理。

4.设置404状态码

通过404来告诉搜索引擎页面已经不存在。这也被百度称之为协议死链,目的是表明页面已经无法访问也毫无价值了。通常为了增加用户体验,我们也可以将设置了404的页面指向到另一个设计得很美的HTML页面中去。但是需要提醒的是,这个页面的状态返回码一定要是404,因为在搜索引擎眼里404才是表明的无效页面,如果状态返回码是200,对于蜘蛛来说则是一个正常的页面。

5.Robots文件禁止

如果网站上面产生的robots文件较少的时候,SEO优化人员或者是站长就可以在网站的robots文件中禁止搜索引擎收录和抓取网站的404页面,robots文件禁止搜索收录和抓取404页面或者网站里面其他的url链接的写法为Disallow:http://域名/silian.html。

(责任编辑:网络)
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

精彩推荐

让创业更简单

  • 反馈建议:XXXXXXXX
  • 客服电话:暂时没有
  • 工作时间:周一到周五9点~22点

云服务支持

黑客联盟,快速搜索

关注我们

Copyright 黑客论坛  Powered by©  技术支持: