查看: 156|回复: 0

robots文件的优化,通过robots文件来告诉搜索引擎

[复制链接]

6059

主题

6059

帖子

110

积分

小有资产

Rank: 10Rank: 10Rank: 10

积分
110
发表于 2019-9-27 13:02:10 | 显示全部楼层 |阅读模式
  robots文件的优化,通过robots文件来告诉搜索引擎,哪些是可以抓取的,哪些是不可以抓取的,防止搜索引擎的不完善机制在给网站定位的时候走弯路。sitemap文件,通常有两种格式,一种是xml的,给客户看,称作网站地图;另一种是txt的,给搜索引擎看,以连接列表的集合的文本。可以直接到各大搜索引擎去提交这个文件,也可以放在robots文件里面,让搜索引擎每次自己过来抓取。404文件优化,对于网站错误或者不存在的连接,用非常和谐或者幽默的方式告诉访问者该网页不存在或者错误,这个给客户的感觉是非常好的,搜索引擎的感觉也是一样。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

Archiver|手机版|小黑屋|梦网资源 ( 冀ICP备20003924号-1 )

GMT+8, 2024-12-23 12:36 , Processed in 0.218562 second(s), 29 queries .

Powered by Discuz! X3.4

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表
联系客服1
联系客服2