分类目录

统计信息

  • 日志总数: 188 篇
  • 评论总数:8041条
  • 分类总数:8个
  • 标签总数:259个
  • 友情链接: 1 个
  • 网站运行:2903天

业务联系QQ:29392087

泉州SEO技术专员

SEO博主晒照,多多指教

2018年十一月
« 4月    
 1234
567891011
12131415161718
19202122232425
2627282930  
SEO培训
现在位置:    首页 > SEO优化, SEO问答 > 正文
robots文件是否支持中文目录【百度官方说法】
SEO优化, SEO问答 暂无评论

有同学问百度站长学院一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?

工程师解答:Baiduspider目前(2016年10月)在robots里是不支持中文的。

同学追问:那我们进行UrlEncode编码会不会支持呢?比如这种:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97

工程师解答:robots文件支持这种写法。但是否生效,还要取决于当时BaiduSpider抓取的是哪种形式结构的链接,如果是UrlEncode编码就可以生效,如果是中文就非常不幸了。

本文版权归泉州SEO技术博客所有,转载引用请完整注明以下信息:
本文作者:qzseo
本文地址:robots文件是否支持中文目录【百度官方说法】 | 泉州SEO技术博客

发表评论

留言无头像?


闽公网安备 35052502000112号