有同學問百度站羣站長學院一個關於 robots 的問題:我們有個站點的目錄結構使用的是中文,這樣式兒的:www.a.com/冒險島/123.html,那在製作 robots 檔案和 sitemap 檔案的時候,可以直接使用中文嗎?百度能獲取到嗎?在實際操作中我們發現,sitemap 中有檔案是可以生效的,但 robots 封禁貌似沒有反應,所以想確認一下:robots 檔案是否支持中文?

  工程師解答:Baiduspider 目前(2022 年 10 月)在 robots 裏是不支持中文的。

  同學追問:那我們進行 UrlEncode 編碼會不會支持呢?比如這種:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97

  工程師解答:robots 檔案支持這種寫法。但是否生效,還要取決於當時 BaiduSpider 抓取的是哪種形式結構的連結,如果是 UrlEncode 編碼就可以生效,如果是中文就非常不幸了。