防止浏览器搜索引擎搜索到相应的网址路径
作者:互联网
前几天遇到一个问题,便是在自己的服务器上的东西被人修改了资料,作为一个前端开发工程师,经过查找资料,发现了一个配置文件,便是robots.txt,其方法为:
在服务器根目录新建一个robots.txt文件,然后在里边写上对应的访问权限即可:
User-agent: * Disallow: /apis/ Disallow: /update Disallow: /porter
假设我的服务器根目录为:https://www.abc.com,那么上边的代码便是不允许浏览器搜索引擎搜索到https://www.abc.com/apis、https://www.abc.com/updata、https://www.abc.com/porter这三个路径下的文件,想必这样就可以防止机器人自动搜索到一些东西修改了。
详情可查看官方文档:维基百科(貌似是国外的网站)
标签:www,abc,浏览器,搜索引擎,网址,https,服务器,Disallow,com 来源: https://www.cnblogs.com/xiaoyaoxingchen/p/10528609.html