首页 新闻 赞助 找找看

如何向搜索引擎隐藏pdf文件

0
悬赏园豆:5 [已解决问题] 解决于 2019-02-20 17:45

用户有这么一个需求

C#开发的网站上有PDF文件,但是这些PDF文件不能让任何搜索引擎(Google,Bing等)搜索到.

只能通过URL链接发给客户

请问有解决方案吗

谢谢了

新西兰程序员的主页 新西兰程序员 | 初学一级 | 园豆:3
提问于:2018-06-01 07:12
< >
分享
最佳答案
0

编辑robots.txt文件,禁止百度、谷歌、必应这些搜索引擎抓取网站内容

收获园豆:3
雨之秋水 | 小虾三级 |园豆:649 | 2018-06-01 09:10

我们用Umbraco CMS系统来上传PDF,也就是说可能上传一个新的PDF就会有一个新的链接,除非动态写入robots.txt,但有些难度

有其他方法吗

新西兰程序员 | 园豆:3 (初学一级) | 2018-06-01 09:44

@新西兰程序员: 1、你开启整站屏蔽就可以了,就跟天猫一样,不让百度爬虫抓取;

2、你上传一个新的pdf也只是在相应的数据库中有记录,百度这些搜索引擎是抓取你程序的页面,怎么可能会需要动态写入robots.txt文件了。

雨之秋水 | 园豆:649 (小虾三级) | 2018-06-01 13:52
其他回答(3)
0
ycyzharry | 园豆:25639 (高人七级) | 2018-06-01 09:22

怎么加密? 我需要URL链接能访问到该网站

我们用Umbraco CMS系统来上传PDF,也就是说可能上传一个新的PDF就会有一个新的链接,除非动态写入robots.txt,但有些难度

有其他方法吗

支持(0) 反对(0) 新西兰程序员 | 园豆:3 (初学一级) | 2018-06-01 09:43

@新西兰程序员: 内网

支持(0) 反对(0) ycyzharry | 园豆:25639 (高人七级) | 2018-06-01 09:59
0

你在网站内没有任何链接到PDF文件的话,搜索引擎应该找不到的。

收获园豆:2
爱编程的大叔 | 园豆:30839 (高人七级) | 2018-06-01 10:40
0

robots.txt 可以指定某个目录,不让搜索引擎收录的

秋壶冰月 | 园豆:5903 (大侠五级) | 2018-06-01 12:37

Disallow: /bin    

不让搜索引擎收录bin目录

支持(0) 反对(0) 秋壶冰月 | 园豆:5903 (大侠五级) | 2018-06-01 12:39
清除回答草稿
   您需要登录以后才能回答,未注册用户请先注册