试题详情
- 单项选择题Robots.txt文件是搜索引擎抓取网站第一个需要查看的文件,网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。在www.domain.com中,如禁止所有搜索引擎程序抓取www.domain.com/A下所有内容,Robots文件应如何设置?()
A、"User-agent:*Disallow:/A"
B、"User-agent:Allow:/A"
C、"User-agent:Disallow:/"
D、"User-agent:*Allow:/"
- A
关注下方微信公众号,在线模考后查看
热门试题
- 下列seo操作选项,易导致搜索引擎降权的
- 某广告主C刚开始在百度投放搜索推广,并安
- 设计网站的结构时,下面哪个方法不好()
- 通过API获取报告,以下说法正确的是?(
- 以下关于贴片形式的特点中,描述正确的是:
- 百度统计来源分析中可查看以下哪些转化目标
- 以下属于百度品牌广告的有?()
- 某电商客户设置进入结算页面为一次成功的转
- 什么叫电子商务收益(EcommerceR
- 项目风险管理是指对项目风险从识别到分析乃
- 跳出率和退出率的关系是?()
- 客户需要在百度上进行关键词的推广,单独设
- 目前,网盟推广主要是以下列哪种计费方式除
- 以下行为可能导致被百度降权的是()
- 断句符能出现的位置,哪些说法是错误的()
- 关于“配对审核中”说法正确的是()
- SEO搜索优化营销的常见术语有?()
- 为了快速增加网站内容,可以大量转载其他网
- 百度指数可以查询的内容有()
- 关于网站分析在企业中的位置,以下说法最合