12、我们使用爬虫抓取数据时,应审查所抓取的内容,不能包含用户的个人信息、隐私或者他人的商业机密。
12、我们使用爬虫抓取数据时,应审查所抓取的内容,不能包含用户的个人信息、隐私或者他人的商业机密。
参考答案和解析
正确
相关考题:
以下关于网络爬虫的说法,不正确的是()。 A、网络爬虫还可以对网页建立索引B、有些网络爬虫能够从网站抓取内容聚合起来C、有些网络爬虫甚至能发动DDos攻击、发送垃圾邮件等D、隐藏在表单后的信息无法被网络爬虫发现
统计机构和统计人员对在统计工作中知悉的( )应当予以保密。A.国家机密、商业秘密、个人信息SXB 统计机构和统计人员对在统计工作中知悉的( )应当予以保密。A.国家机密、商业秘密、个人信息B.国家秘密、商业秘密、个人隐私C.国家秘密、商业秘密、个人信息D.国家机密、商业秘密、个人隐私
下图是使用wireshark抓取一个TCP数据报文段的截图(注意wireshark中的数据不包含FCS的4个字节)则此TCP报文段可以传送的数据部分最大为( )字节。A.552B.512C.498D.450
关于搜索引擎工作原理,下列描述中正确的一项是()A、搜索引擎的基本工作原理包括抓取、索引、排序B、搜索引擎抓取只抓取大中型网站C、搜索引擎对任何链接都可以抓取D、搜索引擎定时定量抓取小型网站内容
使用了百度分享的网页可以更快地被百度爬虫发现,从而帮助网站的内容更快地被百度抓取。请问百度分享能使网页被快速抓取的原因是什么?()A、百度分享吸引爬虫抓取链接到百度数据库中,再由爬虫提交收录B、真实分享行为可以将链接直接存储到百度数据库中,并加速爬虫提交收录C、爬虫直接将分享的链接提交收录D、百度分享只能加速爬虫从数据库提交收录,不能影响链接的存储
以下哪些属于无效点击()A、恶意消耗他人推广费用为目的B、通过人工或作弊程序产生的点击C、使用网页抓取工具,抓取腾讯页面时,产生的机器点击D、人工点击中,由于人为原因或浏览器原因导致的连续多次点击
Robots.txt文件是搜索引擎抓取网站第一个需要查看的文件,网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。在www.domain.com中,如禁止所有搜索引擎程序抓取www.domain.com/A下所有内容,Robots文件应如何设置?()A、"User-agent:*Disallow:/A"B、"User-agent:Allow:/A"C、"User-agent:Disallow:/"D、"User-agent:*Allow:/"
搜索引擎是如何运作的?()A、从互联网上抓取网页-建立索引数据库-在索引数据库中搜索排序-用户信息查询B、建立索引数据库-在索引数据库中搜索排序-用户信息查询-从互联网上抓取网页C、在索引数据库中搜索排序-用户信息查询-从互联网上抓取网页-建立索引数据库D、用户信息查询-从互联网上抓取网页-建立索引数据库-在索引数据库中搜索排序
公安机关及其人民警察在办理治安案件时,对涉及的(),应当予以保密。A、国家机密、商业机密或者公民个人隐私B、国家秘密、商业秘密或者个人隐私C、国家秘密、企业秘密或者公民个人隐私D、国家机密、商业秘密
单选题关于公开法院判决书的论述,正确的是:()。A未生效的法院判决不能公开。B具有商业机密、国家秘密、个人隐私的法院判决不能公开。C法院判决中具有商业机密、国家秘密、个人隐私的内容不能公开,但其它内容仍可公开,只要不侵犯商业机密、国家秘密、个人隐私。D一个单位的欠款或诈骗的行为信息属于商业机密和个人隐私,不能公开。
单选题使用避污纸正确的方法是()。A掀开抓取B用镊子夹取C戴手套后拿取D经他人传递E从上面中间抓取