Scrape-Box从入门到精通完全中文教程_第1页
Scrape-Box从入门到精通完全中文教程_第2页
Scrape-Box从入门到精通完全中文教程_第3页
Scrape-Box从入门到精通完全中文教程_第4页
Scrape-Box从入门到精通完全中文教程_第5页
已阅读5页,还剩14页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、ScrapeBox作为外贸SEO领域中最为常见的外链工具,几乎人手一份,虽然性能较xRumer要弱很多,但是这并没有阻挡黑帽seoer们对它的喜爱。蓝月这次带来一份超级详细的ScrapeBox中文教程,希望能帮助到跟我一样迷茫的英文SEO新人。本文主要借鉴了腿哥的SEO中文宝典,整理成了能被搜索引擎理解的纯文字信息,版权归腿哥所有,苏州SEO只做整理。Scrapebox主要功能区使用简介ScrapeBox作者将工作界面分为4个区域harvester;SelectEngines&Proxies;URLs harvested;commentposter,如果用中文解释,搜索区;代理区;URL整理区

2、;操作区比较合适。对于其主要操作流程,可以看下面这张图:下面一个一个区域进行功能介绍:先说搜索区:搜索区功能主要有:关键词拼合;清理footprint;关键词、footprint输入区;关键词抓取按钮;关键词导入功能代理区:这个区很重要,会直接影响到Scrapebox搜刮资源以及发布资源的效率和成功率。代理区主要由搜索结果来源(搜索引擎);代理IP存放区;代理IP管理区URL整理区:这个区是Scrapebox的主要操作区,涉及到了URL列表存放区;去重过滤按钮;整理URL到根目录;PR查询;收录查询;邮箱抓取;导入URL;导出URL;导出URL≺开始收割资源等10个项目。操作区:当填写完

3、footprint、整理了代理列表、搜刮到你想要的资源之后,你就可以在这个区里面操作了,这个区主要由4部分组成,分别是操作模式选择区;群发网站信息;状态区;开始操作区当你选择不同的操作模式,工具会显示对应的操作区,也只有对应的操作区可以操作,其他的不可操作去都是灰色的。Scrapebox菜单栏设置介绍菜单区:Settings菜单Adjust MaximumConnection调整最大连接数,在批量检查PR、批量群发的时候,最大链接数越多,能够增加群发的效率,降低群发的时间,但是我个人建议保持默认比较好。Adjust timeoutsettings如果你网速很好,超时设置可以把时间设置的短一些,

4、如果你长期出现超时,那么设置长一些是比较好的。Post Only using SlowCommenter只使用慢速评论模式。快速模式虽然可以增加效率,但是却降低了成功率,慢速模式可以增加成功率。Use Multi ThreadedHarvester多线程模式会增加收割的速度,但是增加了PC的CPU的负担,如果你电脑配置够好,可以使用多模式。Adjust Muti Threaded Harvester ProxyRetries这一项是表示当SB发现代理报404后,他会尝试多少次。建议使用默认。Fast Poster ConnectionBalancing使用该项设置以后,SB会将LIST以500

5、为单位就行分割。一个500URL list处理完以后,再处理下一个500url的list,这样能够最大限度的降低对硬件的要求。Option菜单Use Custom User Agents、Edit Custom User Agentsuseragent意思是用户代理,UserAgents用户代理是指浏览器,它的信息包括硬件平台、系统软件、应用软件和用户个人偏好.用户代理,它还包括搜索引擎。你访问web时,服务器会记录你的用户代理、IP等情况。最好使用个性化的useragent,国外有个关于useragent的网站,你可以自己去复制一个。地址:/

6、index.shtml?mozEnable Crashdump Logging这个选项要配合The CrashdumpLogger使用,使用该功能以后,CrashdumpLogger会启用一个独立的进程来记录你的操作,然后当你机器崩溃、SB崩溃的时候,你正在harvester、commenter的数据可以恢复,不用重头开始。Setup Email NotificationServer设置邮件提醒,这个功能对那些使用桌面邮件系统的用户比较好,比如你在远程服务器上设置的任务完成后,SB会发邮件通知你。Scrapebox的RSS提交Scrapebox也有RSS提交功能,但是他只能批量提交RSS,不能

7、提交非RSS模式的URL,但是现在很多网站都提供单独页面URL批量ping的功能,比如网站做好以后、外链群发后URL都可以用来批量ping,通过ping功能可以加快页面的收录速度。编辑Scrapebox的RSS服务:Scrapebox中为每个页面设置指定关键词在Scrapebox中,博客评论有两个区域可以添加链接website表域、评论区。但是评论区(comments)添加链接会降低发送成功率,同时也容易让进入Akismet黑名单。那么最好做工作的区域就只剩下website表域了。但是博客Name资料会被Scrapebox用作website的锚文本,

8、并且Name域list中的哪个资料会被用作锚文本,我们无法确定。我们很多时候又需要为每个页面设置一个独特的关键词锚文本,为了解决这个矛盾,可以使用如下下技巧:在websites域list中采用如下形式来写:/keywords1|keywords2|keywords3/keywords4|keywords5|keywords6然后name域list可以不用填。发送出去后的html效果是:腿哥Scrapebox中的代理问题免费代理、共享代理、私人代理由于Scrapebox需要大量的群发、收割搜索

9、引擎结果等,操作过于频繁容易导致IP被封。虽然使用代理会在一定程度上降低成功率,但是这可以保证你不被封IP,任务可以完成。代理分免费代理、共享代理、私人代理。免费代理也就是Scrapebox代理抓取到的IP,这些代理每天使用的人很多,很容易导致你群发的评论被封,在使用免费代理做群发前,请抓取最新的代理IP。共享代理是参加付费服务的用户共用的一些代理IP,共享代理IP的群发效果要比免费代理好些,但是也会由于使用的人过多,导致成功率降低。私人代理完全是个人独享的,你群发的成功率完全由你自己的操作所控制,但是要整几十个代理IP一个月的费用也是不小的,老外推荐http:/www.yourprivate

10、/免费代理适用于抓取关键词、抓取博客list这样的基础性工作;共享代理、私人代理可以用来做群发,它可以提高你的成功率。WordPress垃圾评论系统Akismet黑名单判断标准WordPress很多用户由于被spam的太厉害了,国外用户一般都会开启Akismet来防御spam群发。Akismet判断群发spam的标准有三:一、同一域名被5-10个用户手工判为spam,那么Akismet就会把这个域名列入黑名单;群发评论无法通过Akismet保护的博客;二、在30分钟内群发100条评论以上的域名将被判为spam,那么Akismet就会把这个域名列入黑名单;群发评论无法通过Aki

11、smet保护的博客;三、在30分钟内群发100条评论以上的IP将被判为spam,那么Akismet就会把这个IP列入黑名单;该IP下的群发评论无法通过Akismet保护的博客;利用Proxyfire来挖掘最新的Scrapebox代理资源Proxyfire本文不做详细介绍,只是略微提及一下,大概方法就是先随便找一些代理IP,无所谓是否过期,然后选择Proxyfire选项卡中的搜索引擎吸附,在关键字选项中把那些你找到的代理IP复制进去,然后开始搜索、验证。之后再把验证完了的代理IP导入到Scrapebox当中进行验证。验证过程可以在上面提到的线程和超时设置里面更改。SCRAPEBOX的Footpr

12、int使用Footprint在中文里的翻译是“脚印、足迹”,该词常被应用到搜索互联网资源。在讲下面的资料前,给大家讲讲基本的搜索引擎搜索命令:allinanchor:keywordsanchor是一处说明性的文字,它标注说明了这个链接可能跳转到其它的网页或跳转到当前网页的不同地方。当我们用allinanchor提交查询的时候,Google会限制搜索结果必须是那些在anchor文字里包含了我们所有查询关键词的网页。例allinanchor: best museums Sydney ,提交这个查询,Google仅仅会返回在网页anchor说明文字里边包含了关键词”best” “museums” 和

13、”Sydney”的网面。allintext:keywords当我们用allintext提交查询的时候,Google会限制搜索结果仅仅是在网页正文里边包含了我们所有查询关键词的网页。例allintext:travel packing list,提交这个查询,Google仅仅会返回在一个网页包含了三个关键词”travel”“packing”和”list”的网页。allintitle:keywords当我们用allintitle提交查询的时候,Google会限制搜索结果仅是那些在网页标题里边包含了我们所有查询关键词的网页。例allintitle:detectplagiarism,提交这个查询,Goo

14、gle仅会返回在网页标题里边包含了”detect”和”plagiarism”这两个关键词的网页。allinurl:keywords当我们用allinurl提交查询的时候,Google会限制搜索结果仅是那些在URL(网址)里边包含了我们所有查询关键词的网页。例allinurl:googlefaq,提交这个查询,Google仅会返回在URL里边包含了关键词”google”和”faq”的网页,象/help/faq.html等的网页。author:keywords当我们用author进行查询的时候,Google会限制返回结果仅仅是那些在Google论坛里边,包含了特定作者的

15、新闻文章。在这里,作者名可以是全名,也可以是一部分或邮件地址。例childrenauthor:john author:doe或childrenauthor:返回结果将是作者John Doe 或是写的,关于包含关键词children的文章。cache:提交cache:url,Google会显示当前网页的快照信息,从而替换网页的当前信息。例cache:,提交这个查询,Google会返回所有抓取的关于的网页快照信息。在显示的网页快照信息里边,Google会高亮显示查询关键词。(在cac

16、he:和URL之间不能有空格)inanchor:当我们用inanchor提交查询的时候,Google会限制结果是那些在网页anchor链接里边包含了查询关键词的网页。例restaurantsinanchor:gourmet,提交这个查询,Google会查询那些在anchor信息里包含了关键词”restaurants”和关键词”gourmet”的网页。intext:当我们用intext进行查询的时候,Google会返回那些在文本正文里边包含了我们查询关键词的网页。HamishReidintext:pandemonia,提交这个查询的时候,Google会返回在文本正文包含查询关键字pandemon

17、ia,在其它任何地方包含关键词”Hamish”和”Reid”的网页。(intext:后面直接跟查询关键字,不能有空格)intitle:当我们用intitle进行查询的时候,Google会返回那些在网页标题里边包含了我们查询关键词的网页。例flushotintitle:help,提交这个查询,Google会返回在网页标题包含了查询关键字”help”,而在其它任何地文包含了查询关键字”flu”和”shot”的网页。(intitle:后面也不能有空格)inurl:当我们用inurl进行查询的时候,Google会返回那些在URL(网址)里边包含了我们查询关键词的网页。例inurl:printsite:

18、,提交这个查询,Google会查找这个网站下面网址里边包含了查询关键词”print”的网页。link:当我们使用link:URL提交查询的时候,Google会返回跟此URL做了链接的网站。例link:,提交这个查询,我们将得到所有跟这个网站做了链接的网站。(link是个单独的语法,只能单独使用,且后面不能跟查询关键词,跟能跟URL)related:用related提交查询,Google会返回跟我们要查询的网站结构内容相似的一些其它网站。例related:www.consumerrepo

19、,提交这个查询,Google会返回所有跟网站结构内容相似的网站。我们也可以通过点击搜索结果后面的相似网页,来查询跟当前网页类似的网页。(related:后面不能跟空格)site:当我们用site提交查询的时候,Google会限制查询仅在某个网站,或是某个域下面进行。例admissionssite:www.lse.ac.uk,提交这个查询仅仅会搜索网站www.lse.ac.uk下面关于admissions的信息。我们还可以限制搜索仅在域下面进行,例javascriptsite:,提交这个查询,仅仅在教育网查询关于javasc

20、ript的信息。(site:后面不能跟空格,且site命令可以配合其它命令进行)这些命令是我们经常要用到的,你如果要查看完整的google搜索命令,可以百度一下“google 搜索命令”。这些命令可以混搭着使用,比如:inurl:/profile.php intitle:lost weight “powered by wordpress” “leave acomment”该搜索命令可以将URL中含有/profile.php,title中含有lostweight的可以留评论的wordpress论坛找出来。搜索Auto-approved博客如果英文基础比较好,可以看这篇文章如何制作ScrapeBo

21、x的Auto ApproveList自动审核列表由于现在博客评论被滥用的比较厉害,很多博主都开启了博客反留言插件,这大大的降低了博客发送的成功率,为了增加博客群发的成功率,寻找大量的autoapproved的博客就成了做排名的一个好方法。上图中演示了基本的SB操作,从Merge关键词、输入关键词footprint、抓取免费代理IP、开始收割博客URL地址都有箭头做说明。由于这些基本的操作很容易就弄明白了,所以这里不做多讲。在收割结束后,要对URL进行整理删除重复的博客URL,删除PR较低的域名等等。由于这里要对去重过的URL进行群发,验证是否auto-approved,群发的量会有点多,所以要

22、准备一个垃圾域名,或者被K掉的域名。将收割到的URL转移到评论区list按钮(Transferurl to Blog Lsit),然后选择fast poster,等待SB发送结束;然后使用expert “posted”entries保存,接着使用expert “posted”entries把发送失败的URL导出保存,再重复上述过程,不停的将failed的博客进行fastposter,直到剩下最后一个URL。然后开启checklinks模式,将所有post出去的URL进行验证,如果有你URL连接的,就说明是auto-approved。整个流程看下图:偷Spammer的外链现在一些老手都会自己收集

23、整理Auto-approved博客评论list,如果我们找到他的网站,把他的评论博客URL收集整理,就成了我们的Auto-approved博客list了,这样收集到的URL质量又高,效率更加不用说了。步骤:1.将平时看到的在做博客评论群发的网站收集起来;2. 使用addon插件link extractor,导入收集到的正在做博客群发的网站list;3.然后选择both模式开始收割站内URL,记住了,这里是收集站内URL,为什么呢?很多老手做外链都是站内所有URL都发,不把所有外链只想首页,收集他所有的站内URL,可以抓取到更多的资源。这里需要指出的是这种方法只能收集到一部分URL,不能确保站内

24、所有URL都被收集到。如果要收集站内所有URL,请看下图。4.将link extractor收集的URL导出来,然后把list导入到插件backlink checker中;5. Backlinkchecker整理的数据再导入到addon插件blog analyzer,把不是blog的url去掉;6.然后使用第五章讲到的方法对外链进行整理,找auto-approved博客。收集Spammer利基站内所有外链在寻找auto-approved博客和偷Spammer的外链中已经说过使用linkextractor抓取一个网站内部的部分URL,该方法有个小毛病,资料不齐全,然后SB不能对抓取到的URL内部

25、链接进行整理,会有/page.html这样的链接,而不能转化为/page.html这里我们以百度为例讲解:1.在SB中输入搜索footprint关键词:site: ;2.抓取免费代理IP;3. 启动harvester,开始收集baidu站内所有的URL4. 将搜索的结果导入到Backlinkchecker中;5. Backlink checker整理的数据再导入到addon插件bloganalyzer,把不是blog的url去掉;6. 然后使用SCRAPEBOX的Footprint讲到的方法对外链进行整理,找auto-approved博客。寻找高PR的博客群发虽然说google的PR对排名的作用不再明显,但是PR依然是判断网站质量的一个因素,高PR的网站质量不一定高,但

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论