




已阅读5页,还剩14页未读, 继续免费阅读
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
ScrapeBox 作为外贸 SEO 领域中最为常见的外链工具 几乎人手一份 虽然性能较 xRumer 要弱很多 但是这并没有阻挡黑帽 seoer 们对它的喜爱 蓝月这次带来一份超级详细的 ScrapeBox 中文教程 希望 能帮助到跟我一样迷茫的英文 SEO 新人 本文主要借鉴了腿哥的 SEO 中文宝典 整理成了能被搜索引擎理解的纯文字信息 版权归腿哥所有 苏州 SEO 只做整理 Scrapebox 主要功能区使用简介主要功能区使用简介 ScrapeBox 作者将工作界面分为 4 个区域 harvester Select EnginesURL s harvested comment poster 如果用中文解释 搜索区 代理区 URL 整理区 操作区比较合适 对于其主要操作流程 可以看下面这张图 下面一个一个区域进行功能介绍 先说搜索区 搜索区功能主要有 关键词拼合 清理 footprint 关键词 footprint 输入区 关键词抓取按钮 关键词 导入功能 代理区 这个区很重要 会直接影响到 Scrapebox 搜刮资源以及发布资源的效率和成功率 代理区主要由搜索结果来源 搜索引擎 代理 IP 存放区 代理 IP 管理区 URL 整理区 这个区是 Scrapebox 的主要操作区 涉及到了 URL 列表存放区 去重过滤按钮 整理 URL 到根目录 PR 查询 收录查询 邮箱抓取 导入 URL 导出 URL 导出 URL开始收割资源等 10 个项目 操作区 当填写完 footprint 整理了代理列表 搜刮到你想要的资源之后 你就可以在这个区里面操作了 这个 区主要由 4 部分组成 分别是操作模式选择区 群发网站信息 状态区 开始操作区 当你选择不同的操作模式 工具会显示对应的操作区 也只有对应的操作区可以操作 其他的不可操作去 都是灰色的 Scrapebox 菜单栏设置介绍菜单栏设置介绍 菜单区 Settings 菜单 Adjust Maximum Connection调整最大连接数 在批量检查 PR 批量群发的时候 最大链接数越多 能够增加群发的 效率 降低群发的时间 但是我个人建议保持默认比较好 Adjust timeout settings如果你网速很好 超时设置可以把时间设置的短一些 如果你长期出现超时 那么设置长一 些是比较好的 Post Only using Slow Commenter只使用慢速评论模式 快速模式虽然可以增加效率 但是却降低了成功率 慢速模式可以 增加成功率 Use Multi Threaded Harvester多线程模式会增加收割的速度 但是增加了 PC 的 CPU 的负担 如果你电脑配置够好 可 以使用多模式 Adjust Muti Threaded Harvester Proxy Retries这一项是表示当 SB 发现代理报 404 后 他会尝试多少次 建议使用默认 Fast Poster Connection Balancing使用该项设置以后 SB 会将 LIST 以 500 为单位就行分割 一个 500URL list 处理完以 后 再处理下一个 500url 的 list 这样能够最大限度的降低对硬件的要求 Option 菜单 Use Custom User Agents Edit Custom User Agentsuser agent 意思是用户代理 User Agents 用户代理是指浏览器 它的信息包括硬件平台 系统软件 应用软件和用户个人偏好 用户代理 它还包括搜索引擎 你访问 web 时 服务器会记录你的用户代理 IP 等情况 最好使用个性化的 user agent 国外有个关于 user agent 的网站 你可以自己去复制一个 地址 http www user agents org index shtml moz Enable Crashdump Logging这个选项要配合 The Crashdump Logger 使用 使用该功能以后 Crashdump Logger 会启用一个独立的进程来记录你的操作 然后当你机器崩溃 SB 崩溃的时候 你正在 harvester commenter 的数据可以恢复 不用重头开始 Setup Email Notification Server设置邮件提醒 这个功能对那些使用桌面邮件系统的用户比较好 比如你在远程服务器上设置 的任务完成后 SB 会发邮件通知你 Scrapebox 的的 RSS 提交提交 Scrapebox 也有 RSS 提交功能 但是他只能批量提交 RSS 不能提交非 RSS 模式的 URL 但是现在 很多网站都提供单独页面 URL 批量 ping 的功能 比如网站做好以后 外链群发后 URL 都可以用来批量 ping 通过 ping 功能可以加快页面的收录速度 编辑 Scrapebox 的 RSS 服务 Scrapebox 中为每个页面设置指定关键词中为每个页面设置指定关键词 在 Scrapebox 中 博客评论有两个区域可以添加链接 website 表域 评论区 但是评论区 comments 添加链接会降低发送成功率 同时也容易让进入 Akismet 黑名单 那么最好做工作的区域 就只剩下 website 表域了 但是博客 Name 资料会被 Scrapebox 用作 website 的锚文本 并且 Name 域 list 中的哪个资料会被用 作锚文本 我们无法确定 我们很多时候又需要为每个页面设置一个独特的关键词锚文本 为了解决这个 矛盾 可以使用如下下技巧 在 websites 域 list 中采用如下形式来写 keywords1 keywords2 keywords3 keywords4 keywords5 keywords6 然后 name 域 list 可以不用填 发送出去后的 html 效果是 腿哥 Scrapebox 中的代理问题中的代理问题 免费代理 共享代理 私人代理免费代理 共享代理 私人代理 由于 Scrapebox 需要大量的群发 收割搜索引擎结果等 操作过于频繁容易导致 IP 被封 虽然使用代 理会在一定程度上降低成功率 但是这可以保证你不被封 IP 任务可以完成 代理分免费代理 共享代理 私人代理 免费代理也就是 Scrapebox 代理抓取到的 IP 这些代理每天使 用的人很多 很容易导致你群发的评论被封 在使用免费代理做群发前 请抓取最新的代理 IP 共享代 理是参加付费服务的用户共用的一些代理 IP 共享代理 IP 的群发效果要比免费代理好些 但是也会由于 使用的人过多 导致成功率降低 私人代理完全是个人独享的 你群发的成功率完全由你自己的操作所控 制 但是要整几十个代理 IP 一个月的费用也是不小的 老外推荐 免费代理适用于抓取关键词 抓取博客 list 这样的基础性工作 共享代理 私人代理可以用来做群发 它 可以提高你的成功率 WordPress 垃圾评论系统垃圾评论系统 Akismet 黑名单判断标准黑名单判断标准 WordPress 很多用户由于被 spam 的太厉害了 国外用户一般都会开启 Akismet 来防御 spam 群发 Akismet 判断群发 spam 的标准有三 一 同一域名被 5 10 个用户手工判为 spam 那么 Akismet 就会把这个域名列入黑名单 群发评论无 法通过 Akismet 保护的博客 二 在 30 分钟内群发 100 条评论以上的域名将被判为 spam 那么 Akismet 就会把这个域名列入黑名 单 群发评论无法通过 Akismet 保护的博客 三 在 30 分钟内群发 100 条评论以上的 IP 将被判为 spam 那么 Akismet 就会把这个 IP 列入黑名单 该 IP 下的群发评论无法通过 Akismet 保护的博客 利用利用 Proxyfire 来挖掘最新的来挖掘最新的 Scrapebox 代理资源代理资源 Proxyfire 本文不做详细介绍 只是略微提及一下 大概方法就是先随便找一些代理 IP 无所谓是否过期 然后选择 Proxyfire 选项卡中的搜索引擎吸附 在关键字选项中把那些你找到的代理 IP 复制进去 然后 开始搜索 验证 之后再把验证完了的代理 IP 导入到 Scrapebox 当中进行验证 验证过程可以在上面提到的线程和超时 设置里面更改 SCRAPEBOX 的的 Footprint 使用使用 Footprint 在中文里的翻译是 脚印 足迹 该词常被应用到搜索互联网资源 在讲下面的资料前 给大 家讲讲基本的搜索引擎搜索命令 allinanchor keywordsanchor 是一处说明性的文字 它标注说明了这个链接可能跳转到其它的网 页或跳转到当前网页的不同地方 当我们用 allinanchor 提交查询的时候 Google 会限制搜索结果必须 是那些在 anchor 文字里包含了我们所有查询关键词的网页 例 allinanchor best museums Sydney 提交这个查询 Google 仅仅会返回在网页 anchor 说明文字里边包含了关键词 best museums 和 Sydney 的网面 allintext keywords当我们用 allintext 提交查询的时候 Google 会限制搜索结果仅仅是在网页 正文里边包含了我们所有查询关键词的网页 例 allintext travel packing list 提交这个查询 Google 仅仅会返回在一个网页包含了三个关键词 travel packing 和 list 的网页 allintitle keywords当我们用 allintitle 提交查询的时候 Google 会限制搜索结果仅是那些在 网页标题里边包含了我们所有查询关键词的网页 例 allintitle detect plagiarism 提交这个查询 Google 仅会返回在网页标题里边包含了 detect 和 plagiarism 这两个 关键词的网页 allinurl keywords当我们用 allinurl 提交查询的时候 Google 会限制搜索结果仅是那些在 URL 网址 里边包含了我们所有查询关键词的网页 例 allinurl google faq 提交这个查询 Google 仅会返回在 URL 里边包含了关键词 google 和 faq 的网页 象 等的网页 author keywords当我们用 author 进行查询的时候 Google 会限制返回结果仅仅是那些在 Google 论坛里边 包含了特定作者的新闻文章 在这里 作者名可以是全名 也可以是一部分或邮件地 址 例 children author john author doe 或 childrenauthor doe 返回结果将是作者 John Doe 或是 doe 写的 关于包含关键词 children 的文章 cache 提交 cache url Google 会显示当前网页的快照信息 从而替换网页的当前信息 例 cache www eff org 提交 这个查询 Google 会返回所有抓取的关于 www eff org 的网页快照信息 在显示的网页快照信息里边 Google 会高亮显示查询关键词 在 cache 和 URL 之间不能有空格 inanchor 当我们用 inanchor 提交查询的时候 Google 会限制结果是那些在网页 anchor 链接里边 包含了查询关键词的网页 例 restaurants inanchor gourmet 提交这个查询 Google 会查询那些在 anchor 信息里包含了关键词 restaurants 和关键词 gourmet 的网页 intext 当我们用 intext 进行查询的时候 Google 会返回那些在文本正文里边包含了我们查询关键词 的网页 Hamish Reid intext pandemonia 提交这个查询的时候 Google 会返回在文本正文包含查询关键字 pandemonia 在其它任何地方包含关键词 Hamish 和 Reid 的网页 intext 后面直接跟查询关键 字 不能有空格 intitle 当我们用 intitle 进行查询的时候 Google 会返回那些在网页标题里边包含了我们查询关键 词的网页 例 flu shot intitle help 提交这个查询 Google 会返回在网页标题包含了查询关键字 help 而在其它任何地 文包含了查询关键字 flu 和 shot 的网页 intitle 后面也不能有空格 inurl 当我们用 inurl 进行查询的时候 Google 会返回那些在 URL 网址 里边包含了我们查询关键 词的网页 例 inurl print site 提交这个查询 Google 会查找 这个网站下面网址里边 包含了查询关键词 print 的网页 link 当我们使用 link URL 提交查询的时候 Google 会返回跟此 URL 做了链接的网站 例 link 提交这个查询 我们将得到所有跟 这个网站做了链接 的网站 link 是个单独的语法 只能单独使用 且后面不能跟查询关键词 跟能跟 URL related 用 related 提交查询 Google 会返回跟我们要查询的网站结构内容相似的一些其它网站 例 related www consumerreports org 提交这个查询 Google 会返回所有跟网站 www consumerreports org 结构内容相似的网站 我们 也可以通过点击搜索结果后面的相似网页 来查询跟当前网页类似的网页 related 后面不能跟空格 site 当我们用 site 提交查询的时候 Google 会限制查询仅在某个网站 或是某个域下面进行 例 admissions site www lse ac uk 提交这个查询仅仅会搜索网站 www lse ac uk 下面关于 admissions 的信息 我们还可以限制搜索仅在域下面进行 例 javascript site 提交这个查询 仅仅在教育网查询关于 javascript 的信息 site 后面不能跟空格 且 site 命令可以配合其它命令进行 这些命令是我们经常要用到的 你如果要查看完整的 google 搜索命令 可以百度一下 google 搜索命令 这些命令可以混搭着使用 比如 inurl profile php intitle lost weight powered by wordpress leave a comment 该搜索命令可以将 URL 中含有 profile php title 中含有 lost weight 的可以留评论的 wordpress 论坛找出来 搜索搜索 Auto approved 博客博客 如果英文基础比较好 可以看这篇文章 如何制作 ScrapeBox 的 Auto Approve List 自动审核列表 由于现在博客评论被滥用的比较厉害 很多博主都开启了博客反留言插件 这大大的降低了博客发送的成 功率 为了增加博客群发的成功率 寻找大量的 autoapproved 的博客就成了做排名的一个好方法 上图中演示了基本的 SB 操作 从 Merge 关键词 输入关键词 footprint 抓取免费代理 IP 开始收割 博客 URL 地址都有箭头做说明 由于这些基本的操作很容易就弄明白了 所以这里不做多讲 在收割结束后 要对 URL 进行整理 删除重复的博客 URL 删除 PR 较低的域名等等 由于这里要对去重过的 URL 进行群发 验证是否 auto approved 群发的量会有点多 所以要准备一个 垃圾域名 或者被 K 掉的域名 将收割到的 URL 转移到评论区 list 按钮 Transfer url to Blog Lsit 然后选择 fast poster 等待 SB 发送结束 然后使用 expert posted entries 保存 接着使用 expert posted entries 把发送失败的 URL 导出保存 再重复上述过程 不停的将 failed 的博客进行 fast poster 直到剩下最后一个 URL 然后开启 check links 模式 将所有 post 出去的 URL 进行验证 如果有你 URL 连接的 就说明是 auto approved 整 个流程看下图 偷偷 Spammer 的外链的外链 现在一些老手都会自己收集整理 Auto approved 博客评论 list 如果我们找到他的网站 把他的评论博 客 URL 收集整理 就成了我们的 Auto approved 博客 list 了 这样收集到的 URL 质量又高 效率更加 不用说了 步骤 1 将平时看到的在做博客评论群发的网站收集起来 2 使用 addon 插件 link extractor 导入收集到的正在做博客群发的网站 list 3 然后选择 both 模式开始收割站内 URL 记住了 这里是收集站内 URL 为什么呢 很多老手做外链都 是站内所有 URL 都发 不把所有外链只想首页 收集他所有的站内 URL 可以抓取到更多的资源 这里 需要指出的是这种方法只能收集到一部分 URL 不能确保站内所有 URL 都被收集到 如果要收集站内所 有 URL 请看下图 4 将 link extractor 收集的 URL 导出来 然后把 list 导入到插件 backlink checker 中 5 Backlink checker 整理的数据再导入到 addon 插件 blog analyzer 把不是 blog 的 url 去掉 6 然后使用第五章讲到的方法对外链进行整理 找 auto approved 博客 收集收集 Spammer 利基站内所有外链利基站内所有外链 在寻找auto approved博客和偷Spammer的外链中已经说过使用 link extractor 抓取一个网站内部的部分 URL 该方法有个小毛病 资料不齐全 然后 SB 不能对抓取到的 URL 内部链接进行整理 会有 page html 这样的链接 而不能转化为 这里我们以百度为例讲解 1 在 SB 中输入搜索 footprint 关键词 site 2 抓取免费代理 IP 3 启动 harvester 开始收集 baidu 站内所有的 URL 4 将搜索的结果导入到 Backlink checker 中 5 Backlink checker 整理的数据再导入到 addon 插件 blog analyzer 把不是 blog 的 url 去掉 6 然后使用 SCRAPEBOX的Footprint 讲到的方法对外链进行整理 找 auto approved 博客 寻找高寻找高 PR 的博客群发的博客群发 虽然说 google 的 PR 对排名的作用不再明显 但是 PR 依然是判断网站质量的一个因素 高 PR 的网站 质量不一定高 但是高质量的网站的 PR 一般都比同类型低质量的网站要高 所以找个高质量的网站做群 发肯定要比低 PR 的网站效果要来的
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025年度财务顾问财务顾问顾问团队能力提升服务协议
- 2025年度对外贸易合同二:国际贸易绿色包装与环保材料采购合同
- 2025版十九组太阳能路灯工程智能化管理系统开发合同
- 2025年度地产代理合同:长租公寓项目
- 2025版室内设计师墙纸师傅定制施工合作协议书
- 贵州省兴仁县2025年上半年事业单位公开遴选试题含答案分析
- 2025版沿街商铺租赁合同(含装修设计、广告投放及物业增值服务)
- 2025版企业间知识产权质押借款合同标准文本
- 2025版临时工劳务合同标准范本
- 2025年光伏发电项目电气设施安装施工合同
- 《老年学概论(第3版)》课件第一章
- GB/T 32177-2015耐火材料中B2O3的测定
- GB/T 13955-2017剩余电流动作保护装置安装和运行
- GB/T 11968-2020蒸压加气混凝土砌块
- 基础生态学-生态系统生态学课件
- 幼小可爱卡通家长会通用
- 中西医治疗高血压课件
- TOP100经典绘本课件-《大卫上学去》
- 《古代汉语(II)》课程教学大纲(本科)
- 高血压病人健康教育
- 2021年医院院感知识竞赛理论题目含答案
评论
0/150
提交评论