acunetix的学习.docx_第1页
acunetix的学习.docx_第2页
acunetix的学习.docx_第3页
acunetix的学习.docx_第4页
acunetix的学习.docx_第5页
已阅读5页,还剩59页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

关于acunetix的学习1. 背景多达 70% 的网络站点存在漏洞,可能会导致公司的敏感数据(例如:信用卡信息和客户列表等)失窃。在今天,网站的安全是容易被忽视的,黑客具备广泛的攻击手段,例如SQL注入,XSS,文件包含,目录遍历,参数篡改,认证攻击等,虽然你配置了正确的防火墙和WAF,但是这些安全防御软件仍然存在策略性的绕过。因此,需要您定期的扫描你的web应用,但是手动检测你所有的web应用 是否存在安全漏洞比较复杂和费时,所以您需要一款自动化的web漏洞扫描工具来检测您的web应用是否存在安全漏洞。2.功能自动的客户端脚本分析器,允许对 Ajax 和 Web 2.0 应用程序进行安全性测试。业内最先进且深入的 SQL 注入和跨站脚本测试高级渗透测试工具,例如 HTTP Editor 和 HTTP Fuzzer可视化宏记录器帮助您轻松测试 web 表格和受密码保护的区域支持含有 CAPTHCA 的页面,单个开始指令和 Two Factor(双因素)验证机制丰富的报告功能,包括 VISA PCI 依从性报告高速的多线程扫描器轻松检索成千上万个页面智能爬行程序检测 web 服务器类型和应用程序语言Acunetix 检索并分析网站,包括 flash 内容、SOAP 和 AJAX端口扫描 web 服务器并对在服务器上运行的网络服务执行安全检查可导出网站漏洞文件3.安装与破解4.各菜单讲解Web Scanner Web扫描器 Site Crawler 网站爬行 Target Finder 可扫描指定网段,开放指定端口的服务器 Subdomain Scanner 子域名扫描 Blind SQL Injector 盲注手工测试 HTTP Editor HTTP信息查看 HTTP Sniffer HTTP监听器 HTTP Fuzzer HTTP模糊测试 Authentication Tester HTTP验证测试 Compare Results 对比两次Acunetix扫描结果 Web Services Scanner 网站服务扫描,例如WSDL Web Services Editor 网站服务手动分析 Vulnerability Editor 编辑wvs提供的漏洞描述信息 Scheduler 任务计划,访问http:/localhost:8181/ Reporter 生成扫描报告 4.1 File序号菜单名称菜单用途1Web Site Scan完成一次网站扫描(爬行和漏洞审计)2Web Site Crawl网站爬行3Web Service Scan网站服务扫描4Report报告5Load Scan Results加载Acunetix的保存结果6Save Scan Results保存Acunetix的扫描结果4.1.1 Web Site Scan菜单:FileNewWeb Site Scan网站扫描开始前,需要设定下面选项 :1) Scan type2) Options3) Target4) Login5) Finsh Scan typel Scan single website在website URL处填入需要扫描的网站网址,如果你想要扫描一个单独的应用程序,而不是整个网站,可以在填写网址的土方写入完整路径,wvs支持HTTP/HTTPS网站扫描。l Scan using saved crawling results导入WVS内置site crawler tool 的爬行结果,然后进行漏洞扫描。结果生成见4.2.1 Site Crawlerl Access the scheduler interface如果对多个网站扫描的话,那么可以使用Acunetix的Scheduler功能完成任务,访问http:/localhost:8181(可修改),扫描后的文件存放在C:UsersPublicDocumentsAcunetixWVS 9Saves.从8.0版本增加此功能。 . Options Options部分的设定主要分为两部分: Scanning options Crawling options 1) Scanning options- Scanning profile 可设定扫描重点,配置文件位于C:ProgramDataAcunetix WVS 8DataProfiles默认15种配置如下(建议深入挖掘wvs的检测机制):AcuSensor Acunetix传感器机制,可提升漏洞审查能力,需要在网站上安装文件,目前主要针对ASP.NET/PHP. Blind SQL Injection 盲注扫描 CSRF 检测跨域访问 Default 默认配置(均检测) Directory And File Checks 目录与文件检测 Empty 不使用任何检测 File Upload 文件上传检测 GHDB 利用Google hacking数据库检测 High Risk Alerts 高风险警告 Network Scripts 网络脚本 Parameter Manipulation 参数操作 Text Search 文本搜索 Weak Passwords 弱密码 Web Applications Web应用程序 Xss 跨站检测 如果需要做调整,请查看菜单 Configuration Scanning Profiles- Scan settings 可定制扫描器扫描选项,例如: Headers and Cookies Parameter Exclusions GHDB Headers and Cookies Test cookies for all files (by default it will only check files with parameters) 访问所有文件,都使用cookie测试(默认情况下,只有带参数的文件才使用cookie进行检测) Manipulate the HTTP headers listed below 操控列表中的cookie,可按照自己的要求定制Parameter Exclusion 有些参数我们无法操纵,但它不会影响会话,应此可进行排除,避免做不必要的扫描测试. - Crawling options After crawling let me choose the files to scan 爬行完成后,我们可以选择具体文件进行扫描(可用于选择想要扫描的文件). Define list of URLs to be processed by crawler at start。 定义爬行起点 ,自定义哪些文件为开始扫描。 . Target 有些时候WVS无法判定服务器所用脚本语言,可手动指定. Login 这个功能是主要录制登录界面,有些产品,如果不登录的话,爬行结果显示仅是登录界面,所录制的文件很少,so设置登录录制后,在爬行中可以获取爬行后的结果。通过点击New Login Sequence链接进行录制并成功自动上传。 Finish.1 Custom error pages网站存在404定制,WVS主要根据成功确定了模式匹配定制404页,这将使用自动匹配在扫描过程中,为了避免这种情况,定义定制404规则设置指定的URL.2 AcuSensor setup在WVS中已启用技术(AcuSensor),但没有在目标服务器上配置安装技术(AcuSensor),如果安装技术(AcuSensor),为服务器设置正确的密码点击定制,可以验证一个特定的服务器响应通过使用技术(AcuSensor)的测试按钮设置.3 Server differentiates between mobile and desktop browsers针对移动和桌面浏览器的网站不同的响应,下面你可以选择要使用的用户代理扫描期间为了扫描网站的部分显示特定的浏览器。.4 Additional hosts deteted存在其它网站时,所选择的网站中确保是想要扫描的网站。.5 Save customized scan setting以后再次扫描相同文件的话就可以选择所保存的设置,如果你计划扫描更多次相同的网站,可以选择在一个新文件保存设置,点击下面的按钮save to a new template了解以上规则,即可开始一次Web Site Scan扫描.4.1.2 . Web Site Crawl 网站爬行,只需设定网站及是否进行启动会话. 会话设置,请访问 Configuration Application Settings Login Sequence Manager此处的会话文件位于C:UsersPublicDocumentsAcunetix WVS 9LoginSequences4.1.3 Web Service Scan 4.1.4 Report使用Configuration Settings可定制报告的某些信息,例如logo等.4.2 tools4.2.1 Site Crawler(网站爬行)输入地址,然后点击start进行开始爬行,左侧显示所爬行的目录,点击上面的保存图标进行保存下来。可以在fileweb site scan中的Scan using saved crawling results中导入所保存的爬行结果4.2.2 Target Finder(目标搜索工具)相当于一款加强版(针对WEB渗透测试)的端口、banner探测工具功能:1、探测指定IP/IP段开放特定端口的IP2、探测出IP后,探测该端口的banner信息,可探测出该端口上运行的WEB服务的中间件的版本信息官方详细介绍:/blog/docs/target-finder/选择列表中记录,右键也可以导出相关信息。80,http服务443,https服务33-1404.2.3 Subdomain Scanner(子域名扫描工具)官方介绍:/blog/docs/subdomain-scanner/页面地址输入一级域名二级域名:一级域名:根域名:com输入一级域名进行扫描,可以扫描出以下的子域名信息。4.2.4 HTTP Editor(HTTP请求编辑器)Encode Tool:编码转换工具官方介绍:/blog/docs/http-editor/1、构造请求数据包并修改2、抓取扫描结果中的数据包并修改步骤如下:在web Scanner中选择所扫描的文件,单击右键弹出的HTTP请求编辑器跳转到相关页面。可以查看发送请求和返回结果的信息。4.2.5 Http Sniffer(代理型http嗅探工具)代理型嗅探工具的工作流程:捕获截断显示重放首先要设置端口,详见 HTTP Sniffer(HTTP 代理设置):Application SettingsHttp Sniffer功能:1、一般搭配http editor或http fuzzer使用2、手动爬行目录4.2.6 HTTP Fuzzer(漏洞测试工具)用于批量数据自动提交 抓包数据这里的数据包可以从http sniffer里发送过来,也可以用其他的抓包工具抓包然后直接粘贴进来。 界面所抓取来的信息在Request中显示信息这一块是用来编辑数据包的。 左侧显示有request和text only两个窗口。右侧是对添加参数变量的功能。 参数变量定义说明.1 Number generator:数字型,由纯数字组成Character generator:字符型,由字符的ASCII值组成(65-90)Start character(ASCII value):开始值(ASCII码)Stop character(ASCII value):结束值(ASCII码)Increment:步长Encoding:编码Increment:步长添加完毕之后单击选中该变量,在下边的界面举例中就可以编辑该变量的参数了:如上图,密码为123456,下面解释一下数字型变量各个参数的含义:Name:变量的名字,这个只是个标识,自己认识就行了,一般不用修改StartNumber:开始值,也就是这个数字型变量从哪个值开始,这里我设定成了123450StopNumber:结束值,也就是这个数字型变量到哪个值结束,这里我设定成了123460Increment:步长,也就是设置fuzzer的时候从StartNumber到StopNumber之间每次增加多大的值,默认是1,那么意思就是每次在StartNumber的基础上加1,比如我这里的StartNumber是123450,StopNumber是123460,Increment是1,那么生成的字典就是:123450123451123452123459123460也就是逐步加1,然后逐次提交。选择左侧所参数化的地方,点击上图的insert into Request中进行设置。比如:$Gen_1,然后再点击start按钮即可,结果如下:看见一个状态码特别的,即是所要寻找的密码。.2 Character generator:字符型由大写字符的ASCII值组成(65-90)小写字符的ASCll值组成(97-122)Start character(ASCII value):开始值(ASCII码)Stop character(ASCII value):结束值(ASCII码)举例,密码为m.3 File generator:从字典导入从文件导入要fuzzer的数据(dict.txt)Filename:文件名Filetype:文件类型Encoding:编码准备包含有十个密码的文件,并导入进去。举例:密码为12345.4 String generator:字符串型由指定长度的字符串组成String length:字符串长度,不能大于Character set的数量Character set:字符设置,不能小于String length的长度Allow repetitions:允许重复Encoding:编码注意:String length如果勾选Allow repetitions时,character set可以小于String length的长度举例:密码为:584586.5 Random string generator:随机型由随机长度的数字/字符串组成String length:字符串长度,不能大于Character set的数量Character set:字符设置,不能小于String length的长度Allow repetitions:允许重复Number of strings:生成的字符串数量,数量必须要在可生成的排列组合的数量范围内Encoding:编码举例:密码为m.6 Character repeater:字符串重复它将把一个特定的字符串发送一个指定的次数Character/String:需要重复发送的字符/字符串Initial count:初始数量Final count:结束数量Increment:步长Encoding:编码举例说明:密码是sasasasa 过滤器(Fuzzer Filters)我们还需要设置过滤器,在Fuzz Filter选项中,规则描述随意填写,主要是类型,有Include(包含)Exlude(排除)两种类型.在应答(Apply to)中还可以设定判断的类型,是所有Response的数据还是HTTP状态码(Basic验证方式).这就由个人来取舍了,很多判断错误的页面会302.设置完成别忘记Add,图示如下:4.2.7 Authentication Tester Authentication method: 支持HTTP/表单验证 Logon has failed if: 可设定验证错误返回的HTTP Code Username dictionary/Password dictionary path: 设定用户名/密码字典.4.3 Configuration4.3.1 Scanning profiles(扫描策略配置)页面默认显示的是Default策略。可以在Filter选择想要的策略点,然后勾 选子节点,点击新建图标,输入扫描名称,则成功创建新的扫描策略。可以在 Options中查看。4.3.2 Scan setting(扫描点设置) Scanning options在此页面设置后的效果与new ScanoptionScan settingscustomize中设置是一样的,区别在于:在此页面设置后,所有扫描都有效果,而后者设置仅在当前扫描有效果。1)是否关闭crawler警告(坏链接,文件输入)2)扫描模式:Heuristic,Quick、 ExtensiveModeDescriptionSpeed/DepthQuickOnly the first value from every parameter will be tested. Scan Speed Scan Depth Heuristic (default) WVS will try to automatically determine which parameters require complex testing.Scan Speed Scan Depth ExtensiveAll possible combinations for every parameter will be tested. When there are a lot of parameters/combinations, this mode will generate a lot of HTTP requests.Scan Speed Scan Depth 3)爬行深度,默认为5(此为默认为五级网址:比如:/2/3/4/5/)4)不发出多于501个相同类型的警告(使用0表示禁用)5)是否开启端口扫描功能(如果认为端口过慢,扫描过慢时,根据实际情况确定是否开启端口扫描)6)是否收集不常规的HTTP请求7)服务器不响应的时候是否忽略扫描,可设定多少次错误以后开始忽略8)在扫描过程中,是否使用网站cookie9)添加其它网站服务器文件路径(默认只扫描同域名下的网站文件)一些网址可能链接其它服务器(比如,),你想要扫描服务器下的网址,可以使用通配符指定服务器名(比如:*. or )说明:如果一个网址为.还有其它的站点如:*. 或者,后面两个站与前面的站点有很密切的联系的话,那么需要添加到扫描中去。具体步骤如下:在hosts中输入指定的网址,点击add Host后会在下面显示所添加的网址。点击Remove Selected可以成功移除所添加的网址。.1 Headers and Cookies在这里你可以调整设置头和cookies的操作1. 所有文件的测试(默认情况下它将只检查文件的参数)2. 控制http头部信息下面提供了6个头部信息,根据实际情况对头部信息进行修改。点击后,下面表中最后一行显示新增的记录,单击三次可以编辑修改名称。.2 Parameter Exdusions如果有些网址中包含的参数值不固定值时,那么扫描时会存在一些错误问题,扫描结果有所影响,为了保证每次扫描结果可比较性,则进行参数配制,把某些参数排除在外。 Crawling Options扫描参数Start HTTP Sniffer for manual crawling at the end of the scan process:爬行完毕之后启动HTTP Sniffer,以发现更多的链接Get first URL only:只扫描首页Do not fetch anything above start folder:不抓取上级目录Fetch files below base folder:抓取子目录Fetch directory indexes even if not linked:抓取所有URL,即使该URL并没有体现在网站上Retrieve and process robots.txt, sitemap.xml:抓取并分析robots.txt、sitemap.xml中的URLIgnore CASE differences in paths:忽略大小写敏感 Enable CSA (analyze and execute JavaScript/AJAX):爬行过程中分析动态脚本,以获得更多URL Fetch external scripts:抓取外部脚本内容Fetch default index files (index.php, Default.asp ):尝试抓取每个目录下的默认文档Try to prevent infinite directory recursion:防止抓取到死循环无限目录Warn user if URL rewrite is detected:如果发现重定向,则提示用户Ignore parameters on file extensions like .js, .css etc:忽略js/css等文件的参数Disable auto custom 404 detection:禁用自动判断404页面功能Consider and as the same host:将www和纯域名识别为不同的主机enable input limitation heuristics: 启用输入限制启发式Disable path manipulation for known applications : 禁用路径操作为已知的应用程序Optimize inputs for known applications : 优化已知应用的输入Maximum number of variations:文件参数的最大变化范围Link Depth Limitation:链接最大深度Structure Depth Limitation:子目录最大深度Maximum number of sub directories:子目录的最大数量Maximum number of files in a directory:目录中的最大文件数量Maximum number of path schemes:判断路径任务的最大任务数Crawler file limit:爬行的最大文件数File Extension Filters中主要设定需要扫描的扩展名,和不需要扫描的扩展名 HTTP OptionsUser agent string:用户User agentLimit number of parallel connections to(1to25):最大并发连接数HTTP request timeout in seconds:超时时间(秒)Delay between consecutive requests in milliseconds:请求延时(毫秒)HTTP response size limit in kilobytes:请求的文件的最大体积(kb)Custom HTTP Headers:自定义http头可以添加信息,然后所添加的信息会出现在head信息中。 LAN Settings在开通代理扫描时,才会设置HTTP代理和SOCKS代理设置。、 DeepScan Custom Cookies(自定义cookies)可以添加cookie名称和cookie值。 Input Fields(表单默认值配置)默认使用随机值$alpharand:随机字符串(a-z)$numrand:随机数字(0-9)$alphanumrand:随机数字+随机字符串*?通配符 Port Scanner(端口扫描)Number of sockets used for scanning:扫描线程Connection timeout (in seconds):超时时间(秒) Custom 404(自定义404页面识别规则)默认wvs会自动识别匹配支持文本、正则表达式Location header:HTTP头部Result Body:HTTP正文Result:HTTP头部+HTTP正文Regular Expression:正则表达式4.3.3 Application Settings(工具配置) Application Updates(软件升级配置)1) 更新当启动WVS时更新当单击check for updates时更新(可以在GengralProgram Updates中(下图)中进行更新) Logging是否使用日志1).记录日志提示信息2).记录日志警告信息3).记录日志错误信息4).记录HTTP发起请求和返回的日志 信息5).仅 记录HTTP日志中的HTTP错误信息6). 记录日志时间戳7).当发现错误时自动切换到Error log面板中去8).支持日志的大小查看日志地址为:C:UsersDSDocumentsAcunetix WVS 9Logs或HelpApplication DirectoriseUsers Directorylogs Database此功能用于存放报告的。如果使用该功能设置有效的话,首先在new Scanoptions中勾选Save scan results to database for report gengration项。在此页面可以选择两个数据类型:MS Access和SQL如果不选时就点击Import database configuration保存的文件地址是:C:ProgramDataAcunetix WVS 9DataDatabase或HelpApplication Directorisedata DirectoryAcunetix WVS 9DataDatabase HTTP Authentication(HTTP验证)此处可设置验证所用的证书Do not prompt for manual authentication:在扫描过程中不要询问是否验证Automatically Save new credentials:自动保存此设置,以便以后使用 Client Certificates(客户端证书)有些网站需要证书验证,才能访问某些资源,此处可指定访问所需证书. Login Sequence Manager(登陆会话管理)注意与前面的HTTP Authentication做区分,它们是两个不同的概念. LoginSequenceManager的功能是记录爬行过程中需要发送登录表单的过程,无需手动输入。 HTTP Authentication 则是完成HTTP请求验证,例如:需要验证才能访问的文件或文件夹。 1)点击New Sequence链接进入以下页面;输入登录地址界面,也可以输入登录后的界面,建议:如果登录前和登录后不是同一网址的话,最好输入登录后的界面2) 记录会话信息(输入用户名和密码的过程)3) 选择退出链接(防止工具扫描到某个链接的时候自动退出)4) 确定关键字(登陆前和登录后的对比关键字)l 登录前和登录后的网l 显示的关键字,自动输入的。在body体中显示有相关的关键字的话,则可以抓取正确的页面。l 点击check pattern来检查关键字是否正确。存在pattern seems to be ok则显示关键字配置成功。5、完成 False Positives(误报)当放在误报中,一旦再出现问题时不会再出现这种错误。在扫描结果中选择扫描的被误报的网站,右键点击弹出框内的:将此风险标记为误报后,会在False Positives中显示出来。 HTTP Sniffer(HTTP 代理设置)Acunetix HTTP 代理设置,默认监听8080端口(此功能默认不开启)Listen on Local interface:只接受本地的代理请求Listen on All interface:接受所有的代理请求l 当选择只接受本地的代理请求时设置本地浏览器LAN代理设置,然后在Toolshttp Sniffer中开启,并同时启动浏览器中的网址,当http Sniffer可以扫描出数据信息。l 当选择接受所有的代理请求时,设置其它机器中的浏览器LAN代理设置(显示当前机器的IP),然后在T

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论