利用python编写简易POC脚本

POC:概念证明,即概念验证(英语:Proof of concept,简称POC)是对某些想法的一个较短而不完整的实现,以证明其可行性,示范其原理,其目的是为了验证一些概念或理论。 

声明:请勿利用文章内的相关技术从事非法测试,如因此产生的一切不良后果与文章作者和本博客无关。

        今天本来在手刷漏洞(太菜了,0day挖不出来,只能捡漏一下大佬挖过的),用Fofa API调用的脚本搜集一下最近刚了解到的网络设备漏洞的网站信息,导出后发现大概600多条。太多了,手刷有点慢,到网上找了一下也没有发现此类POC利用的脚本,想了想不如自己写一个简易的方便以后操作,编写完成后想着与大家分享一下编写思路。(Fofa API调用脚本网上有很多大佬写好的,大家可以自行找一下)

编写思路

第1步:找爬虫代码

随便找了一个爬虫代码

import urllib.request
url = ""                               #请求的URL地址
user_agent = "Mozilla/5.0 (Windows NT 5.1; rv:5.0) Gecko/20100101 Firefox/5.0"
headers = {"User-Agent":user_agent}    #定义了一个名为"user_agent"的变量,其中存储了一个用户代理(User-Agent)字符串,用来伪装成Mozilla Firefox浏览器
req = urllib.request.Request(url,headers = headers) #创建一个Request对象
response = urllib.request.urlopen(req)              #发送请求并获得响应
html = response.read()                              #读取响应内容复制给html
print(html)                                         #打印html

第2步:更改输出信息

改一下输出,当成功访问时,输出网站地址;如果发生异常,则会打印异常信息

import urllib.request
url = ""                       #请求的URL地址
user_agent = "Mozilla/5.0 (Windows NT 5.1; rv:5.0) Gecko/20100101 Firefox/5.0"
headers = {"User-Agent": user_agent}
req = urllib.request.Request(url, headers=headers)
try:
    urllib.request.urlopen(req)
    print("成功访问:"+url)    #访问成功则打印 请求的URL
except Exception as e:
    print(e)                  #访问失败则打印 异常信息

第3步:SSL证书验证报错

 当访问 https 协议网页是发生了报错:

这个错误是由于SSL证书验证失败引起的。在使用 urllib.request.urlopen() 函数发送HTTPS请求时,会对服务器的SSL证书进行验证,以确保连接的安全性。

更改代码直接忽略SSL证书验证(这样做会降低连接的安全性,需要谨慎使用)

import urllib.request
import ssl
url = ""                    #请求的URL地址
user_agent = "Mozilla/5.0 (Windows NT 5.1; rv:5.0) Gecko/20100101 Firefox/5.0"
headers = {"User-Agent":user_agent}
req = urllib.request.Request(url,headers = headers)
context = ssl._create_unverified_context()
try:
    urllib.request.urlopen(req, context=context)
    print("成功访问:"+ url)
except Exception as e:
    print(e)

第4步:读取文件中的URL

因为此时还是需要手动向代码内添加请求URL,所以我们利用循环语句读取文件内的URL来进行判断(代码中文件名为 urls.txt ,可以根据需要自己更改)

import urllib.request
import ssl
user_agent = "Mozilla/5.0 (Windows NT 5.1; rv:5.0) Gecko/20100101 Firefox/5.0"
headers = {"User-Agent": user_agent}
context = ssl._create_unverified_context()
# 从txt文件中读取url列表
with open("urls.txt", "r") as file:
    urls = file.readlines()
# 使用for循环遍历url列表
for url in urls:
    url = url.strip()  # 去除每行url中的换行符和空白字符
    req = urllib.request.Request(url, headers=headers)
    try:
        urllib.request.urlopen(req, context=context)
        print("成功访问:" + url)
    except Exception as e:
        print(e)

第5步:文件目录和参数信息可控

在利用漏洞进行测试时,我们需要根据不同的漏洞自行输入不同的 文件目录 和 参数信息,所以我们需要可控的函数进行传参(parsed_url[2]和parsed_url[4]分别为文件目录和参数信息传参位置)

urlparse() 函数是Python标准库中 urllib.parse 模块提供的一个函数,用于解析URL字符串并返回一个包含URL各个部分的命名元组。

        URL(Uniform Resource Locator)是用于标识互联网上资源位置的字符串。例如,https://example.com/index.html 就是一个URL。它由多个部分组成,包括协议(scheme)、网络位置(netloc)、路径(path)、查询参数(query)、片段(fragment)等。

quote() 函数是Python标准库中 urllib.parse 模块提供的一个函数,用于将字符串进行URL编码。该函数将字符串中的特殊字符转换为它们的十六进制表示,以便它们可以安全地在URL中传输。

import urllib.request
import ssl
from urllib.parse import urlparse, quote
user_agent = "Mozilla/5.0 (Windows NT 5.1; rv:5.0) Gecko/20100101 Firefox/5.0"
headers = {"User-Agent": user_agent}
context = ssl._create_unverified_context()
# 从txt文件中读取url列表
with open("1.txt", "r") as file:
    urls = file.readlines()
# 使用for循环遍历url列表
for url in urls:
    url = url.strip()  # 去除每行url中的换行符和空白字符
    parsed_url = list(urlparse(url))  # 将元组对象转换成列表
    parsed_url[2] += ""  # 将字符串添加到path属性上
    parsed_url[4] = ""  # 修改查询参数部分的值
    encoded_path = quote(parsed_url[2])  # 对路径部分进行编码
    encoded_query = quote(parsed_url[4])  # 对查询参数部分进行编码
    final_url = f"{parsed_url[0]}://{parsed_url[1]}{encoded_path}?{encoded_query}"  # 拼接编码后的URL
    req = urllib.request.Request(final_url, headers=headers)
    try:
        urllib.request.urlopen(req, context=context)
        print("成功访问:" + final_url)
    except Exception as e:
        print(e)

第6步:自动添加协议头

        在运行过程中产生了报错(因为报错涉及隐私信息就不做展示了),此错误是因为在创建 urllib.request.Request 对象时,报告了一个位置的URL类型。通过对错误信息查看发现缺少了协议部分,这是由于URL字符串格式不正确导致的,查看后发现导出到 txt 文件中的网站信息存在部分没有协议。

对url进行判断,如果有用协议部分,自动添加http协议头

import urllib.request
import ssl
from urllib.parse import urlparse, quote
user_agent = "Mozilla/5.0 (Windows NT 5.1; rv:5.0) Gecko/20100101 Firefox/5.0"
headers = {"User-Agent": user_agent}
context = ssl._create_unverified_context()
# 从txt文件中读取url列表
with open("1.txt", "r") as file:
    urls = file.readlines()
# 使用for循环遍历url列表
for url in urls:
    url = url.strip()  # 去除每行url中的换行符和空白字符
    parsed_url = list(urlparse(url))  # 将元组对象转换成列表
    if not parsed_url[0]:  # 如果协议部分为空字符串,则手动添加默认协议
        parsed_url[0] = "http"
    parsed_url[2] += ""  # 将字符串添加到path属性上
    parsed_url[4] = ""  # 修改查询参数部分的值
    encoded_path = quote(parsed_url[2])  # 对路径部分进行编码
    encoded_query = quote(parsed_url[4])  # 对查询参数部分进行编码
    final_url = f"{parsed_url[0]}://{parsed_url[1]}{encoded_path}?{encoded_query}"  # 拼接编码后的URL
    req = urllib.request.Request(final_url, headers=headers)
    try:
        urllib.request.urlopen(req, context=context)
        print("成功访问:" + final_url)
    except Exception as e:
        print(e)

        此时一个网络设备漏洞利用的简易POC就编写完成了,parsed_url[2]和parsed_url[4]分别为文件目录和参数信息传参位置