Python实战:将爬虫获取到的数据存到数据库中

在前几篇 Python 实战中,我们直接把爬虫获取到的数据存储到 excel 文件或者 csv 文件中。今天,我们将爬虫获取到的数据存储到数据库中。

而存到数据库中,我们可以选择 MySQL、PostgreSQL、SqLite、Sql Server 等数据库。

在这些数据库中 SqLite 最轻量级、不需要配置,Python 自带 SQLite ,今天我们选择将爬虫获取到的数据存到 SQLite 数据库中,以便以后进行查询和分析。

一、SQLite 简介

SQLite 是一个轻量级的关系型数据库,它是一个开源的嵌入式数据库引擎。SQLite 占用资源非常少,通常用于嵌入式应用程序和移动设备,也经常被用作桌面应用程序的本地数据库。由于其小巧和便携性,SQLite 成为了许多开发人员的首选数据库。

二、创建sqlite数据库

Python 的标准库中包含了一个名为 sqlite3 的模块,可以用于访问 SQLite 数据库。要使用 SQLite,只需在 Python 代码中导入 sqlite3 模块即可。

# 导入模块
import sqlite3
# 连接数据库
conn = sqlite3.connect('sqlite_test.db')
# 创建一个游标对象,用于执行 SQL 语句
cursor = conn.cursor()
# 创建表
cursor.execute('''CREATE TABLE person
       (id varchar(20) PRIMARY KEY,
        name varchar(20));''')
# 新增
cursor.execute("INSERT INTO person (id, name) VALUES ('1', '张三')")
cursor.execute("INSERT INTO person (id, name) VALUES ('2', '李四')")
cursor.execute("INSERT INTO person (id, name) VALUES ('3', '王五')")
# 关闭 cursor
cursor.close()
# 提交当前事务
conn.commit()
# 关闭连接
conn.close()

在同一级文件目录下,可以查看刚才执行程序后生成的数据库文件,截图如下:

三、数据库图形化工具

我们可以通过 SQLiteStudio、Navicat for SQLite 等图形化工具,或者在 Pycharm 中安装 Database Navigator 插件,直观的查看数据库表结构和数据。

本文使用 SQLiteStudio 图形化工具。

1、SQLiteStudio

  • GitHub 开源地址:https://github.com/pawelsalawa/sqlitestudio
  • 下载地址 1:https://sqlitestudio.pl/
  • 下载地址 2:https://github.com/pawelsalawa/sqlitestudio/releases

    下载、安装、打开 SQLiteStudio,连接刚才生成的sqlite_test.db数据库文件,打开person表,就可以直观的看到刚才写入到数据库中的数据。

    2、Database Navigator插件

    也可以在 Pycharm 中安装 Database Navigator 插件,查看数据库表结构和数据。

    四、爬虫实战

    以爬取王者荣耀官网展示的 117 个英雄,保存到 SQLite 数据库为例。

    打开王者荣耀官网——英雄资料网页,url 为https://pvp.qq.com/web201605/herolist.shtml

    打开开发者工具,查看 Network 中的请求,找到heroist.json这个请求,在 Headers 里可以找到请求 url 为https://pvp.qq.com/web201605/js/herolist.json

    在 Response 里可以看到返回的是 117 个英雄的属性,我们只保存其中的ename 、cname、 title 、skin_name4 个字段到本地数据库。

    分析完成,开始写爬虫代码和保存到 SQLite 数据库的代码。

    完整代码如下:

    import requests
    import pandas as pd
    import sqlite3
    url = "https://pvp.qq.com/web201605/js/herolist.json"
    response_json = requests.get(url).json()
    df = pd.json_normalize(response_json, errors='ignore')
    # 选择保存的列
    df = df.loc[:, ['ename', 'cname', 'title', 'skin_name']]
    # 创建一个SQLite数据库连接
    conn = sqlite3.connect('herolists.db')
    # 将DataFrame写入SQLite数据库
    df.to_sql('herolists_table', conn, if_exists='replace', index=False)
    # 提交更改并关闭连接
    conn.commit()
    conn.close()
    

    上面代码的执行逻辑如下:

    1. 导入所需的库:requests(用于发送 HTTP 请求),pandas(用于处理数据)和 sqlite3(用于连接 SQLite 数据库)。
    2. 定义 API 的 URL。
    3. 使用 requests.get() 方法获取 API 的响应,并使用 json() 方法将其转换为 JSON 格式。
    4. 使用 pd.json_normalize() 方法将 JSON 数据转换为 Pandas DataFrame。
    5. 选择要保存的列(ename、cname、title 和 skin_name)。
    6. 使用 sqlite3.connect() 方法创建一个 SQLite 数据库连接。
    7. 使用 df.to_sql() 方法将 DataFrame 写入 SQLite 数据库。if_exists='replace' 参数表示如果表已存在,则替换它。index=False 参数表示不包含索引列。
    8. 使用 conn.commit() 方法提交更改,并使用 conn.close() 方法关闭连接。

    五、查看数据

    使用 SQLiteStudio 图形化工具,连接刚才生成的herolists.db数据库文件,打开herolists_table表,就可以直观的看到刚才写入到数据库中的数据,117 条数据已经保存到 SQLite 数据库。

    六、总结

    在这个 Python 实战中,我们学习了如何将爬虫获取到的数据存储到数据库中。首先,我们使用requests库获取了 API 的数据,并将其转换为 JSON 格式。然后,我们使用pandas库将 JSON 数据转换为 DataFrame,并从中选择了需要保存的列。接下来,我们使用sqlite3库创建了一个 SQLite 数据库连接,并将 DataFrame 写入到了数据库中。最后,我们提交了更改并关闭了连接。

    通过这个实战,我们学会了如何使用 Python 将爬虫获取到的数据存储到 SQLite 数据库中。这为我们在实际项目中处理和分析数据提供了很大的便利。然而,这仅仅是一个简单的示例,实际项目中可能需要处理更复杂的数据和数据库。因此,我们需要不断学习和探索,以提高自己的数据处理能力。

    本文首发在“程序员coding”公众号,欢迎关注与我一起交流学习。