python爬虫爬下来的数据怎么导入到MySQL

下载mysql.connector库

然后把爬虫爬到的数据通过mysql里面的insert语句查到数据库,当然也可以建表,一般我没用python建表 是先建好再写数据的

import mysql.connector

conn = mysql.connector.connect(

    user=’root’,

    password=’root’,

    host=’127.0.0.1′,

    port=’3306′,

    database=’test_demo’

)

cursor = conn.cursor()

cursor.execute(“INSERT INTO test_user(`uuid`,`user_name`,`user_level`) VALUES (%s,%s,%s)”,[id, user_name, user_level])

cursor.execute(“INSERT INTO tieba_user_detail(`user_name`,`user_exp`,`user_sex`,`tieba_age`,`tieba_note`,`user_favorites`,`user_fans`) VALUES (%s,%s,%s,%s,%s,%s,%s)”,[user_name,user_exp,user_sex, tieba_age,tieba_note, user_favorites, user_fans])

print(‘************** %s  %s 数据保存成功 **************’%(user_rank,user_name))

conn.commit()

cursor.close()

插进入就这样的

python爬虫将数据导入到mysql数据库时,报错_mysql_exceptions.programmingerror 1146

那肯定是因为你的insert语句里面的values有问题,这些值都为空,所以你返回结果行为None,你可以试着输出一下self.insertSql这个变量,看看输出来的结果是什么就知道了。

或者是你把values的值换成字符串,成功插入后再修改成变量,慢慢调试。

这种数据库操作的问题,最好是要好好检查下自己的sql语句。

scrapy异步爬虫运行正常为什么没有将数据存储到mysql中去

Scrapy依赖于twisted,所以如果Scrapy能用,twisted肯定是已经安装好了。

抓取到的数据,可以直接丢到MySQL,也可以用Django的ORM模型丢到MySQL,方便Django调用。方法也很简单,按数据库的语句来写就行了,在spiders目录里定义自己的爬虫时也可以写进去。

当然使用pipelines.py是更通用的方法,以后修改也更加方便。你的情况,应该是没有在Settings.py里定义pipelines,所以Scrapy不会去执行,就不会生成pyc文件了。

python爬虫用什么库

以下是爬虫经常用到的库

请求库

1. requests

requests库应该是现在做爬虫最火最实用的库了,非常的人性化。有关于它的使用我之前也写过一篇文章 一起看看Python之Requests库 ,大家可以去看一下。

2.urllib3

urllib3是一个非常强大的http请求库,提供一系列的操作URL的功能。

3.selenium

自动化测试工具。一个调用浏览器的 driver,通过这个库你可以直接调用浏览器完成某些操作,比如输入验证码。

对于这个库并非只是Python才能用,像JAVA、Python、C#等都能够使用selenium这个库

4.aiohttp

基于 asyncio 实现的 HTTP 框架。异步操作借助于 async/await 关键字,使用异步库进行数据抓取,可以大大提高效率。

这个属于进阶爬虫时候必须掌握的异步库。有关于aiohttp的详细操作,可以去官方文档:

Python学习网- 专业的python自学、交流公益平台!

解析库

1、beautifulsoup

html 和 XML 的解析,从网页中提取信息,同时拥有强大的API和多样解析方式。一个我经常使用的解析库,对于html的解析是非常的好用。对于写爬虫的人来说这也是必须掌握的库。

2、lxml

支持HTML和XML的解析,支持XPath解析方式,而且解析效率非常高。

3、pyquery

jQuery 的 Python 实现,能够以 jQuery 的语法来操作解析 HTML 文档,易用性和解析速度都很好。

数据存储

1、pymysql

官方文档:

一个纯 Python 实现的 MySQL 客户端操作库。非常的实用、非常的简单。

2、pymongo

官方文档:

顾名思义,一个用于直接连接 mongodb 数据库进行查询操作的库。

3、redisdump

redis-dump是将redis和json互转的工具;redis-dump是基于ruby开发,需要ruby环境,而且新版本的redis-dump要求2.2.2以上的ruby版本,centos中yum只能安装2.0版本的ruby。需要先安装ruby的管理工具rvm安装高版本的ruby。

爬虫不装mysql可以吗

爬虫是一种技术,很多编程语言都可以实现爬虫。

mysql是一个数据库,还有oracle,sqlserver,mangodb,这些都是数据库

其实两者并没有必然的联系。不过你爬下来的数据储存在哪里呢?可以当时显示后就废弃了,可以暂时保存在内存里,可以保存在文本流里面,也可以保存在数据库里。这个要看你具体的需求了。譬如,你爬下来的数据比较大,需要长期保存,或者需要累加,做数据处理。你就要把数据储存在数据库里面。

所以装不装mysql实际上是不影响爬虫技术的学习和实现的。