python爬虫项目
- 作者: 五速梦信息网
- 时间: 2026年04月04日 13:31
import requests
import json
import pymysql
class mysql_conn(object):
# 魔术方法, 初始化, 构造函数<br/>
def __init__(self):<br/>
self.db = pymysql.connect(host='127.0.0.1', user='root', password='abc123', port=3306, database='py1011')<br/>
self.cursor = self.db.cursor()<br/>
# 执行modify(修改)相关的操作<br/>
def execute_modify_mysql(self, sql):<br/>
self.cursor.execute(sql)<br/>
self.db.commit()<br/>
# 魔术方法, 析构化 ,析构函数<br/>
def __del__(self):<br/>
self.cursor.close()<br/>
self.db.close()
headers = {
# 使用抓包工具分析发送数据请求到json格式的cookie数据,这是此次动态抓取的重点
'Cookie': xq_a_token=584d0cf8d5a5a9809761f2244d8d272bac729ed4; xq_r_token=98f278457fc4e1e5eb0846e36a7296e642b8138a;<br/>
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36',<br/>
}
url = ‘https://xueqiu.com/v4/statuses/public_timeline_by_category.json?since_id=-1&max_id=-1&count=10&category=111'
response = requests.get(url,headers=headers)
res_dict = json.loads(response.text)
list_lsit = res_dict[’list‘]
db ={}
for list_item_dict in list_lsit:
data_dict = json.loads(list_item_dict['data'])
db[’id‘] = data_dict[’id‘]
db['title'] = data_dict['title']<br/>
db['description'] = data_dict['description']<br/>
db['target'] = data_dict['target']<br/>
try:<br/>
sql = 'insert into xueqiu (uid,title,description,target) values ("{id}","{title}","{description}","{traget}")'.fromart(**db)<br/>
mc = mysql_conn()<br/>
mc.execute_modify_mysql(sql)<br/>
except:<br/>
pass
相关文章
-
Python爬虫小白入门(四)PhatomJS+Selenium第一篇
Python爬虫小白入门(四)PhatomJS+Selenium第一篇
- 互联网
- 2026年04月04日
-
python爬虫遇到会话存储sessionStorage
python爬虫遇到会话存储sessionStorage
- 互联网
- 2026年04月04日
-
python判断columns在第几列
python判断columns在第几列
- 互联网
- 2026年04月04日
-
python爬虫模拟登陆
python爬虫模拟登陆
- 互联网
- 2026年04月04日
-
python爬虫基础15
python爬虫基础15
- 互联网
- 2026年04月04日
-
Python爬虫:抓取新浪新闻数据
Python爬虫:抓取新浪新闻数据
- 互联网
- 2026年04月04日






