盘点一个Python网络爬虫抓取股票代码问题(上篇)

Python进阶者
• 阅读 381

大家好,我是皮皮。

一、前言

前几天在Python白银群【厚德载物】问了一个Python网络爬虫的问题,这里拿出来给大家分享下。

盘点一个Python网络爬虫抓取股票代码问题(上篇)

二、实现过程

这个问题其实for循环就可以搞定了,看上去粉丝的代码没有带请求头那些,导致获取不到数据。后来【瑜亮老师】、【小王子】给了具体思路,代码如下图所示:

盘点一个Python网络爬虫抓取股票代码问题(上篇)

后来【小王子】也给了一个具体代码,如下:

import requests
import time

headers = {
    "authority": "stock.xueqiu.com",
    "accept": "*/*",
    "accept-language": "zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6",
    "origin": "https://xueqiu.com",
    "referer": "https://xueqiu.com/S/SH600600",
    "sec-ch-ua": "\"Not.A/Brand\";v=\"8\", \"Chromium\";v=\"114\", \"Microsoft Edge\";v=\"114\"",
    "sec-ch-ua-mobile": "?0",
    "sec-ch-ua-platform": "\"Windows\"",
    "sec-fetch-dest": "empty",
    "sec-fetch-mode": "cors",
    "sec-fetch-site": "same-site",
    "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36 Edg/114.0.1823.51"
}
cookies = {
    "xq_a_token": "57b2a0b86ca3e943ee1ffc69509952639be342b9",
    "xqat": "57b2a0b86ca3e943ee1ffc69509952639be342b9",
    "xq_r_token": "59c1392434fb1959820e4323bb26fa31dd012ea4",
    "xq_id_token": "eyJ0eXAiOiJKV1QiLCJhbGciOiJSUzI1NiJ9.eyJ1aWQiOi0xLCJpc3MiOiJ1YyIsImV4cCI6MTY5MDMzMTY5OCwiY3RtIjoxNjg3ODcxOTQxNTM1LCJjaWQiOiJkOWQwbjRBWnVwIn0.KI3paq6_r2IZuM5AemhFqy5l1vVFsxf7ICELsem_rwAd0yYo_8bfOs1aP_5BBO3_rJuP9r6CJslCg1S_icefsPgqgtWZwVzfcIwvoLlZaag4a9IjqBxc2G6Ug50F9_UMLifzbNDrN4u8kwjm0sXHFUYnT_I89pwr0CeEgC4-jo9ExazlXJFZk_tA40C6L3npCVkKk8cOfl5JnvVUADXdef8G54jAsL_N5Sjx30YKxU1_2aUKRJZhRlN6bXqcXIP466odbBSBrMp52FFdB1knI2IN4dQJ5Hg4PRQyCsyFtgp-h_s_Rru4nwFqN6aiXPgLue1pGFGg25qBvTVr2m_9cQ",
    "u": "561687871945884",
    "device_id": "27b6ec56b772ea40c8582168f00a7604",
    "Hm_lvt_1db88642e346389874251b5a1eded6e3": "1687871949",
    "s": "ci1eygzbit",
    "is_overseas": "0",
    "Hm_lpvt_1db88642e346389874251b5a1eded6e3": "1687872001"
}
url = "https://stock.xueqiu.com/v5/stock/quote.json"
symbols = ['SH600600', 'SH600519', 'SH301183']
for symbol in symbols:
    params = {
        "symbol": f"{symbol}",
        "extend": "detail"
    }
    response = requests.get(url, headers=headers, cookies=cookies, params=params)
    time.sleep(3)

    print(response.text)
    print(response)

代码运行之后,可以得到具体的结果,如下图所示:

盘点一个Python网络爬虫抓取股票代码问题(上篇)

【瑜亮老师】后面还补充了一个代码,如下所示:

for i in ['SH600519','SZ300600','SZ301183']:
    url = f"https://stock.xueqiu.com/v5/stock/quote.json?symbol={i}&extend=detail"
    response = requests.get(url=url, headers=headers,cookies=cookies)
    json_data = response.json()
    print(json_data)

顺利地解决了粉丝的问题。方法很多,条条大路通罗马,能解决问题就好。

盘点一个Python网络爬虫抓取股票代码问题(上篇)

三、总结

大家好,我是皮皮。这篇文章主要盘点了一个Python网络爬虫的问题,文中针对该问题,给出了具体的解析和代码实现,帮助粉丝顺利解决了问题。

最后感谢粉丝【厚德载物】提问,感谢【瑜亮老师】、【魏哥】、【kim】、【巭孬嫑勥烎】给出的思路和代码解析,感谢【冫马讠成】、【Ineverleft】等人参与学习交流。

【提问补充】温馨提示,大家在群里提问的时候。可以注意下面几点:如果涉及到大文件数据,可以数据脱敏后,发点demo数据来(小文件的意思),然后贴点代码(可以复制的那种),记得发报错截图(截全)。代码不多的话,直接发代码文字即可,代码超过50行这样的话,发个.py文件就行。

盘点一个Python网络爬虫抓取股票代码问题(上篇)

点赞
收藏
评论区
推荐文章
Python进阶者 Python进阶者
2年前
Python网络爬虫过程中,构建网络请求的时候,参数`stream=True`的使用
大家好,我是皮皮。一、前言前几天在Python最强王者交流群【德善堂小儿推拿瑜亮老师】分享了一个关于Python网络爬虫的问题,这里拿出来给大家分享下,一起学习。二、解决过程这里【PI】大佬提出了思路,的确可行。【皮皮】给了一份代码,取巧,这里就不展示了。后来【月神】给了一份可行的代码,如下所示:forurlinallurl:respr
Python进阶者 Python进阶者
1年前
为啥chrome查看到网页,只有5000多行,应该有1万多行才对
大家好,我是皮皮。一、前言前几天在Python白银交流群【磐奚鸟】问了一个Python网络爬虫处理的问题,这里拿出来给大家分享下。二、实现过程这里【惜君】给了一个指导,可能网站有限制数据量。这里【瑜亮老师】发现了问题所在,如下图所示:数据方面确实存在,顺利
Python进阶者 Python进阶者
1年前
我在比较时序数据时,程序报错说数据标签有问题
大家好,我是皮皮。一、前言前几天在Python白银群【黑白人生】问了一个Pandas数据处理的问题,这里拿出来给大家分享下。截图如下图所示:数据截图如下所示:二、实现过程这里【论草莓如何成为冻干莓】给了一个思路,如下所示:看上去还是有点深奥的。后来【瑜亮老
Python进阶者 Python进阶者
1年前
盘点一个Python网络爬虫抓取股票代码问题(下篇)
大家好,我是皮皮。一、前言前几天在Python白银群【厚德载物】问了一个Python网络爬虫的问题,这里拿出来给大家分享下。二、实现过程这个问题其实for循环就可以搞定了,看上去粉丝的代码没有带请求头那些,导致获取不到数据。后来【瑜亮老师】、【小王子】给了
Python进阶者 Python进阶者
1年前
推荐一个下载股票相关数据的库——tuhsare
大家好,我是皮皮。一、前言这个事情还得从前几天在Python白银群【厚德载物】问了一个Python股票网络爬虫的问题说起,因为这个股票数据抓取的问题,引发了大家激烈的探讨,以致于后来大佬们纷纷参与进来。图片二、实现过程这里【袁学东】分享了一个tushare
Python进阶者 Python进阶者
10个月前
Excel中这日期老是出来00:00:00,怎么用Pandas把这个去除
大家好,我是皮皮。一、前言前几天在Python白银交流群【上海新年人】问了一个Pandas数据筛选的问题。问题如下:这日期老是出来00:00:00,怎么把这个去除。二、实现过程后来【论草莓如何成为冻干莓】给了一个思路和代码如下:pd.toexcel之前把这
Python进阶者 Python进阶者
2年前
盘点一道字典转换基础题目
大家好,我是皮皮。一、前言前几天在Python最强王者交流群有个叫【麦当】的粉丝问了一个Python基础问题,这里拿出来给大家分享下,一起学习下。二、解决过程这个问题挺基础的,看上去确实也不难。这里【瑜亮老师】直接给了一个代码d'a':1,'b':2reslist(tuple(d.items()))print(res)后来【月神】发现,其实
Python进阶者 Python进阶者
1个月前
为啥chrome查看到网页,只有5000多行,应该有1万多行才对
大家好,我是皮皮。一、前言前几天在Python白银交流群【磐奚鸟】问了一个Python网络爬虫处理的问题,这里拿出来给大家分享下。二、实现过程这里【惜君】给了一个指导,可能网站有限制数据量。这里【瑜亮老师】发现了问题所在,如下图所示:数据方面确实存在,顺利
Python进阶者 Python进阶者
1年前
盘点一个ddddocr实现登录的实战案例
大家好,我是皮皮。一、前言前几天在Python白银交流群【空翼】问了一个Pyhton网络爬虫的问题,这里拿出来给大家分享下。二、实现过程一开始看上去并不能登录,找不到原因在哪,后来【甯同学】帮忙搞定了,代码如下:coding:utf8@Author:Kon
Python进阶者 Python进阶者
1年前
各位大神,我这代码,咋替换不成功?
大家好,我是皮皮。一、前言前几天在Python白银交流群【崔艳飞】问了一个Pandas处理的问题,这里拿出来给大家分享下。二、实现过程这里【瑜亮老师】给了一个解决思路,如下图所示:顺利地解决了粉丝的问题。虽然有警告,但是不影响操作。三、总结大家好,我是皮皮