博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Python爬虫入门教程 22-100 CSDN学院课程数据抓取
阅读量:7146 次
发布时间:2019-06-29

本文共 2499 字,大约阅读时间需要 8 分钟。

1. CSDN学院课程数据-写在前面

今天又要抓取一个网站了,选择恐惧症使得我不知道该拿谁下手,找来找去,算了,还是抓取CSDN学院吧,CSDN学院的网站为 我看了一下这个网址,课程数量也不是很多,大概有 6000+ 门课程,数据量不大,用单线程其实就能很快的爬取完毕,不过为了秒爬,我还是选用了一个异步数据操作。

2. CSDN学院课程数据-分析页码

还是需要好好的分析一下页码规律

https://edu.csdn.net/courses/p2https://edu.csdn.net/courses/p3https://edu.csdn.net/courses/p4... ...https://edu.csdn.net/courses/p271复制代码

页码还是非常有规律的,直接编写代码就可以快速的爬取下来。出于人文关怀,我还是把协程数限制在3,要不顺发271个请求还是有点攻击的性质了。这样不好,不符合我们的精神。

import asyncioimport aiohttpfrom lxml import etreesema = asyncio.Semaphore(3)async def get_html(url):    headers = {        "user-agent": "自己找个UA即可"    }	'''	本文来自 梦想橡皮擦 的博客	地址为:  https://blog.csdn.net/hihell  	可以任意转载,但是希望给我留个版权。	'''    print("正在操作{}".format(url))    async with aiohttp.ClientSession() as s:        try:            async with s.get(url, headers=headers, timeout=3) as res:                if res.status==200:                    html = await res.text()                    html = etree.HTML(html)                    get_content(html)  # 解析网页                    print("数据{}插入完毕".format(url))        except Exception as e:            print(e)            print(html)            time.sleep(1)            print("休息一下")            await get_html(url)            async def x_get_html(url):    with(await sema):        await get_html(url)if __name__ == '__main__':    url_format = "https://edu.csdn.net/courses/p{}"    urls = [url_format.format(index) for index in range(1, 272)]    loop = asyncio.get_event_loop()    tasks = [x_get_html(url) for url in urls]    request = loop.run_until_complete(asyncio.wait(tasks))复制代码

3. CSDN学院课程数据-解析网页函数

网页下载到了之后,需要进行二次处理,然后才可以把他放入到mongodb中,我们只需要使用lxml库即可

def get_content(html):    course_item = html.xpath("//div[@class='course_item']")    data = []    for item in course_item:        link = item.xpath("./a/@href")[0]  # 获取课程详情的链接,方便我们后面抓取        tags = item.xpath(".//div[@class='titleInfor']/span[@class='tags']/text()")  # 获取标签        title = item.xpath(".//div[@class='titleInfor']/span[@class='title']/text()")[0]  # 获取标题        num = item.xpath(".//p[@class='subinfo']/span/text()")[0]  # 学习人数        subinfo = item.xpath(".//p[@class='subinfo']/text()")[1].strip() #  作者        price = item.xpath(".//p[contains(@class,'priceinfo')]/i/text()")[0].strip()  # 作者        data.append({            "title":title,            "link":link,            "tags":tags,            "num":num,            "subinfo":subinfo,            "price":price        })    collection.insert_many(data)复制代码

4. CSDN学院课程数据-数据存储

数据保存到mongodb中,完成。

没有特别突出的地方,简单易操作。
你可能感兴趣的文章
JBoss开发者框架: JBoss技术文档中心
查看>>
linux与win下安装java linux下的安装方法
查看>>
在IIS8添加WCF服务支持
查看>>
(转)代码执行的效率
查看>>
第一天用MongoDB
查看>>
Linux服务器部署系列之二—MySQL篇
查看>>
STM32笔记记录3
查看>>
typedef关键字
查看>>
EntityType 'UserInfo' has no key defined. Define the key for this EntityType.
查看>>
Merge PDF File using itextsharp library
查看>>
使用微软的TFS云服务
查看>>
高效能TCP通讯基础组件Beetle.Express
查看>>
MyEclipse内存不足配置
查看>>
四舍五入网络Java保留两位小数
查看>>
MFC 循环界面假死的解决(MFC 按钮终止循环)
查看>>
详细解说九宫图比较常用的多控件布局
查看>>
程序员的出路在哪里?挣钱的机会来了续-福利来了,仿QQ界面,放出全部源码,打造创业框架及实现思路...
查看>>
浅析Android线程模型一 --- 转
查看>>
Cocos2d-x PluginX (二)增加新的Plugin
查看>>
python-django开发学习笔记四
查看>>