百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

使用python scrapy框架抓取cnblog 的文章内容

itomcoil 2025-06-10 15:42 7 浏览

scrapy 的文档请移驾到
http://scrapy-chs.readthedocs.io/zh_CN/0.24/intro/install.html

1、准备工作

安装python 、Spyder 、scrapy 如果想要数据直接入mysql 还需要安装python的 MySQLdb 依赖包

本人mac操作系统 安装MySQLdb的时候出现了些小问题 最后是重装了openssl 才通过的

Spyder 是编写python的ide

2、新建项目

cd /usr/local/var/www/python

执行 scrapy startproject myblog 则新建了一个名称为myblog 的项目,执行完成后 你的python文件夹就出现了myblog文件夹了

cnblog_spider.py 是后来我新建的 后缀.pyc 是执行python后的编译的文件 其他的都是执行创建项目后就自动生成的文件了

3、编写爬虫脚本 cnblog_spider.py

分析cnblog的网站 使用scrapy shell
http://www.cnblogs.com/threemore/

使用google浏览器 找到你想要抓取的数据 话不多说 直接上代码,我抓取了cnblog文章的标题,链接 时间,文章的id,正文内容

# -*- coding: utf-8 -*-

from scrapy.spider import Spider
from scrapy.selector import Selector
from myblog.items import MyblogItem
import scrapy
import re
#SITE_URL = 'http://www.cnblogs.com/threemore/'


#抓取在cnblog中的文章
class CnblogSpider(Spider):
    #抓取名称 执行命令的时候后面的名称   scrapy crawl cnblog 中的cnblog 就是在这里定义的
    name ='cnblog'
    allow_domains = ["cnblogs.com"]
    
    
    #定义抓取的网址
    start_urls = [
        'http://www.cnblogs.com/threemore/'
    ]
    
    #执行函数
    def parse(self,response):
        sel = Selector(response)
        self.log("begins  % s" % response.url)
        article_list = sel.css('div.postTitle').xpath('a')
        
        #抓取列表里面的内容也地址后循环抓取列表的内容页面数据
        for article in article_list:
 url = article.xpath('@href').extract[0]
 self.log("list article url: % s" % url)
        
 #继续抓取内容页数据
 yield scrapy.Request(url,callback=self.parse_content)
 
        #如果有下一页继续抓取数据
        next_pages = sel.xpath('//*[@id="nav_next_page"]/a/@href')
        
        if next_pages :
 next_page = next_pages.extract[0]
 #print next_page
 self.log("next_page: % s" % next_page)
 #自己调用自己  类似php 函数的当中的递归
 yield scrapy.Request(next_page,callback=self.parse)
        
 
 
    #内容页抓取
    def parse_content(self,response):
        self.log("detail views: % s" % response.url)
        
        #定义好的item  只需要在items 文件中定义抓取过来的数据对应的字段
        item = MyblogItem
        
        #xpath 寻找需要在页面中抓取的数据
        item['link'] =  response.url  
    
        #正则匹配出文章在cnblog中的id
        m = re.search(r"([0-9])+", item['link'])
        if m:
 item['aid'] = m.group(0)
        else:
 item['aid'] = 0;
        item['title'] = response.xpath('//*[@id="cb_post_title_url"]/text').extract[0]
        item['content'] = response.xpath('//*[@id="cnblogs_post_body"]').extract[0]
        item['date'] = response.xpath('//*[@id="post-date"]').extract
        #print item['content']
        yield item

4、数据入库

编写管道程序pipelines.py,管道就是存储数据使用的 爬虫文件最后yield 的item 会将数据给到pipelines.py 这个文件

为了测试和正式环境的方便 我就配置了两份mysql的登陆信息

每次执行前 都将即将入库的数据表给清空了一次 防止重复采集 ,直接看代码

# -*- coding: utf-8 -*-

# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html

#需要在setting.py文件中设置ITEM_PIPELINES 将前面的注释打开配置成当前的文件即可
#当前的管道就是这么配置 'myblog.pipelines.MyblogPipeline': 300,


import MySQLdb,datetime


DEBUG = True

#定义测试环境和正式环境中的mysql  
if DEBUG:
    dbuser = 'root'
    dbpass = 'root'
    dbname = 'test'
    dbhost = '127.0.0.1'
    dbport = '3306'
else:
    dbuser = 'root'
    dbpass = 'root'
    dbname = 'test'
    dbhost = '127.0.0.1'
    dbport = '3306'

class MyblogPipeline(object):
    
    #初始化 链接数据库
    def __init__(self):
        
        self.conn = MySQLdb.connect(user=dbuser, passwd=dbpass, db=dbname, host=dbhost, charset="utf8", use_unicode=True)
    
        self.cursor = self.conn.cursor
    
        self.cursor.execute('truncate table test_cnbog')        
    
        self.conn.commit
    
    
    
    #执行sql语句 
    def process_item(self, item, spider):
        try:
 self.cursor.execute("""INSERT INTO test_cnbog (title, link, aid,content,date)  
 VALUES (%s,%s,%s,%s,%s)""", 
 (
 item['title'].encode('utf-8'), 
 item['link'].encode('utf-8'),
 item['aid'],
 item['content'].encode('utf-8'),
 datetime.datetime.now,
 )
 )
 self.conn.commit
        except MySQLdb.Error, e:
 
 print u'Error %d: $s' % (e.args[0],e.args[1])
        
        return item

5、配置setting.py

开启入库的配置

找到 ITEM_PIPELINES 将前面的注释去掉 看到代码上面的注释的链接了么 直接访问看下是干啥的就行了 官方网站上看实例好像是将数据写入到monge里面去了

本人对monge 不熟悉 直接放到mysql去了 大致意思就是说pipelines.py 这个文件就是讲你采集的数据存放在什么地方

# Configure item pipelines
# See http://scrapy.readthedocs.org/en/latest/topics/item-pipeline.html
ITEM_PIPELINES = {
    'myblog.pipelines.MyblogPipeline': 300,
}

6、执行采集

在项目的文件夹下面执行 :scrapy crawl myblog

特意将crawl 拿百度翻译看了下 啥意思 原来就是“爬行”

最后展示下采集回来的数据

15条没有采集到数据 aid 程序就是拿正则随便处理了下

相关推荐

zabbix企业微信告警(zabbix5.0企业微信告警详细)

zabbix企业微信告警的前提是用户有企业微信且创建了一个能够发送消息的应用,具体怎么创建可以协同用户侧企业微信的管理员。第一步:企业微信准备我们需要的内容包括企业ID,应用的AgentId和应用的S...

基于centos7部署saltstack服务器管理自动化运维平台

概述SaltStack是一个服务器基础架构集中化管理平台,具备配置管理、远程执行、监控等功能,基于Python语言实现,结合轻量级消息队列(ZeroMQ)与Python第三方模块(Pyzmq、PyCr...

功能实用,效率提升,Python开发的自动化运维工具

想要高效的完成日常运维工作,不论是代码部署、应用管理还是资产信息录入,都需要一个自动化运维平台。今天我们分享一个开源项目,它可以帮助运维人员完成日常工作,提高效率,降低成本,它就是:OpsManage...

centos定时任务之python脚本(centos7执行python脚本)

一、crontab的安装默认情况下,CentOS7中已经安装有crontab,如果没有安装,可以通过yum进行安装。yuminstallcrontabs二、crontab的定时语法说明*代表取...

Fedora 41 终于要和 Python 2.7 说再见了

红帽工程师MiroHroncok提交了一份变更提案,建议在Fedora41中退役Python2.7,并放弃仍然依赖Python2的软件包。Python2已于2020年1...

软件测试|使用docker搞定 Python环境搭建

前言当我们在公司的电脑上搭建了一套我们需要的Python环境,比如我们的版本是3.8的Python,那我可能有一天换了一台电脑之后,我整套环境就需要全部重新搭建,不只是Python,我们一系列的第三方...

环境配置篇:Centos如何安装Python解释器

有小伙伴时常会使用Python进行编程,那么如何配置centos中的Python环境呢?1)先安装依赖yuminstallgccgcc-c++sqlite-devel在root用户下操作:1...

(三)Centos7.6安装MySql(centos8.3安装docker)

借鉴文章:centos7+django+python3+mysql+阿里云部署项目全流程。这里我只借鉴安装MySql这一部分。链接:https://blog.csdn.net/a394268045/a...

Centos7.9 如何安装最新版本的Docker

在CentOS7.9系统中安装最新版本的Docker,需遵循以下步骤,并注意依赖项的兼容性问题:1.卸载旧版本Docker(如已安装)若系统中存在旧版Docker,需先卸载以避免冲突:sudoy...

Linux 磁盘空间不够用?5 招快速清理文件,释放 10GB 空间不是梦!

刚收到服务器警告:磁盘空间不足90%!装软件提示Nospaceleftondevice!连日志都写不进去,系统卡到崩溃?别慌!今天教你5个超实用的磁盘清理大招,从临时文件到无用软件一键搞定...

Playwright软件测试框架学习笔记(playwright 官网)

本文为霍格沃兹测试开发学社学员学习笔记,人工智能测试开发进阶学习文末加群。一,Playwright简介Web自动化测试框架。跨平台多语言支持。支持Chromium、Firefox、WebKit...

为SpringDataJpa集成QueryObject模式

1.概览单表查询在业务开发中占比最大,是所有CRUDBoy的入门必备,所有人在JavaBean和SQL之间乐此不疲。而在我看来,该部分是最枯燥、最没有技术含量的“伪技能”。1.1.背景...

金字塔测试原理:写好单元测试的8个小技巧,一文总结

想必金字塔测试原理大家已经很熟悉了,近年来的测试驱动开放在各个公司开始盛行,测试代码先写的倡议被反复提及。鉴于此,许多中大型软件公司对单元测试的要求也逐渐提高。那么,编写单元测试有哪些小技巧可以借鉴和...

测试工程师通常用哪个单元测试库来测试Java程序?

测试工程师在测试Java程序时通常使用各种不同的单元测试库,具体选择取决于项目的需求和团队的偏好。我们先来看一些常用的Java单元测试库,以及它们的一些特点:  1.JUnit:  ·描述:JUn...

JAVA程序员自救之路——SpringAI评估

背景我们用SpringAI做了大模型的调用,RAG的实现。但是我们做的东西是否能满足我们业务的要求呢。比如我们问了一个复杂的问题,大模型能否快速准确的回答出来?是否会出现幻觉?这就需要我们构建一个完善...