首页 > TAG信息列表 > 提取信息

云原生之旅 - 13)基于 Github icode9 Action 的自动化流水线

前言GItHub Actions是一个持续集成和持续交付的平台,能够让你自动化你的编译、测试和部署流程。GitHub 提供 Linux、Windows 和 macOS 虚拟机来运行您的工作流程,或者您可以在自己的数据中心或云基础架构中托管自己的自托管运行器。它是 GitHub 于2018年10月推出的持续集成服务。基本

python进阶(26)collections标准库

namedtuple的由来因为元组的局限性:不能为元组内部的数据进行命名,所以往往我们并不知道一个元组所要表达的意义,所以引入namedtuple这个工厂函数,来构造一个带字段名的元组。namedtuple继承自tuple类 命名元组赋予每个位置一个含义,提供可读性。它们可以用于任何普通元组,并添加了通过名

Python用yield from 实现异步协程爬虫

很古老的用法了,现在大多用的aiohttp库实现,这篇记录仅仅用做个人的协程底层实现的学习。 争取用看得懂的字来描述问题。1.什么是yield如果还没有怎么用过的话,直接把yield看做成一种特殊的return(PS:本质 generator(生成器)) return是返回一个值然后就终断函数了,而yield返回的是一个生成器

Python基础之MySQL数据库

一、约束概述1、为什么要约束​ 为了防止数据库中存在不符合语义规定的数据和防止错误信息的输入、输出造成无效的操作而提出的​ 为了保证数据的完整性,SQL规范以约束的方式对表数据进行额外的条件限制,从以下四个方面考虑 实体完整性:例如一个表中不能存在两条相同的,无法区分的记录

Python入门系列(十)一篇学会python文件处理

文件处理在Python中处理文件的关键函数是open()函数。有四种不同的方法(模式)来打开一个文件"r" - 读取 - 默认值。打开一个文件进行读取,如果文件不存在则出错。"a" - Append - 打开一个文件进行追加,如果文件不存在则创建该文件"w" - 写 - 打开一个文件进行写入,如果不存在则创建文件"

Python逆向爬虫之scrapy框架,非常详细

一、爬虫入门那么,我相信初学的小伙伴现在一定是似懂非懂的。那么下面我们通过一个案例来慢慢进行分析首先,我们第一步需要做的就是项目分析,我们来看看爬取这个网站我们需要哪些步骤。1.1 定义需求需求就是将该网站中所有的美女图片分类下载到本地。1.2 需求分析如果我们需要下载上面

Python爬虫之xpath语法及案例使用

我们在写Python爬虫时,经常需要对网页提取信息,如果用传统正则表达去写会增加很多工作量,此时需要一种对数据解析的方法,也就是本章要介绍的Xpath表达式。Xpath是什么XPath,全称 XML Path Language,即 XML 路径语言,它是一门在 XML 文档中查找信息的语言。最初是用来搜寻 XML 文档的,但同样