-
日期:2022-04-02 10:19:41
点击:59
内容简介:原理 1. 计算出图片颜色对应的灰度值,计算公式如下 gray = 0.2126 * r + 0.7152 * g + 0.0722 * b 2. 根据灰度值,从字符集中获取图片中每个像素点对应的字符 代码 # !/usr/bin/env python# -*- coding:utf-8 -*-from PIL import Imageimport argparse#命...
-
日期:2022-04-02 10:19:40
点击:59
内容简介:正则表达式很神奇啊 # -*- coding:utf-8 -*-import redef print_match_res(res): """打印匹配对象内容""" if res is not None: print(res.group()) else: print(None)# 两种匹配方式:pattern="[A-Z][a-z]+"# 一、使用re模块函数进行匹配res=re.match(patter...
-
日期:2022-04-02 10:19:39
点击:59
内容简介:在接口自动化测试中,往往一个接口的用例需要考虑 正确的、错误的、异常的、边界值等诸多情况,然后你需要写很多个同样代码,参数不同的用例。如果测试接口很多,不但需要写大量的代码,测试数据和代码柔合在一起,可维护性也会变的很差。数据驱动可以完美的...
-
日期:2022-04-02 10:19:38
点击:59
内容简介:业务场景: 前后端分离需要对接数据接口。 接口测试是在postman做的,今天才开始和前端对接,由于这是我第一次做后端接口开发(第一次嘛,问题比较多)所以在此记录分享我的踩坑之旅,以便能更好的理解,应用。 问题: 前端ajax请求后端接口出现跨域问题,如...
-
日期:2022-04-02 10:19:37
点击:59
内容简介:分析 使用CrawlSpider结合LinkExtractor和Rule爬取网页信息 LinkExtractor用于定义链接提取规则,一般使用allow参数即可 LinkExtractor(allow=(), # 使用正则定义提取规则 deny=(), # 排除规则 allow_domains=(), # 限定域名范围 deny_domains=(), # 排除域...
-
日期:2022-04-02 10:19:36
点击:59
内容简介:提出问题 存在一个名为dataset的DataFrame dataset.columnsIndex(['age', 'job', 'marital', 'education', 'default', 'housing', 'loan', 'contact', 'month', 'day_of_week', 'duration', 'campaign', 'pdays', 'previous', 'poutcome', 'emp.var.rate', '...
-
日期:2022-04-02 10:19:35
点击:59
内容简介:1. 前言 中文分词≠自然语言处理! Hanlp HanLP是由一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 功能:中文分词 词性标注 命名实体识别 依存句法分析...
-
日期:2022-04-02 10:19:34
点击:59
内容简介:dataclass简介 dataclass的定义位于PEP-557,根据定义一个dataclass是指“一个带有默认值的可变的namedtuple”,广义的定义就是有一个类,它的属性均可公开访问,可以带有默认值并能被修改,而且类中含有与这些属性相关的类方法,那么这个类就可以称为datacl...
-
日期:2022-04-02 10:19:33
点击:59
内容简介:1. 读取文件 # !/usr/bin/env python# -*- coding:utf-8 -*-"""文件读取三步骤: 1.打开文件 f=open(file, mode='r', buffering=None, encoding=None, errors=None, newline=None, closefd=True) mode: r,w,a,b,+ 2.操作文件 f.read(),把整个文件读入单一字符...
-
日期:2022-04-02 10:19:32
点击:59
内容简介:最近也是学习了一些爬虫方面的知识。以我自己的理解,通常我们用浏览器查看网页时,是通过浏览器向服务器发送请求,然后服务器响应以后返回一些代码数据,再经过浏览器解析后呈现出来。而爬虫则是通过程序向服务器发送请求,并且将服务器返回的信息,通过一...