Python常用的模块

news2024/11/14 15:28:49

一、logging模块

  一)日志级别

critical=50
error=40
waring=30
info=20
debug=10
notset=0

  二)默认的日志级别是waring(30),默认的输出目标是终端

  logging输出的目标有两种:1、终端;2、文件

    高于warning的日志级别才会打印

import logging
logging.debug('debug')
logging.info('info')
logging.warning('warn')
logging.error('error')
logging.critical('critical')

  三)为logging模块指定全局配置,针对所有的logger有效,控制打印到文件中

  1、可在logging.basicConfig()函数中,通过具体参数更改logging模块默认行为。可用的参数
1 filename:用指定的文件名创建FiledHandler(后边会具体讲解handler的概念),这样日志会被存储在指定的文件中。
2 filemode:文件打开方式,在指定了filename时使用这个参数,默认值为“a”还可指定为“w”。
3 format:指定handler使用的日志显示格式。 
4 datefmt:指定日期时间格式。 
5 level:设置rootlogger(后边会讲解具体概念)的日志级别 
6 stream:用指定的stream创建StreamHandler。可以指定输出到sys.stderr,sys.stdout或者文件,默认为sys.stderr。若同时列出了filename和stream两个参数,则stream参数会被忽略。
  2、format参数可能用到的格式化串
 1 %(name)s Logger的名字
 2 %(levelno)s 数字形式的日志级别
 3 %(levelname)s 文本形式的日志级别
 4 %(pathname)s 调用日志输出函数的模块的完整路径名,可能没有
 5 %(filename)s 调用日志输出函数的模块的文件名
 6 %(module)s 调用日志输出函数的模块名
 7 %(funcName)s 调用日志输出函数的函数名
 8 %(lineno)d 调用日志输出函数的语句所在的代码行
 9 %(created)f 当前时间,用UNIX标准的表示时间的浮 点数表示
10 %(relativeCreated)d 输出日志信息时的,自Logger创建以 来的毫秒数
11 %(asctime)s 字符串形式的当前时间。默认格式是 “2003-07-08 16:49:45,896”。逗号后面的是毫秒
12 %(thread)d 线程ID。可能没有
13 %(threadName)s 线程名。可能没有
14 %(process)d 进程ID。可能没有
15 %(message)s用户输出的消息
  3、范例

将日志写入到文件中

 1 import logging
 2 logging.basicConfig(
 3     filename='access.log',
 4     # filemode='w', #默认是a模式
 5     format='%(asctime)s - %(name)s - %(levelname)s -%(module)s:  %(message)s',
 6     datefmt='%Y-%m-%d %H:%M:%S %p',
 7     level=10,
 8 )
 9 
10 
11 logging.debug('debug')
12 logging.info('info')
13 logging.warning('warn123')
14 logging.error('error')
15 logging.critical('critical')
  4、存在的问题
1:既往终端打印,又往文件中打印
2:控制输出到不同的目标(终端+文件)的日志,有各自的配置信息

  四)logging模块的Formatter,Handler,Logger,Filter对象

  1、原理图  

  

  2、简介logging模块的对象
1 logger:产生日志的对象
2 Filter:过滤日志的对象
3 Handler:接收日志然后控制打印到不同的地方,FileHandler用来打印到文件中,StreamHandler用来打印到终端
4 Formatter对象:可以定制不同的日志格式对象,然后绑定给不同的Handler对象使用,以此来控制不同的Handler的日志格式
  3、应用举例

举例

import logging

#一:Logger对象:负责产生日志信息
logger=logging.getLogger('root')

#二:Filter对象:略

#三:Handler对象:负责接收Logger对象传来的日志内容,控制打印到终端or文件
h1=logging.FileHandler('t1.log')
h2=logging.FileHandler('t2.log')
h3=logging.StreamHandler()


#四:formmater对象
#给文件
formatter1=logging.Formatter(
    '%(asctime)s - %(name)s - %(levelname)s -%(module)s:  %(message)s',
    datefmt='%Y-%m-%d %H:%M:%S %p',
)

#给终端
formatter2=logging.Formatter(
    '%(asctime)s - %(message)s',
    datefmt='%Y-%m-%d %H:%M:%S %p',
)

#五:为handler对象绑定日志格式,设置日志级别
#给文件:绑定到Filehandler对象
h1.setFormatter(formatter1)
h2.setFormatter(formatter1)
#给终端:绑定到Streamhandler对象
h3.setFormatter(formatter2)

#设置日志级别
h1.setLevel(30)
h2.setLevel(30)
h3.setLevel(30)


#六:把h1,h2,h3都add给logger,这样logger对象才能把自己的日志交给他们三负责输出
logger.addHandler(h1)
logger.addHandler(h2)
logger.addHandler(h3)
logger.setLevel(20) #括号的数字一定要<=Hanlder对象的数字

#七:测试
# logger.debug('debug')
# logger.info('info')
# logger.warning('warn123') #30
# logger.error('error')
# logger.critical('critical')

  五)Logger与Handler的级别

  强调:如果想要日志成功打印
     日志内容的级别 >= Logger对象的日志级别 >= Handler对象的日志级别

Logger is also the first to filter the message based on a level — if you set the logger to INFO, and all handlers to DEBUG, you still won't receive DEBUG messages on handlers — they'll be rejected by the logger itself. If you set logger to DEBUG, but all handlers to INFO, you won't receive any DEBUG messages either — because while the logger says "ok, process this", the handlers reject it (DEBUG < INFO).



#验证
import logging


form=logging.Formatter('%(asctime)s - %(name)s - %(levelname)s -%(module)s:  %(message)s',
                    datefmt='%Y-%m-%d %H:%M:%S %p',)

ch=logging.StreamHandler()

ch.setFormatter(form)
# ch.setLevel(10)
ch.setLevel(20)

l1=logging.getLogger('root')
# l1.setLevel(20)
l1.setLevel(10)
l1.addHandler(ch)

l1.debug('l1 debug')

  六)日志的继承

import logging

logger1=logging.getLogger('a')
logger2=logging.getLogger('a.b')
logger3=logging.getLogger('a.b.c')

h3=logging.StreamHandler()

formatter2=logging.Formatter(
    '%(asctime)s - %(message)s',
    datefmt='%Y-%m-%d %H:%M:%S %p',
)
h3.setFormatter(formatter2)
h3.setLevel(10)

logger1.addHandler(h3)
logger1.setLevel(10)

logger2.addHandler(h3)
logger2.setLevel(10)

logger3.addHandler(h3)
logger3.setLevel(10)

# logger1.debug('logger1 debug')
# logger2.debug('logger2 debug')
logger3.debug('logger2 debug')

'''
结果
2017-10-23 22:05:04 PM - logger2 debug
2017-10-23 22:05:04 PM - logger2 debug
2017-10-23 22:05:04 PM - logger2 debug
'''

  七)应用

  1、logging的配置范例

  my_logging.py

import os
import logging.config

# 定义三种日志输出格式 开始

standard_format = '[%(asctime)s][%(threadName)s:%(thread)d][task_id:%(name)s][%(filename)s:%(lineno)d]' \
                  '[%(levelname)s][%(message)s]' #其中name为getlogger指定的名字

simple_format = '[%(levelname)s][%(asctime)s][%(filename)s:%(lineno)d]%(message)s'

id_simple_format = '[%(levelname)s][%(asctime)s] %(message)s'

# 定义日志输出格式 结束

project_dir = os.path.dirname(os.path.abspath(__file__))  # log文件的目录
log_dir = "log-day"  # 日志存放文件夹名称
logfile_dir  = project_dir  + os.sep + log_dir

logfile_name = 'all.log'  # log文件名

# 如果不存在定义的日志目录就创建一个
if not os.path.isdir(logfile_dir):
    os.mkdir(logfile_dir)

# log文件的全路径
logfile_path = os.path.join(logfile_dir, logfile_name)

# log配置字典
LOGGING_DIC = {
    'version': 1,
    'disable_existing_loggers': False,
    'formatters': {
        'standard': {
            'format': standard_format
        },
        'simple': {
            'format': simple_format
        },
    },
    'filters': {},
    'handlers': {
        #打印到终端的日志
        'console': {
            'level': 'DEBUG',
            'class': 'logging.StreamHandler',  # 打印到屏幕
            'formatter': 'simple'
        },
        #打印到文件的日志,收集info及以上的日志
        'default': {
            'level': 'DEBUG',
            'class': 'logging.handlers.RotatingFileHandler',  # 保存到文件
            'formatter': 'standard',
            'filename': logfile_path,  # 日志文件
            'maxBytes': 1024*1024*5,  # 日志大小 5M
            'backupCount': 5,
            'encoding': 'utf-8',  # 日志文件的编码,再也不用担心中文log乱码了
        },
    },
    'loggers': {
        #logging.getLogger(__name__)拿到的logger配置
        '': {
            'handlers': ['default', 'console'],  # 这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕
            'level': 'DEBUG',
            'propagate': True,  # 向上(更高level的logger)传递
        },
    },
}


def load_my_logging_cfg():
    logging.config.dictConfig(LOGGING_DIC)  # 导入上面定义的logging配置
    logger = logging.getLogger(__name__)  # 生成一个log实例
    logger.info('It works!')  # 记录该文件的运行状态

if __name__ == '__main__':
    load_my_logging_cfg()

  自定义logging的使用

import time
import logging
import my_logging  # 导入自定义的logging配置

logger = logging.getLogger(__name__)  # 生成logger实例


def demo():
    logger.debug("start range... time:{}".format(time.time()))
    logger.info("中文测试开始。。。")
    for i in range(10):
        logger.debug("i:{}".format(i))
        time.sleep(0.2)
    else:
        logger.debug("over range... time:{}".format(time.time()))
    logger.info("中文测试结束。。。")

if __name__ == "__main__":
    my_logging.load_my_logging_cfg()  # 在你程序文件的入口加载自定义logging配置
    demo()

关于如何拿到logger对象的详细解释

1 #1、有了上述方式我们的好处是:所有与logging模块有关的配置都写到字典中就可以了,更加清晰,方便管理
 2 
 3 
 4 #2、我们需要解决的问题是:
 5     1、从字典加载配置:logging.config.dictConfig(settings.LOGGING_DIC)
 6 
 7     2、拿到logger对象来产生日志
 8     logger对象都是配置到字典的loggers 键对应的子字典中的
 9     按照我们对logging模块的理解,要想获取某个东西都是通过名字,也就是key来获取的
10     于是我们要获取不同的logger对象就是
11     logger=logging.getLogger('loggers子字典的key名')
12 
13     
14     但问题是:如果我们想要不同logger名的logger对象都共用一段配置,那么肯定不能在loggers子字典中定义n个key   
15  'loggers': {    
16         'l1': {
17             'handlers': ['default', 'console'],  #
18             'level': 'DEBUG',
19             'propagate': True,  # 向上(更高level的logger)传递
20         },
21         'l2: {
22             'handlers': ['default', 'console' ], 
23             'level': 'DEBUG',
24             'propagate': False,  # 向上(更高level的logger)传递
25         },
26         'l3': {
27             'handlers': ['default', 'console'],  #
28             'level': 'DEBUG',
29             'propagate': True,  # 向上(更高level的logger)传递
30         },
31 
32 }
33 
34     
35 #我们的解决方式是,定义一个空的key
36     'loggers': {
37         '': {
38             'handlers': ['default', 'console'], 
39             'level': 'DEBUG',
40             'propagate': True, 
41         },
42 
43 }
44 
45 这样我们再取logger对象时
46 logging.getLogger(__name__),不同的文件__name__不同,这保证了打印日志时标识信息不同,但是拿着该名字去loggers里找key名时却发现找不到,于是默认使用key=''的配置

  2、django的日志配置
#logging_config.py
LOGGING = {
    'version': 1,
    'disable_existing_loggers': False,
    'formatters': {
        'standard': {
            'format': '[%(asctime)s][%(threadName)s:%(thread)d][task_id:%(name)s][%(filename)s:%(lineno)d]'
                      '[%(levelname)s][%(message)s]'
        },
        'simple': {
            'format': '[%(levelname)s][%(asctime)s][%(filename)s:%(lineno)d]%(message)s'
        },
        'collect': {
            'format': '%(message)s'
        }
    },
    'filters': {
        'require_debug_true': {
            '()': 'django.utils.log.RequireDebugTrue',
        },
    },
    'handlers': {
        #打印到终端的日志
        'console': {
            'level': 'DEBUG',
            'filters': ['require_debug_true'],
            'class': 'logging.StreamHandler',
            'formatter': 'simple'
        },
        #打印到文件的日志,收集info及以上的日志
        'default': {
            'level': 'INFO',
            'class': 'logging.handlers.RotatingFileHandler',  # 保存到文件,自动切
            'filename': os.path.join(BASE_LOG_DIR, "xxx_info.log"),  # 日志文件
            'maxBytes': 1024 * 1024 * 5,  # 日志大小 5M
            'backupCount': 3,
            'formatter': 'standard',
            'encoding': 'utf-8',
        },
        #打印到文件的日志:收集错误及以上的日志
        'error': {
            'level': 'ERROR',
            'class': 'logging.handlers.RotatingFileHandler',  # 保存到文件,自动切
            'filename': os.path.join(BASE_LOG_DIR, "xxx_err.log"),  # 日志文件
            'maxBytes': 1024 * 1024 * 5,  # 日志大小 5M
            'backupCount': 5,
            'formatter': 'standard',
            'encoding': 'utf-8',
        },
        #打印到文件的日志
        'collect': {
            'level': 'INFO',
            'class': 'logging.handlers.RotatingFileHandler',  # 保存到文件,自动切
            'filename': os.path.join(BASE_LOG_DIR, "xxx_collect.log"),
            'maxBytes': 1024 * 1024 * 5,  # 日志大小 5M
            'backupCount': 5,
            'formatter': 'collect',
            'encoding': "utf-8"
        }
    },
    'loggers': {
        #logging.getLogger(__name__)拿到的logger配置
        '': {
            'handlers': ['default', 'console', 'error'],
            'level': 'DEBUG',
            'propagate': True,
        },
        #logging.getLogger('collect')拿到的logger配置
        'collect': {
            'handlers': ['console', 'collect'],
            'level': 'INFO',
        }
    },
}


# -----------
# 用法:拿到俩个logger

logger = logging.getLogger(__name__) #线上正常的日志
collect_logger = logging.getLogger("collect") #领导说,需要为领导们单独定制领导们看的日志

二、re模块

  一)正则表达式基础

  1、什么是正则表达式

  正则就是用一些具有特殊含义的符号组合到一起(称为正则表达式)来描述字符或者字符串的方法。或者说:正则就是用来描述一类事物的规则。(在Python中)它内嵌在Python中,并通过 re 模块实现。正则表达式模式被编译成一系列的字节码,然后由用 C 编写的匹配引擎执行。

  2、正则表达式简介

  正则表达式元素可以归为三大类。
  1.字符:字符可以代表一个单独的字符,或者一个字符集合构成的字符串。
  2.限定符:允许你在模式中决定字符或者字符串出现的频率。
  3.定位符:允许你决定模式是否是一个独立的单词,或者出现的位置必须在句子的开头还是结尾。

  正则表达式代表的模式一般由四种不同类型的字符构成。
  1.文字字符:像”abc”确切地匹配”abc“字符串
  2.转义字符:一些特殊的字符例如反斜杠,中括号,小括号在正则表达式中居于特殊的意义,所以如果要专门识别这些特殊字符需要转义字符反斜杠。就像”\[abc\]“可以识  别”[abc]“。
  3.预定义字符:这类字符类似占位符可以识别某一类字符。例如”\d”可以识别0-9的数字。
  4.自定义通配符:包含在中括号中的通配符。例如”[a-d]“识别a,b,c,d之间的任意字符,如果要排除这些字符,可以使用”[^a-d]“。

元素描述
.匹配除了换行符意外的任意字符
[^abc]匹配除了包含在中括号的任意字符
[^a-z]匹配除了包含在中括号指定区间字符的任意字符
[abc]匹配括号中指定的任意一个字符
[a-z]匹配括号中指定的任意区间中的任意一个字符
\a响铃字符(ASCII 7)
\c or \C匹配ASCII 中的控制字符,例如Ctrl+C
\d匹配任意数字,等同于[0-9]
\D匹配数字以外的字符
\eEsc (ASCII 9)
\f换页符(ASCII 15)
\n换行符
\r回车符
\s匹配任意空白字符(\t,\n,\r,\f)
\S匹配白空格(\t,\n,\r,\f)以外的字符
\t制表符
\uFFFF匹配Unicode字符的十六进制代码FFFF。例如,欧元符号的代码20AC
\v匹配纵向制表符(ASCII 11)
\w匹配字母,数字和下划线
\W匹配字符,数字和下划线以外的字符
\xnn匹配特殊字符,nn代表十六进制的ASCII 码
.*匹配任意数量的字符(包括0个字符)

  限定符

  上面表格中列出的每个通配符,可以代表一个确定的字符。使用限定符,可以精确地确定字符的出现频率。例如”\d{1,3}”代表一个数字字符出现1到3次。

元素描述
*匹配一个元素0次或者多次(最大限度地匹配)
*?匹配前面的元素零次或者多次(最小限度地匹配)
.*匹配任意个数的任意字符(包括0个字符)
?匹配上一个元素0次或者1次(最大限度地匹配)
??匹配上一个元素0次或者1次(最小限度地匹配)
{n,}匹配上一个元素至少n次
{n,m}匹配上一个元素n至m次
{n}匹配上一个元素n次
+匹配上一个元素一次或者多次
  • *? 重复任意次,但尽可能少重复
  • +? 重复1次或更多次,但尽可能少重复
  • ?? 重复0次或1次,但尽可能少重复
  • {n,m}? 重复n到m次,但尽可能少重复
  • {n,}? 重复n次以上,但尽可能少重复
  • | 表示 or

"colour" -match "colou?r"  "color" -match "colou?r" 均返回true

此处的字符“?”并不代表任何字符,因为怕你可能会联想到简单模式匹配里面的“?”。正则表达式中的“?”,只是一个限定符,它代表的是指定字符或者子表达式出现的频率。具体到上面的例子,“u?”就确保了字符“u”在模式中不是必需的。常用的其它限定符,还有“*”(出现0次后者多次)和“+”(至少出现一次)

类似IP地址的模式通过正则表达式来描述比简单的通配符字符会更加精确。通常会使用字符和量词结合,来指定某个具体的字符应当出现,以及出现的频率:

元素描述
^匹配字符串的开始
$匹配字符串的结尾
\A匹配字符串开始(包含多行文本)
\b匹配单词的边界
\B匹配不在单词的边界
\Z匹配字符串的结尾(包含多行文本)
\z匹配字符串结束

  二)使用实践

  1、re.findall('\w','hello_ | egon 123')
import re
# # 元字符
# #\w 匹配数字、字母和下划线字符
print(re.findall('\w','hello_ | egon 123'))
# #\W 匹配数字、字母和下划线以外的字符
print(re.findall('\W','hello_ | egon 123'))
# \s 匹配任意空字符
print(re.findall('\s','hello_ | egon 123 \n \t'))
# \S 匹配任意非空字符
print(re.findall('\S','hello_ | egon 123 \n \t'))
#\d匹配数字
print(re.findall('\d','hello_ | egon 123 \n \t'))
# \D匹配非数字
print(re.findall('\D','hello_ | egon 123 \n \t'))
# 匹配某个字符
print(re.findall('h','hello_ | egon 123 \n \t'))
# 匹配以he开头的
print(re.findall('^he','hello_ | egonh 123 \n \t'))
print(re.findall('\Ahe','hello_ | egonh 123 \n \t'))
# 匹配以123结尾的
print(re.findall('123\Z','hello_ | egonh o123 \n \t123'))
print(re.findall('123$','hello_ | egonh 0123 \n \t123'))
# 匹配制表符
print(re.findall('\n','hello_ | egonh 0123 \n \t123'))
print(re.findall('\t','hello_ | egonh 0123 \n \t123'))


# . [] [^]
# .任意一个字符
print(re.findall('a.c','a a1c a*c a2c abc a c aaaaac aacc'))

# [] 中括号内可以多个字符,匹配内部的任意一个字符
print(re.findall('[1 2\n3]','a a12c a*c a2c abc a c aaaaac aacc'))
print(re.findall('a[0-9][0-9]c','a a12c a*c a2c abc a c aaaaac aacc'))
# 没有a-Z匹配所有字符,Python中只能写成a-zA-Z
print(re.findall('a[a-zA-Z]c','a a12c a*c a2c abc a c aaaaac aacc'))
# 匹配+-*/ 时,-只能放到开头或结尾,不然需要转义(最好都加上转义符)
print(re.findall('a[-+*/]c','a+c a12c a*c a2c abc a c a-c a/c aaaaac aacc'))
print(re.findall('a[+*/-]c','a+c a12c a*c a2c abc a c a-c a/c aaaaac aacc'))
print(re.findall('a[\+\-\*\/]c','a+c a12c a*c a2c abc a c a-c a/c aaaaac aacc'))
# []匹配非中括号内的字符,取反
print(re.findall('a[^\+\-\*\/]c','a+c a12c a*c a2c abc a c a-c a/c aaaaac aacc'))

# \转义符号,取消特殊符号的意思
# 先交给Python解释器处理一下,处理掉\的特殊函数\c本书就是特殊字符,\表示转义符需要先转义一个
print(re.findall('a\\\c','a\c abc'))
#  或者使用原生字符串:r,只需考虑正则表达式书写语法,不用考虑其他的因素
print(re.findall(r'a\\c','a\c abc'))

# ? * + {} 表示左边的字符有多少 贪婪匹配
# ? 左边的一个字符有0个或1个 ##a必须存在,b也0个或者1个
print(re.findall('ab?','a ab abb abbb abbbbb aaa bbbb'))

# * 左边的一个字符有0个或者无穷个
print(re.findall('ab*','a ab abb abbb abbbbb aaa bbbb'))

# + 左边的一个字符有1个或者无穷个
print(re.findall('ab+','a ab abb abbb abbbbb aaa bbbb'))

# {} 左边的一个字符有n-m次
print(re.findall('ab{3,5}','a ab abb abbb abbbbb aaa bbbb'))

# .*  .*?
# .* 任意字符任意次,贪婪匹配
print(re.findall('a.*c','ahhh121ca345cc'))
# .*? 任意字符任意次,非贪婪匹配(使用场景更多)
print(re.findall('a.*?c','ahhh121ca345cc'))

# |或者
print(re.findall('company|companies','Too many companies have gone bankrupt, and the next one is my company'))

# ()分组
# 不分组
print(re.findall('ab+','ababababab123'))
print(re.findall('ab+123','ababababab123'))
# 分组
print(re.findall('(ab)','ababababab123')) ##只输出组内的内容
print(re.findall('(a)b','ababababab123')) ##只输出组内的内容
print(re.findall('(ab)+','ababababab123')) #一直匹配,组内只会输出最后匹配的内容

print(re.findall('(ab)+123','ababababab123'))#只输出组内的内容
print(re.findall('(?:ab)+123','ababababab123')) #输出所有匹配的内容
print(re.findall('(ab)+(123)','ababababab123')) #一直匹配,组内只会显示最后匹配的内容

print(re.findall('compan(?:y|ies)','Too many companies have gone bankrupt, and the next one is my company'))
  2、re模块的其他用法
# findall寻找所有的内容
print(re.findall('ab', 'ababababab123'))
# search  找所有的内容,找成功一次,就截止
print(re.search('ab','ababababab123')) ##输出搜索的过程
print(re.search('ab','ababababab123').group()) ##只输出结果
print(re.search('ab','asasasasasab123'))
# match #只匹配开头,有则输出结果,没有返回None
print(re.search('ab','123ab456'))
print(re.match('ab','123ab456')) ##等价于print(re.search('^ab','123ab456'))

# split切分
print(re.split('b','abcde'))
print(re.split('[ab]','abcde'))

# sub替换,可以指定替换的次数
print(re.sub('alex','SB','alex make love alex alex alex',1))
#打印出替换的次数
print(re.subn('alex','SB','alex make love alex alex alex'))
# 前后内容替换位置:分组替换即可
print(re.sub('(\w+)( .* )(\w+)',r'\3\2\1','alex make love'))

# compile 编译,一次写,使用多次
obj=re.compile('\d{2}')
print(obj.search('abc123eee').group())
print(obj.findall('abc123eee'))

  三)Python正则表达式中re.S的作用

  在Python的正则表达式中,有一个参数为re.S。它表示“.”(不包含外侧双引号,下同)的作用扩展到整个字符串,包括“\n”。看如下代码:

import re
a = '''asdfhellopass:
    123
    worldaf
    '''
b = re.findall('hello(.*?)world',a)
c = re.findall('hello(.*?)world',a,re.S)
print 'b is ' , b
print 'c is ' , c

  运行结果如下:

b is  []
c is  ['pass:\n\t123\n\t']

  正则表达式中,“.”的作用是匹配除“\n”以外的任何字符,也就是说,它是在一行中进行匹配。这里的“行”是以“\n”进行区分的。a字符串有每行的末尾有一个“\n”,不过它不可见。

  如果不使用re.S参数,则只在每一行内进行匹配,如果一行没有,就换下一行重新开始,不会跨行。而使用re.S参数以后,正则表达式会将这个字符串作为一个整体,将“\n”当做一个普通的字符加入到这个字符串中,在整体中进行匹配。

三、time与datetime模块

  一)time模块

  1、表示时间的三种方式
  1. 时间戳(timestamp):通常来说,时间戳表示的是从1970年1月1日00:00:00开始按秒计算的偏移量。我们运行“type(time.time())”,返回的是float类型。
  2. 格式化的时间字符串(Format String)
  3. 结构化的时间(struct_time):struct_time元组共有9个元素共九个元素:(年,月,日,时,分,秒,一年中第几周,一年中第几天,夏令时)
# 时间戳
print(time.time())
# 结果:1508582452.6290684

# 格式化的时间字符串
print(time.strftime('%Y-%m-%d %X'))
# 结果:2017-10-21 18:41:16

# 结构化的时间
# 本地时区时间
print(time.localtime())
# 结果:time.struct_time(tm_year=2017, tm_mon=10, tm_mday=21, tm_hour=18, tm_min=41, tm_sec=56, tm_wday=5, tm_yday=294, tm_isdst=0)
print(time.localtime().tm_mon)
# 结果:10

# UTC时间 和中国时区时间差八个小时print(time.gmtime())
#结果:time.struct_time(tm_year=2017, tm_mon=10, tm_mday=21, tm_hour=10, tm_min=23, tm_sec=3, tm_wday=5, tm_yday=294, tm_isdst=0)

 格式化字符串的时间格式

  2、三种格式的时间转换

  计算机认识的时间只能是'时间戳'格式,而程序员可处理的或者说人类能看懂的时间有: '格式化的时间字符串','结构化的时间' 

 

# 时间戳转换为本地时间或UTC时间
print(time.localtime(112131121))
print(time.gmtime(112131121))

# 本地时间或UTC时间转换为时间戳
print(time.mktime(time.localtime()))
print(time.mktime(time.gmtime()))

# 本地时间或UTC时间转换成格式化时间
print(time.strftime('%T',time.localtime()))
print(time.strftime('%T',time.gmtime()))

# 格式化时间转换成结构化时间
print(time.strptime('2017-10-21','%Y-%m-%d'))

# asctime([t]) : 把一个表示时间的元组或者struct_time表示为这种形式:'Sun Jun 20 23:21:05 1993'。
# 如果没有参数,将会将time.localtime()作为参数传入。
print(time.asctime())#Sat Oct 21 19:09:29 2017
print(time.asctime(time.gmtime())) ##Sat Oct 21 11:12:43 2017 ,默认是localtime
# ctime([secs]) : 把一个时间戳(按秒计算的浮点数)转化为time.asctime()的形式。如果参数未给或者为
# None的时候,将会默认time.time()为参数。它的作用相当于time.asctime(time.localtime(secs))。
print(time.ctime())  # Sat Oct 21 19:09:29 2017
print(time.ctime(time.time()))  #Sat Oct 21 19:09:29 2017
print(time.ctime(1000000000)) #Sun Sep  9 09:46:40 2001

  当前时间减去历史时间:过去了多少时间

import time
true_time=time.mktime(time.strptime('2011-09-11 08:30:02','%Y-%m-%d %H:%M:%S'))
# time_now=time.mktime(time.strptime('2017-09-12 11:00:00','%Y-%m-%d %H:%M:%S'))
time_now=time.time()
dif_time=time_now-true_time
struct_time=time.gmtime(dif_time)
print('过去了%d年%d月%d天%d小时%d分钟%d秒'%(struct_time.tm_year-1970,struct_time.tm_mon-1,
                                       struct_time.tm_mday-1,struct_time.tm_hour,
                                       struct_time.tm_min,struct_time.tm_sec))

  二)dateime模块

import datetime

print(datetime.datetime.now()) #返回 2017-10-21 19:14:30.416479
print(datetime.date.fromtimestamp(time.time()) )  # 时间戳直接转成日期格式 2016-08-19
print(datetime.datetime.now() )
print(datetime.datetime.now() + datetime.timedelta(3)) #当前时间+3天
print(datetime.datetime.now() + datetime.timedelta(-3)) #当前时间-3天
print(datetime.datetime.now() + datetime.timedelta(hours=3)) #当前时间+3小时
print(datetime.datetime.now() + datetime.timedelta(minutes=30)) #当前时间+30分

c_time  = datetime.datetime.now()
print(c_time.replace(minute=3,hour=2)) #时间替换

四、random模块

  一)random的常用操作

import random
#大于0且小于1的小数
print(random.random())
# 大于等于2且小于等于4的整数
print(random.randint(2,4))
# 大于等于2且小于4的整数
print(random.randrange(2,4))
# 在一定范围内生成随机字符
print(random.choice([1,8,100,['a','b']]))
# 列表元素任意n个组合
print(random.sample([1,8,100,['a','b'],'egon'],3))
# 大于1小于9的小数
print(random.uniform(1,9))
打乱原来的顺序,相当于洗牌
item=[1,3,5,7,9]
random.shuffle(item)
print(item)

  随机选取字符串:使用字符串的索引进行选择

import random
def randomText(textArr):
    length = len(textArr)
    if length < 1:
        return ''
    if length == 1:
        return str(textArr[0])
    randomNum = random.randint(0,length-1)
    return str(textArr[randomNum])

randStr = randomText(['糖醋里脊','五香肉丝!','宫保鸡丁','水煮鱼','羊肉泡馍'])
print(randStr)

  二)实践:生成随机验证码

def make_code(n):
    '''
    生成10位随机验证码,元素包括大小写字母和数字
    :param n:生成验证码的位数
    :return: 返回验证吗
    '''
    res=''
    for i in range(n):
        s1=str(random.randint(0,9))
        s2=chr(random.randint(65,122))
        res +=random.choice([s1,s2])
    return res
print(make_code(10))

五、os模块

   os模块是与操作系统交互的一个接口

  一)os模块的基本使用

  1、使用os模块管理文件和目录

管理文件和目录

 1 import os
 2 print(os.getcwd()) #获取当前的工作目录
 3 print(os.chdir("dirname"))  #改变当前脚本的工作目录。需要加绝对路径
 4 print(os.curdir) #返回当前目录: .
 5 print(os.pardir)  #返回当前目录的父目录字符串名: ..
 6 print(os.makedirs('www/html/',777)) #创建多级目录,并指定权限:多层目录有一个不存在,则创建;多层目录都存在,则报错
 7 print(os.removedirs('www/html/'))   #递归删除空目录
 8 print(os.mkdir('www',755)) #创建单级目录,并指定权限,没有创建,有的话报错
 9 print(os.rmdir('www')) #删除单级空目录,若非空目录则报错
10 print(os.listdir('www')) #列出指定目录下的所有文件和子目录,包括隐藏文件,并以列表方式打印
11 print(os.remove())  #删除一个文件
12 print(os.rename('www','os')) #重命名一个文件/目录
13 print(os.stat("./os模块.py")) #获取文件/目录信息
  2、Windows和Linux的标识符

Windows和Linux的标识符

1 os.sep #输出操作系统特定的路径分隔符,win下为"\\",Linux下为"/"
2 os.linesep #输出当前平台使用的行终止符,win下为"\r\n",Linux下为"\n"
3 os.pathsep #输出用于分割文件路径的字符串 win下为;,Linux下为:
4 print([os.sep,os.linesep,os.pathsep])
  3、直接运行系统命令和获取环境变量

直接运行系统命令和获取环境变量

1 print(os.system('dir .')) #运行shell命令,直接显示,达不到目录的结果 ##tasklist Windows查看单前的进程
2 print(os.environ) #获取系统环境变量
  4、构建路径

构建路径

1 print(os.path.join('C:\\','a','b','D:\\','d.txt')) #将多个路径组合后返回,第一个绝对路径之前的参数将被忽略
2 print(os.path.abspath('os模块'))  #返回path的规范化的绝对路径
3 print(os.path.expanduser('~'))    #展开用户的HOME目录,如~、~username;
4 print(os.path.expanduser('~\\test.txt')) #路径拼接
  5、拆分路径:获取自己需要的路径中信息

拆分路径

1 print(os.path.split(os.path.abspath('os模块'))) #将path分隔成目录和文件名二元组返回
2 print(os.path.dirname(os.path.abspath('os模块'))) #返回path的目录,其实就是os.path.split(path)的第一个元素
3 print(os.path.basename(os.path.abspath('os模块'))) #返回path的目录,其实就是os.path.split(path)的第二个元素
4 print(os.path.splitext(os.path.abspath('os模块')))  #返回一个除去文件扩展名的部分和扩展名的二元组 。
  6、判断文件类型

判断文件类型

1 print(os.path.exists('os/html')) #若path存在,返回True;不存在,返回False
2 print(os.path.isabs('os/html')) #若path是绝对路径,返回True;否则,返回False
3 print(os.path.isfile('os模块.py'))  #若path是一个存在的文件,返回True,否则,返回False
4 print(os.path.isdir('os'))  #若path是一个存在的目录,但会True;否则,返回False
5 print(os.path.islink('os'))    #参数path所指向的路径存在,并且是一个链接;
6 print(os.path.ismount('os'))    #参数path所指向的路径存在,并且是一个挂载点。
  7、判断文件属性 

判断文件属性

1 os.path模块也包含了若干函数用来获取文件的属性,包括文件的创建时间 、修改时间、文件的大小等
2 print(os.path.getatime('os模块.py'))  #返回path所指向的文件或者目录的最后存取时间
3 print(os.path.getmtime('os模块.py'))  #返回path所指向的文件或者目录的最后修改时间
4 print(os.path.getctime('os模块.py'))  #获取文件的创建时间
5 print(os.path.getsize('os模块.py')) #返回path的大小

  二)规划化路径

在Linux和mac平台上,该函数会原样返回path,在windows平台上会将路径中所有字符转换成小写,并将所有斜杠转换为反斜杠
print(os.path.normcase('c:/windows\\System32\\'))
##../和/
print(os.path.normpath('c://windows\\System32\\../Temp/') ) ##../向左跳过一级

  三)路径处理

  获取自己想要的路径,具体应用如下

  1、方式一:使用os.path.normpath() 
import os,sys
##实现一:
possible_topdir = os.path.normpath(os.path.join(
    os.path.abspath(__file__),
    os.pardir, ##上一级
    os.pardir
))
##实现二:
possible_topdir = os.path.normpath(os.path.join(
    os.path.abspath(__file__),
    '..', ##上一级
    '..'
))

print(possible_topdir)
# sys.path.insert(0,possible_topdir)
  2、方式二:使用os.path.dirname()
1 x=os.path.dirname(os.path.dirname(os.path.abspath(__file__)))
2 print(x)

六、sys模块

  一)sys的基本使用

 1 import sys
 2 # print(sys.argv)  #命令行参数List,第一个元素是程序本身路径
 3 # print(sys.argv[1])  ##取出相对应的地址
 4 # print(sys.argv[2])
 5 # python C:\Users\CTB-BJB-0012\PycharmProjects\python36\s19\day6\常用模块\6 sys模块.py 3306
 6 
 7 sys.exit(0)  ##退出程序,正常退出exit(0)
 8 sys.version  #获取python解释程序的版本信息
 9 sys.maxint   #最大的int值
10 sys.path     #返回模块的搜索路径,初始化时使用python PATH环境变量的值
11 sys.platform #返回操作系统平台名称

  二)sys模块实战

  1、实现探索:打印进度条,显示百分比
实现思路:指定的对齐方式,显示宽度,打印的字符串;让后面的覆盖前面的内容,形成动态增长的效果
左对齐
print('[%10s]' %'#')
右对齐
实现第一步探索
print('[%-10s]' %'#')
print('[%-10s]' %'##')
print('[%-10s]' %'###')
print('[%-10s]' %'####')

打印%,两个%%取消百分号的特殊意义
print('%d%%' %30)
print(('[%%-%ds]' %50) %'#')  #暂时不打印%
  2、代码实现
import sys
# import time
def progress(percent,width=50):
    if percent > 1:
        percent = 1
    show_str=('[%%-%ds]' %width) %(int(percent*width)*'#')
    print('\r%s %s%%' %(show_str,int(percent*100)),end='',file=sys.stdout,flush=True) #立即将结果,刷新一下
#     \r调到行尾,不换行打印

total_size=102400000
recv_size=0
while recv_size < total_size:
    # time.sleep(0.2) #1024
    recv_size+=1024  #每次加

    percent=recv_size/total_size
    progress(percent,width=30)

七、shutil模块

   高级的文件、文件夹、压缩包处理模块

  一)shutil的基本操作

#!/usr/bin/env python
# -*- coding:utf-8 -*-
# __author__ = "wzs"
#2017/10/21

import shutil
# 将文件内容拷贝到另一个文件中
shutil.copyfileobj(fsrc,fdst[,length])
shutil.copyfileobj(open('6sys模块.py','r',encoding='utf-8'),open('sys_new.py','w',encoding='utf-8'))

# 拷贝文件,目标文件无需存在
shutil.copyfile('src','dst')
shutil.copyfile('a.txt','b.txt')

# 仅拷贝权限。内容、组、用户均不变。目标文件必须存在
shutil.copymode('src','dst')
shutil.copymode('a.txt','b.txt')

# 仅拷贝状态信息,包括:mode bits,atime,mtime,flags 。目标文件必须存在
shutil.copystat('src','dst')
shutil.copystat('a.txt','b.txt')

# 拷贝文件和权限。目标文件无需存在
shutil.copy('src','dst')
shutil.copy('a.txt','b.txt')

# 拷贝文件和状态信息。目标文件无需存在
shutil.copy2('src','dst')
shutil.copy2('a.txt','b.txt')

# 递归的去拷贝文件夹
shutil.ignore_patterns(*patterns)
shutil.copytree(src, dst, symlinks=False, ignore=None)
import shutil
shutil.copytree('folder1', 'folder2', ignore=shutil.ignore_patterns('*.pyc', 'tmp*')) #目标目录不能存在,注意对folder2目录父级目录要有可写权限,ignore的意思是排除

# 拷贝软连接
import shutil
shutil.copytree('f1', 'f2', symlinks=True, ignore=shutil.ignore_patterns('*.pyc', 'tmp*'))

# 通常的拷贝都把软连接拷贝成硬链接,即对待软连接来说,创建新的文件

# 递归的去删除文件
# shutil.rmtree(path[, ignore_errors[, onerror]])
import shutil
import os
os.makedirs('www/html/api')
shutil.rmtree('www')

# 递归移动文件,它类似mv命令。相当于重命名
import shutil
shutil.move('www','ok')

  二)文件压缩,解压处理

  1、模块操作小解
创建压缩包并返回文件路径,例如:zip、tar

创建压缩包并返回文件路径,例如:zip、tar

base_name: 压缩包的文件名,也可以是压缩包的路径。只是文件名时,则保存至当前目录,否则保存至指定路径,
如 data_bak                       =>保存至当前路径
如:/tmp/data_bak =>保存至/tmp/
format:    压缩包种类,“zip”, “tar”, “bztar”,“gztar”
root_dir:    要压缩的文件夹路径(默认当前目录)
owner:    用户,默认当前用户
group:    组,默认当前组
logger:    用于记录日志,通常是logging.Logger对象
  2、shutil 对压缩包的处理是调用 ZipFile 和 TarFile 两个模块来进行的,
# 将ok下文件打包防止当前程序目录(可以自己指定路径,打包的路径可以是绝对路径)
import shutil
ret = shutil.make_archive("data_bak",'gztar',root_dir='ok')
    1、使用zipfile模块创建和读取zip压缩包
#打包压缩
import zipfile
z=zipfile.ZipFile('data_bak.zip','w')
z.write('a.log')
z.write('a.txt')
z.write('b.txt')
z.close()

#解压:目录不存在会自动创建
z=zipfile.ZipFile('data_bak.zip','r')
z.extractall(path='html/')
z.close()

#ZipFile的常用方法
namelist:返回zip文件中包含的所有文件和文件夹的字符串列表;
extract:从zip文件中提取单个文件;
extractall:从zip文件中提取所有文件。

  使用Python的命令行工具创建zip格式的压缩包

1 -l    显示zip格式压缩包中的文件列表
2 -c    创建zip格式压缩包:若压缩包里面有文件,会先清空,然后将后面的内容添加进去
3 -e    提取zip格式压缩包:后面的目录不存在,会自动创建。
4 -t    验证文件是一个有效的zip格式压缩包

python命令行实践

python -m zipfile -c kube-heapster.zip kubernetes-dashboard.yaml 
python -m zipfile -c kube-heapster.zip ssl/
python -m zipfile -e kube-heapster.zip test
python -m zipfile -l kube-heapster.zip 
    2、使用tarfile模块创建和读取压缩包内容
# 压缩
import tarfile
obj=tarfile.open('data_bak.tar.gz','w')
obj.add('a.log',arcname='a.log.bak')
obj.add('a.txt',arcname='a.txt.bak')
obj.add('b.txt',arcname='b.txt.bak')
obj.close()

# 解压
obj=tarfile.open('data_bak.tar.gz','r')
obj.extractall('aaa')
obj.close()

#提取压缩包内信息:tarfile 中有不少函数,其中,最常用的是 :
getnames :获取 tar 包中的文件列表;
extract :提取单个文件;
extractall :提取所有文件

  案例:备份指定文件到压缩包

  例如,备份Nginx的访问日志,备份MySQL的binlog日志。这些数据备份到压缩包中,并在压缩包的名称中使用时间标识,不但有利于文件管理,便于查找,而且能够有效减少磁盘占用空间。

from __future__ import print_function
import os
import fnmatch
import tarfile
import datetime


def find_specific_files(root, pattern=['*'], exclude_dirs=[]):
    pass

def main():
    patterns = ['*.jpg', '*jpeg', '*.tiff', '*.png']
    now = datetime.datetime.now().strftime("%Y_%m_%d_%H_%M_%S")
    filename = "all_image_{0}.tar.gz".format(now)
    with tarfile.open(filename, 'w:gz') as f:
        for item in find_specific_files("*", patterns):
            f.add(item)

if __name__ == '__main__':
    main()
    3、案例:暴力破解zip压缩包的密码

撞库破解压缩包的密码

###撞库方法破解压缩包密码(前提要有强大的密码库,不然也无法破解)
import shutil
import tarfile

obj = tarfile.open('kube-heapster.zip','r')
with open('password.txt') as pf:
    for line in pf:
        try:
            obj.extractall(pwd=line.strip())
            print("password is {0}".format(line.strip()))
        except:
            pass

八、json&pickcle模块

eval内置方法可以将一个字符串转换成python对象,不过eval方法是有局限性的,对于普通的数据类型,json.loads和eval都能使用,但遇到特殊类型时,eval就不管用了,所以eval的重点还是通常用来执行一个字符串表达式,并返回表达式的值

  一)什么是序列化?

我们把对象从内存中变成可存储或传输的过程称之为序列化。在python中叫picking,在其他语言中称之为serialization,marshalling,flattening,都是一个意思

  二)为什么要序列化

1、数据持久化保存
    内存是无法永久保存数据的,当程序运行了一段时间,我们断电或者重启程序,内存中关于这个程序的之前一段时间的数据(有结构)都被清空了。
2、跨平台数据交互
    序列化之后,不仅可以把序列化后的内容写入磁盘,还可以通过网络传输到别的机器上,如果收发的双方约定好实用一种序列化的格式,那么便打破了平台/语言差异化带来的限制,实现了跨平台数据交互。
    反过来,把变量内容从序列化的对象重新读到内存里称之为反序列化,即unpickling

  三)如何序列化之json和pickle(使用方法一样)

若要在不同语言之间传递对象,就必须把对象序列化成标准格式,比如XML,但更好的方法是系列为JSON,因为JSON表示出来就是一个字符串,可以被所有语言读取,也可以方便存储到磁盘或者通过网络传输,JSON不仅是标准格式,并且比XML更快,而且可以直接在web页面中读取,非常方便

  四)json模块

  1、将文件内容转换成json可以识别的字符串类型,打印到终端上

    单引号不能被json识别

1 import json
2 user={'name':'egon','pwd':'egon123'}
3 print(json.dumps(user))
4 print(str(user))
  2、将数据写入文件中 json.dumps() :复杂版

序列化

1 import json
2 user={'name':'egon','pwd':'egon123','age':22}
3 with open('db.json','w',encoding='utf-8') as f:
4     f.write(json.dumps(user))

反序列化

1 with open('db.json','r',encoding='utf-8') as f:
2     data=f.read()
3     dic=json.loads(data)
4     print(dic['age'])  ##取值验证
  3、将数据写入文件中json.dump():简化版
1 import json
2 user={'name':'egon','pwd':'egon123','age':22}
3 json.dump(user,open('db1.json','a',encoding='utf-8'))  ##序列化
4 dic=json.load(open('db1.json','r',encoding='utf-8'))  ##反序列化
5 print(dic,type(dic))

  五)pickle模块

  pickle可以序列化Python的所有数据类型

  1、序列化、反序列化字典

序列化、反序列化字典

 1 import pickle
 2 d={'a':1}
 3 # 序列化
 4 d_pkl=pickle.dumps(d)
 5 with open('1.pkl','wb') as f:
 6     f.write(d_pkl)
 7 # 简化
 8 pickle.dump(d,open('2.pkl','wb'))
 9 
10 # 反序列化
11 x=pickle.load(open('2.pkl','rb'))
12 print(x)
  2、序列化、反序列化函数(没有这个应用场景)
 1 import json,pickle
 2 def func():
 3     print('from 序列表.py')
 4 
 5 # json.dumps(func)  #不可序列化函数
 6 # pickle序列化
 7 # pickle.dump(func,open('3.pkl','wb'))
 8 # 序列化是一个内存地址,反序列化时,这个内存地址一定要存在
 9 # pickle反序列化
10 f=pickle.load(open('3.pkl','rb'))
11 f()

九、shelve模块

  shelve模块比pickle模块简单,只有一个open函数,返回类似字典的对象,可读可写;key必须为字符串,而值可以是python所支持的数据类型

 1 import shelve
 2 # 序列化,会形成三个文件,后面是序列化的内容
 3 dic={'a':1,'b':2}
 4 d=shelve.open(r'db.sh1')
 5 d['egon']={'pwd':'123','age':18}
 6 d['alex']={'pwd':'456','age':28}
 7 d['x']=dic
 8 d.close()
 9 
10 # 反序列,不用指定反解时,打开文件的模式
11 obj=shelve.open(r'db.sh1')
12 print(obj['x']['a'])

十、configparser模块

  一)测试文件test.conf

[mysql]
user = root
password = 123

[mysqld]
character-server-set = utf-8
port = 3306
x = True
y = 11.11

  二)读取数据库

import configparser
obj=configparser.ConfigParser()
obj.read('my.cnf')

print(obj.sections())  #取出文件的section:['mysql', 'mysqld']
print(obj.options('mysql'))  #取出指定section内的values
print(obj.items('mysql'))  #取出指定section内的items:既有key又有value

# 取出某条具体的配置
print(obj.get('mysql','user')) #get拿到的数据是字符串类型
print(type(obj.getint('mysqld','port')))  #不用转化类型,直接使用相应的方法,取出整型
print(type(obj.getboolean('mysqld','x')))  #直接取出布尔值
print(type(obj.getfloat('mysqld'

  三)判断数据是否存在

import configparser
obj=configparser.ConfigParser()
obj.read('my.cnf')

print(obj.has_section('mysql'))  #section是否存在
print(obj.has_option('mysql','host'))

  四)增加、更改数据

实现——会先将原文件内容读取出来,写入新的内容,然后一并写入源文件
    section存在,直接给原来的key赋予新的值,即直接更改源文件相对应的值
import configparser
obj=configparser.ConfigParser()
obj.read('my.cnf')

obj.add_section('wzs')
obj.set('wzs','password','456')
obj.set('wzs','is_ok','True')

obj.write(open('my.cnf','w'))

  五)删除指定的section和option

import configparser
obj=configparser.ConfigParser()
obj.read('my.cnf')
obj.remove_section('mysqld')
obj.remove_option('mysql','user')
obj.write(open('my.cnf','w'))

  六)实战:形成下面的文件

example.ini

[DEFAULT]
serveraliveinterval = 45
compression = yes
compressionlevel = 9
forwardx11 = yes

[bitbucket.org]
user = hg

[topsecret.server.com]
host port = 50022
forwardx11 = no

实现代码

 1 import configparser
 2 config = configparser.ConfigParser()
 3 config["DEFAULT"] = {'ServerAliveInterval': '45',
 4                      'Compression': 'yes',
 5                      'CompressionLevel': '9'}
 6 
 7 config['bitbucket.org'] = {}
 8 config['bitbucket.org']['User'] = 'hg'
 9 config['topsecret.server.com'] = {}
10 topsecret = config['topsecret.server.com']
11 topsecret['Host Port'] = '50022'  # mutates the parser
12 topsecret['ForwardX11'] = 'no'  # same here
13 config['DEFAULT']['ForwardX11'] = 'yes'
14 with open('example.ini', 'w') as configfile:
15     config.write(configfile)

十一、hashlib模块

  一)hash的基本知识

hash:一种算法 ,3.x里代替了md5模块和sha模块,主要提供 SHA1, SHA224, SHA256, SHA384, SHA512 ,MD5 算法
hash三个特点:
    1.内容相同则hash运算结果相同,内容稍微改变则hash值则变
    2.不可逆推
    3.相同算法:无论校验多长的数据,得到的哈希值长度固定。
注意:把一段很长的数据update多次,与一次update这段长数据,得到的结果一样,但是update多次为校验大文件提供了可能。
  1、单行字符串校验
import hashlib
m = hashlib.md5()  # m=hashlib.sha256()
m.update('hello'.encode('utf8'))
print(m.hexdigest())  ##获取hash值 # 5d41402abc4b2a76b9719d911017c592
m.update('wzs'.encode('utf8'))
print(m.hexdigest())  # 4d2a80ad7dcecf5e94233bc595ed6287
m2 = hashlib.md5()
m2.update('hellowzs'.encode('utf8'))
print(m2.hexdigest())  # 4d2a80ad7dcecf5e94233bc595ed6287
  2、多行内容进行校验:使用for循环对每行进行验证,节约系统资源
import hashlib
with open(r'G:\data\PyCharm_Project\Python\s19\day6\常用模块\example.ini','rb') as f:
    m=hashlib.md5()
    for line in f:
        m.update(line)
    print(m.hexdigest())

  二) 模拟撞库破解密码

加密算法虽然依然非常厉害,但时候存在缺陷,即:通过撞库可以反解。所以,有必要对加密算法中添加自定义key再来做加密。
  1、将数据加密

数据加密

1 import hashlib
2 s='alex3714'
3 m=hashlib.md5()
4 m.update(s.encode('utf-8'))
5 s_hash=m.hexdigest()
6 print(s_hash)  #aee949757a2e698417463d47acac93df
  2、具体实现代码
import hashlib
passwds=[
    'alex3714',
    '123456',
    'alex123',
    '123alex',
    'Alex@1203'
]

def make_dic(passwds):
    dic={}
    for passwd in passwds:
        m=hashlib.md5()
        m.update(passwd.encode('utf-8'))
        dic[passwd]=m.hexdigest()
    return dic
def break_code(s1,dic):
    for p in dic:
        if s1 == dic[p]:
            return p

s1='aee949757a2e698417463d47acac93df'
dic=make_dic(passwds)
res=break_code(s1,dic)
print(res)

  三)增强安全机制:密码加盐

密码加盐

1 import hashlib
2 # m=hashlib.md5('天王盖地虎'.encode('utf-8'))   ##加盐
3 m=hashlib.sha3_512('天王盖地虎'.encode('utf-8'))   ##加盐
4 m.update('wzs_perfect'.encode('utf-8'))
5 m.update('宝塔镇河妖'.encode('utf-8'))
6 print(m.hexdigest())  #fc5e038d38a57032085441e7fe7010b0

  四)hmac模块

python还有一个hmac模块,它内部对我们创建key和内容及进一步的处理然后加密

   密码加盐

1 import hmac
2 # 要保证两次校验的结果是一样的,处理内容一样以外,key必须一样
3 m1=hmac.new('你很牛棒棒的'.encode('utf-8'))
4 m1.update('wzs_perfect'.encode('utf-8'))
5 print(m1.hexdigest())   #8d5e7e804f99b4d4e48c3659dcf39482

  处理内容相同,key不同,加密版不同

1 # m2=hmac.new('你很牛'.encode('utf-8'))
2 # m2.update('wzs_perfect'.encode('utf-8'))
3 # print(m2.hexdigest())  #4b66f8b0872a0802af087f9c8784aaf2

  解密

1 m3=hmac.new('你很牛棒棒的'.encode('utf-8'))
2 m3.update('wzs_'.encode('utf-8'))
3 m3.update('perfect'.encode('utf-8'))
4 print(m3.hexdigest())    #8d5e7e804f99b4d4e48c3659dcf39482

十二、suprocess模块

 1 ##用来执行系统命令
 2 
 3 import subprocess
 4 
 5 ##查看目录下的东西
 6 res=subprocess.Popen(r'dir G:\data\PyCharm_Project\Python\s19\day6\常用模块\10xml模块\10xml模块.py',
 7                      shell=True,
 8                      stdout=subprocess.PIPE,
 9                      stderr=subprocess.PIPE)
10 
11 print('============>',res)
12 print('========>',res.stdout.read())
13 print('========>',res.stderr.read().decode('gbk'))
14 
15 
16 # dir file_path|findstr xml$
17 res1=subprocess.Popen(r'dir G:\data\PyCharm_Project\Python\s19\day6\常用模块\10xml模块',
18                       shell=True,
19                       stdout=subprocess.PIPE,)
20 
21 #stidin=res1.stout
22 res2=subprocess.Popen(r'findstr xml$',
23                       shell=True,
24                       stdin=res1.stdout,
25                       stdout=subprocess.PIPE,)
26 print(res2.stdout.read().decode('gbk'))

十三、xml模块

 xml是实现不同语言或程序之间进行数据交换的协议,个json差不多,但json使用起来更简单。至今很多传统公司的很多系统接口还主要是使用xml

example.xml

 1 <?xml version="1.0"?>
 2 <data>
 3     <country name="Liechtenstein">
 4         <rank updated="yes">2</rank>
 5         <year>2008</year>
 6         <gdppc>141100</gdppc>
 7         <neighbor name="Austria" direction="E"/>
 8         <neighbor name="Switzerland" direction="W"/>
 9     </country>
10     <country name="Singapore">
11         <rank updated="yes">5</rank>
12         <year>2011</year>
13         <gdppc>59900</gdppc>
14         <neighbor name="Malaysia" direction="N"/>
15     </country>
16     <country name="Panama">
17         <rank updated="yes">69</rank>
18         <year>2011</year>
19         <gdppc>13600</gdppc>
20         <neighbor name="Costa Rica" direction="W"/>
21         <neighbor name="Colombia" direction="E"/>
22     </country>
23 </data>

  一)xml的操作

 1 import xml.etree.ElementTree as ET
 2 tree=ET.parse('server.xml')
 3 root=tree.getroot()
 4 
 5 for child in root:
 6     print('====>',child)
 7     for i in child:
 8         print(i.tag,i.attrib,i.text)
 9 
10 # 查找element元素的三种方式
11 years=root.iter('year')  #扫描整个xml文档树,找到所有
12 for i in years:
13     print(i)
14 
15 res1=root.find('country')  #谁来调,就从谁下一层开始找,只找一个
16 print(res1)
17 
18 res2=root.findall('country')  #谁来调,就从谁下一层开始找,只找一个
19 print(res2)
20 
21 # 修改
22 # 将文件每个年份加1
23 years=root.iter('year')  #扫描整个xml文档树,找到所有
24 for year in years:
25     year.text=str(int(year.text)+1)  ##更改原来的项目
26     year.set('updated','yes')   ##添加新的项目
27     year.set('version','1.0')
28 tree.write('b.xml')
29 # tree.write('server.xml')
30 
31 # 删除
32 # 删除指定country底下rank的值大于10
33 for country in root.iter('country'):
34     #print(country.tag)
35     rank=country.find('rank')
36     if int(rank.text) > 10:
37         country.remove(rank)
38 tree.write('server.xml')
39 
40 # 增加节点
41 for country in root.iter('country'):
42     e=ET.Element('\tegon')
43     e.text='hello'
44     e.attrib={'age':'18'}
45     country.append(e)
46 tree.write('server.xml')

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2051356.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

如何查看麒麟系统下的CPU信息

如何查看麒麟系统下的CPU信息 一、使用lscpu命令二、使用cat /proc/cpuinfo命令 &#x1f496;The Begin&#x1f496;点点关注&#xff0c;收藏不迷路&#x1f496; 在麒麟&#xff08;Kylin&#xff09;Linux系统中&#xff0c;了解CPU的详细信息对于系统性能调优、故障诊断以…

转债违约,是实体经济高质量发展的一大步?

8月14日&#xff0c;岭南股份公告其发行的可转债无法按期兑付&#xff0c;出现实质违约。8月16日&#xff0c;证券时报发表了一篇“雄文”《国企可转债的刚兑信仰该放下了》&#xff0c;引爆了舆论。 文章内容总结下&#xff0c;就是对投资者一顿批评教育&#xff0c;批评投资者…

leetcode-461. 汉明距离

题目描述 两个整数之间的 汉明距离 指的是这两个数字对应二进制位不同的位置的数目。 给你两个整数 x 和 y&#xff0c;计算并返回它们之间的汉明距离。 示例 1&#xff1a; 输入&#xff1a;x 1, y 4 输出&#xff1a;2 解释&#xff1a; 1 (0 0 0 1) 4 (0 1 0 0) …

Spring7中事务传播机制形象图解

一、Spring的7种事务传播机制 Spring事务传播机制是指在多个事务方法相互调用的情况下&#xff0c;事务如何在方法之间进行传播和管理的机制。通过事务传播机制&#xff0c;可以控制事务的范围和行为&#xff0c;保证多个事务方法的一致性和完整性。Spring提供了七种事务传播行…

Linux系统挂载U盘方法

第一步&#xff1a; 插入U盘&#xff0c;如果能够识别出U盘&#xff0c;则会**出一些信息 第二步&#xff1a; 查看U盘系统分配给U盘的设备名&#xff1b;输入如下命令进行查看&#xff1a; 使用fdisk -l命令查看一下U盘是否有被识别到&#xff0c;及识别的U盘是在哪个位置 …

8.15 day bug

bug1 一个按钮折腾了 两个小时 一直点第一个按钮&#xff0c;然后进去后发现根本没有课程&#xff0c;需要创建workspace&#xff0c;然后各种问题&#xff0c;还是没把课程启动起来&#xff0c;然后去看gitpod使用文档&#xff0c;搞懂工作区到底是怎么回事&#xff0c;一通操…

实用篇| 如何快速搭建“二手系统”的数据库

对于一些程序员最痛苦的是接手一些“二手系统“&#xff0c; 由于年久失修&#xff0c; 加上裁员离职&#xff0c;系统文档不完善等原因&#xff0c; 只留下服务器配置和代码。 接手人&#xff0c;只能对着这些仅存的代码和服务器硬刚&#xff0c; 对服务器硬刚的第二步&#x…

Golang | Leetcode Golang题解之第343题整数拆分

题目&#xff1a; 题解&#xff1a; func integerBreak(n int) int {if n < 3 {return n - 1}quotient : n / 3remainder : n % 3if remainder 0 {return int(math.Pow(3, float64(quotient)))} else if remainder 1 {return int(math.Pow(3, float64(quotient - 1))) * …

学习日志--NAT(Network Address Translation)网络地址转换

目录 一、什么是NAT网络地址转换 二、配置并检查实验环境 三、NAT实现原理 四、NAT实现静态配置一对一 五、NAT实现动态配置一对一 六、PAT端口地址转换一对多 七、NAT优化easyIP的问题 八、NAT网络地址转换PAT多对多转换&#xff08;特殊情况&#xff09; 九、NAT---…

【Harmony OS 4.0】从零开始,快速上手

2019年8月份Harmony OS 1.0&#xff0c; 2020年9月份Harmony OS 2.0 2022年7月份Harmony OS 3.0 2023年3月份Harmony OS 4.0&#xff0c;不兼容 android app 1. 快速上手 1.1 下载并安装 DevEco Studio 1.2 创建项目并初始化 项目 build init 时报错&#xff1a;request to h…

产业经济大脑建设方案(三)

为了加速产业经济的智能化转型&#xff0c;我们建议建立一个全面集成的产业经济大脑系统&#xff0c;该系统结合人工智能、大数据分析和云计算技术&#xff0c;构建数据驱动的决策支持平台。该平台将实时采集和处理产业链各环节的数据&#xff0c;利用智能算法进行深度分析和预…

【C++】C++11新增特性

目录 C11简介&#xff1a; 1、统一的列表初始化&#xff1a; std::initializer_list 2、自动类型推导&#xff1a; auto&#xff1a; decltype&#xff1a; 3、final 和 override final&#xff1a; override&#xff1a; 4、默认成员函数控制&#xff1a; 显示缺省…

网络安全简介(入门篇)

目录 前言 一、什么是网络安全&#xff1f; 二、网络安全的重要性 1、保护数据安全和隐私 2、防止服务中断和数据丢失 3、防止经济损失和法律责任 4、维护公共安全和国家安全 5、提升技术发展和创新 三、网络安全等级保护 1、第一级&#xff08;自主保护级&#xff0…

Java基础-Windows开发环境下Java8和OpenJDK17的自由切换

一、Java语言介绍 Java是一种广泛使用的编程语言和计算平台&#xff0c;具有平台无关性、稳定性和强大的生态系统。随着时间的推移&#xff0c;Java不断演进&#xff0c;推出了多个版本&#xff0c;每个版本都带来了新的功能和性能改进。 1. Java主流版本 Java的主流版本包括…

【排序篇】快速排序的非递归实现与归并排序的实现

&#x1f308;个人主页&#xff1a;Yui_ &#x1f308;Linux专栏&#xff1a;Linux &#x1f308;C语言笔记专栏&#xff1a;C语言笔记 &#x1f308;数据结构专栏&#xff1a;数据结构 文章目录 1 快速排序非递归2. 归并排序3.排序算法复杂度及稳定性分析 1 快速排序非递归 利…

Leetcode面试经典150题-14.最长公共前缀

解法都在代码里&#xff0c;不懂就留言或者私信 这个题比较简单&#xff0c;基本上是笔试的第一第二题 class Solution {/**最长公共前缀这种问题个人感觉最重要的是剪枝我理解可以先按照字符串的长度排个序&#xff0c;然后把第一个字符串的长度作为暂时的最长公共前缀的长度…

分享一个基于python爬虫的“今日头条”新闻数据分析可视化系统(源码、调试、LW、开题、PPT)

&#x1f495;&#x1f495;作者&#xff1a;计算机源码社 &#x1f495;&#x1f495;个人简介&#xff1a;本人 八年开发经验&#xff0c;擅长Java、Python、PHP、.NET、Node.js、Android、微信小程序、爬虫、大数据、机器学习等&#xff0c;大家有这一块的问题可以一起交流&…

【装修】出租屋改造计划,米家IoT全屋智能家居方案 投影仪与家庭ktv游戏影院方案

【装修】出租屋改造计划&#xff0c;米家IoT全屋智能家居方案 & 投影仪与家庭ktv游戏影院方案 文章目录 1、目标效果 & 预算2、网络&#xff1a;路由 & 中枢网关方案3、卧室&#xff1a;灯光系列 & 环境系列4、米家&#xff1a;其他房间&#xff08;暂不装&…

C++ 内存布局 - Part2: 从内存布局角度看类型转换 static_cast, dynamic_cast, reinterpret_cast

0. 总论 开门见山&#xff0c;先把结论写在这里&#xff1a; 1&#xff09;static_cast 在做基类指针和派生类指针之间的转换时&#xff0c;会根据编译时的静态偏移操作指针&#xff0c;但是没有运行期的类型安全检查&#xff0c;程序员需要自己确保类型的正确性&#xff0c;…

ollama轻松部署本地GraphRAG(避雷篇)

本篇文章主要介绍如何使用ollama本地部署微软的Graph RAG&#xff0c;&#xff0c;Graph RAG成为RAG一种新范式&#xff0c;对于全局总结性问题表现突出&#xff0c;当开始的技术路线是Qwen2vllmfastchat本地部署Grapg RAG&#xff0c;但是embedding 的openai服务怎么都跑不起来…