这是全面一份来自于 SegmentFault 上的开发者 @二十一 总结的 Python 重点。由于总结了太多的点知东西,所以篇幅有点长,重总建这也是识汇作者"缝缝补补"总结了好久的东西。 print成为了函数,议收python2是全面关键字 不再有unicode对象,默认str就是点知unicode python3除号返回浮点数 没有了long类型 xrange不存在,range替代了xrange 可以使用中文定义函数名变量名 高级解包 和*解包 限定关键字参数 *后的重总建变量必须加入名字=值 raise from iteritems移除变成items() yield from 链接子生成器 asyncio,async/await原生协程支持异步编程 新增 enum, mock, ipaddress, concurrent.futures, asyncio urllib, selector dis(代码字节码分析) inspect(生成器状态) cProfile(性能分析) bisect(维护有序列表) fnmatch fnmatch(string,"*.txt") #win下不区分大小写 fnmatch根据系统决定 fnmatchcase完全区分大小写 timeit(代码执行时间) def isLen(strString): #还是应该使用三元表达式,更快 return True if len(strString)>6 else False def isLen1(strString): #这里注意false和true的亿华云议收位置 return [False,True][len(strString)>6] import timeit print(timeit.timeit(isLen1("5fsdfsdfsaf"),setup="from __main__ import isLen1")) print(timeit.timeit(isLen("5fsdfsdfsaf"),setup="from __main__ import isLen")) contextlib 进程间通信: Manager(内置了好多数据结构,可以实现多进程间内存共享) from multiprocessing import Manager,Process def add_data(p_dict, key, value): p_dict[key] = value if __name__ == "__main__": progress_dict = Manager().dict() from queue import PriorityQueue first_progress = Process(target=add_data, args=(progress_dict, "bobby1", 22)) second_progress = Process(target=add_data, args=(progress_dict, "bobby2", 23)) first_progress.start() second_progress.start() first_progress.join() second_progress.join() print(progress_dict) Pipe(适用于两个进程) from multiprocessing import Pipe,Process #pipe的性能高于queue def producer(pipe): pipe.send("bobby") def consumer(pipe): print(pipe.recv()) if __name__ == "__main__": recevie_pipe, send_pipe = Pipe() #pipe只能适用于两个进程 my_producer= Process(target=producer, args=(send_pipe, )) my_consumer = Process(target=consumer, args=(recevie_pipe,)) my_producer.start() my_consumer.start() my_producer.join() my_consumer.join() Queue(不能用于进程池,进程池间通信需要使用Manager().Queue()) from multiprocessing import Queue,Process def producer(queue): queue.put("a") time.sleep(2) def consumer(queue): time.sleep(2) data = queue.get() print(data) if __name__ == "__main__": queue = Queue(10) my_producer = Process(target=producer, args=(queue,)) my_consumer = Process(target=consumer, args=(queue,)) my_producer.start() my_consumer.start() my_producer.join() my_consumer.join() 进程池 def producer(queue): queue.put("a") time.sleep(2) def consumer(queue): time.sleep(2) data = queue.get() print(data) if __name__ == "__main__": queue = Manager().Queue(10) pool = Pool(2) pool.apply_async(producer, args=(queue,)) pool.apply_async(consumer, args=(queue,)) pool.close() pool.join() sys模块几个常用方法 argv 命令行参数list,第一个是程序本身的路径 path 返回模块的搜索路径 modules.keys() 返回已经导入的所有模块的列表 exit(0) 退出程序 a in s or b in s or c in s简写 采用any方式:all() 对于任何可迭代对象为空都会返回True # 方法一 True in [i in s for i in [a,b,c]] # 方法二 any(i in s for i in [a,b,c]) # 方法三 list(filter(lambda x:x in s,[a,b,c])) set集合运用 { 1,2}.issubset({ 1,2,3})#判断是否是其子集 { 1,2,3}.issuperset({ 1,2}) { }.isdisjoint({ })#判断两个set交集是否为空,是空集则为True 代码中中文匹配 [u4E00-u9FA5]匹配中文文字区间[一到龥] 查看系统默认编码格式 import sys sys.getdefaultencoding() # setdefaultencodeing()设置系统编码方式 getattr VS getattribute class A(dict): def __getattr__(self,value):#当访问属性不存在的时候返回 return 2 def __getattribute__(self,item):#屏蔽所有的元素访问 return item 类变量是不会存入实例__dict__中的,只会存在于类的__dict__中 globals/locals(可以变相操作代码) globals中保存了当前模块中所有的变量属性与值 locals中保存了当前环境中的所有变量属性与值 python变量名的解析机制(LEGB) 本地作用域(Local) 当前作用域被嵌入的本地作用域(Enclosing locals) 全局/模块作用域(Global) 内置作用域(Built-in) 实现从1-100每三个为一组分组 print([[x for x in range(1,101)][i:i+3] for i in range(0,100,3)]) 什么是元类? 即创建类的类,创建类的时候只需要将metaclass=元类,元类需要继承type而不是object,因为type就是元类 type.__bases__ #( Python在使用传入参数的过程中不会默认判断参数类型,高防服务器只要参数具备执行条件就可以执行 深拷贝和浅拷贝 深拷贝拷贝内容,浅拷贝拷贝地址(增加引用计数) copy模块实现神拷贝 单元测试 一般测试类继承模块unittest下的TestCase pytest模块快捷测试(方法以test_开头/测试文件以test_开头/测试类以Test开头,并且不能带有 init 方法) coverage统计测试覆盖率 class MyTest(unittest.TestCase): def tearDown(self):# 每个测试用例执行前执行 print(本方法开始测试了) def setUp(self):# 每个测试用例执行之前做操作 print(本方法测试结束) @classmethod def tearDownClass(self):# 必须使用 @ classmethod装饰器, 所有test运行完后运行一次 print(开始测试) @classmethod def setUpClass(self):# 必须使用@classmethod 装饰器,所有test运行前运行一次 print(结束测试) def test_a_run(self): self.assertEqual(1, 1) # 测试用例 gil会根据执行的字节码行数以及时间片释放gil,gil在遇到io的操作时候主动释放 什么是monkey patch? 猴子补丁,在运行的时候替换掉会阻塞的语法修改为非阻塞的方法 什么是自省(Introspection)? 运行时判断一个对象的类型的能力,id,type,isinstance python是值传递还是引用传递? 都不是,python是共享传参,默认参数在执行时只会执行一次 try-except-else-finally中else和finally的区别 else在不发生异常的时候执行,finally无论是否发生异常都会执行 except一次可以捕获多个异常,但一般为了对不同异常进行不同处理,我们分次捕获处理 GIL全局解释器锁 同一时间只能有一个线程执行,CPython(IPython)的特点,其他解释器不存在 cpu密集型:多进程+进程池 io密集型:多线程/协程 什么是Cython 将python解释成C代码工具 生成器和迭代器 可迭代对象只需要实现__iter__方法 实现__next__和__iter__方法的对象就是迭代器 使用生成器表达式或者yield的生成器函数(生成器是一种特殊的迭代器) 什么是协程 yield async-awiat 比线程更轻量的多任务方式 实现方式 dict底层结构 为了支持快速查找使用了哈希表作为底层结构 哈希表平均查找时间复杂度为o(1) CPython解释器使用二次探查解决哈希冲突问题 Hash扩容和Hash冲突解决方案 链接法 二次探查(开放寻址法):python使用 循环复制到新空间实现扩容 冲突解决: for gevent import monkey monkey.patch_all() #将代码中所有的阻塞方法都进行修改,可以指定具体要修改的方法 判断是否为生成器或者协程 co_flags = func.__code__.co_flags # 检查是否是协程 if co_flags & 0x180: return func # 检查是否是生成器 if co_flags & 0x20: return func 斐波那契解决的问题及变形 #一只青蛙一次可以跳上1级台阶,也可以跳上2级。求该青蛙跳上一个n级的台阶总共有多少种跳法。 #请问用n个2*1的小矩形无重叠地覆盖一个2*n的大矩形,总共有多少种方法? #方式一: fib = lambda n: n if n <= 2 else fib(n - 1) + fib(n - 2) #方式二: def fib(n): a, b = 0, 1 for _ in range(n): a, bb = b, a + b return b #一只青蛙一次可以跳上1级台阶,也可以跳上2级……它也可以跳上n级。求该青蛙跳上一个n级的台阶总共有多少种跳法。 fib = lambda n: n if n < 2 else 2 * fib(n - 1) 获取电脑设置的环境变量 import os os.getenv(env_name,None)#获取环境变量如果不存在为None 垃圾回收机制 引用计数 标记清除 分代回收 #查看分代回收触发 import gc gc.get_threshold() #output:(700, 10, 10) True和False在代码中完全等价于1和0,可以直接和数字进行计算,inf表示无穷大 C10M/C10K C10M:8核心cpu,64G内存,在10gbps的网络上保持1000万并发连接 C10K:1GHz CPU,2G内存,1gbps网络环境下保持1万个客户端提供FTP服务 yield from与yield的区别: yield from跟的是一个可迭代对象,而yield后面没有限制 GeneratorExit生成器停止时触发 单下划线的几种使用 什么是HTTPS? 安全的HTTP协议,https需要cs证书,数据加密,端口为443,安全,同一网站https seo排名会更高 常见响应状态码 204 No Content //请求成功处理,没有实体的主体返回,一般用来表示删除成功 206 Partial Content //Get范围请求已成功处理 303 See Other //临时重定向,期望使用get定向获取 304 Not Modified //请求缓存资源 307 Temporary Redirect //临时重定向,Post不会变成Get 401 Unauthorized //认证失败 403 Forbidden //资源请求被拒绝 400 //请求参数错误 201 //添加或更改成功 503 //服务器维护或者超负载 http请求方法的幂等性及安全性 WSGI # environ:一个包含所有HTTP请求信息的dict对象 # start_response:一个发送HTTP响应的函数 def application(environ, start_response): start_response(200 OK, [(Content-Type, text/html)]) return TCP:面向连接/可靠/基于字节流 UDP:无连接/不可靠/面向报文 三次握手四次挥手 三次握手(SYN/SYN+ACK/ACK) 四次挥手(FIN/ACK/FIN/ACK) 为什么连接的时候是三次握手,关闭的时候却是四次握手? 因为当Server端收到Client端的SYN连接请求报文后,可以直接发送SYN+ACK报文。其中ACK报文是用来应答的,SYN报文是用来同步的。但是关闭连接时,当Server端收到FIN报文时,很可能并不会立即关闭SOCKET,所以只能先回复一个ACK报文,告诉Client端,"你发的FIN报文我收到了"。只有等到我Server端所有的报文都发送完了,我才能发送FIN报文,因此不能一起发送。故需要四步握手。 为什么TIME_WAIT状态需要经过2MSL(最大报文段生存时间)才能返回到CLOSE状态? 虽然按道理,四个报文都发送完毕,我们可以直接进入CLOSE状态了,但是我们必须假象网络是不可靠的,有可以最后一个ACK丢失。所以TIME_WAIT状态就是用来重发可能丢失的ACK报文。 XSS/CSRF 索引改进过程 https://segmentfault.com/a/1190000018371218 https://segmentfault.com/a/1190000018380324 http://ningning.today/2017/02/13/database/深入浅出mysql/ 清空整个表时,InnoDB是一行一行的删除,而MyISAM则会从新删除建表 text/blob数据类型不能有默认值,查询时不存在大小写转换 什么时候索引失效 以%开头的like模糊查询 出现隐式类型转换 没有满足最左前缀原则 对于多列索引,不是使用的第一部分,则不会使用索引 失效场景: 例如: select id from t where substring(name,1,3) = abc – name; 以abc开头的,应改成: select id from t where name like abc% 例如: select id from t where datediff(day, createdate, 2005-11-30) = 0 – 2005-11-30; 应改为: 不要在 where 子句中的 “=” 左边进行函数、算术运算或其他表达式运算,否则系统将可能无法正确使用索引 应尽量避免在 where 子句中对字段进行表达式操作,这将导致引擎放弃使用索引而进行全表扫描 如: select id from t where num/2 = 100 应改为: select id from t where num = 100*2; 不适合键值较少的列(重复数据较多的列)比如:set enum列就不适合(枚举类型(enum)可以添加null,并且默认的值会自动过滤空格集合(set)和枚举类似,但只可以添加64个值) 如果MySQL估计使用全表扫描要比使用索引快,则不使用索引 什么是聚集索引 为什么这么快? 基于内存,由C语言编写 使用多路I/O复用模型,非阻塞IO 使用单线程减少线程间切换 因为Redis是基于内存的操作,CPU不是Redis的瓶颈,Redis的瓶颈最有可能是机器内存的大小或者网络带宽。既然单线程容易实现,而且CPU不会成为瓶颈,那就顺理成章地采用单线程的方案了(毕竟采用多线程会有很多麻烦!)。 数据结构简单 自己构建了VM机制,减少调用系统函数的时间 优势 性能高 – Redis能读的速度是110000次/s,写的速度是81000次/s 丰富的数据类型 原子 – Redis的所有操作都是原子性的,同时Redis还支持对几个操作全并后的原子性执行 丰富的特性 – Redis还支持 publish/subscribe(发布/订阅), 通知, key 过期等等特性 什么是redis事务? 将多个请求打包,一次性、按序执行多个命令的机制 通过multi,exec,watch等命令实现事务功能 Python redis-py pipeline=conn.pipeline(transaction=True) 持久化方式 RDB(快照) save(同步,可以保证数据一致性) bgsave(异步,shutdown时,无AOF则默认使用) AOF(追加日志) 怎么实现队列 push rpop 常用的数据类型(Bitmaps,Hyperloglogs,范围查询等不常用) String(字符串):计数器 整数或sds(Simple Dynamic String) List(列表):用户的关注,粉丝列表 ziplist(连续内存块,每个entry节点头部保存前后节点长度信息实现双向链表功能)或double linked list Hash(哈希): Set(集合):用户的关注者 intset或hashtable Zset(有序集合):实时信息排行榜 skiplist(跳跃表) 与Memcached区别 Memcached只能存储字符串键 Memcached用户只能通过APPEND的方式将数据添加到已有的字符串的末尾,并将这个字符串当做列表来使用。但是在删除这些元素的时候,Memcached采用的是通过黑名单的方式来隐藏列表里的元素,从而避免了对元素的读取、更新、删除等操作 Redis和Memcached都是将数据存放在内存中,都是内存数据库。不过Memcached还可用于缓存其他东西,例如图片、视频等等 虚拟内存–Redis当物理内存用完时,可以将一些很久没用到的Value 交换到磁盘 存储数据安全–Memcached挂掉后,数据没了;Redis可以定期保存到磁盘(持久化) 应用场景不一样:Redis出来作为NoSQL数据库使用外,还能用做消息队列、数据堆栈和数据缓存等;Memcached适合于缓存SQL语句、数据集、用户临时性数据、延迟查询数据和Session等 Redis实现分布式锁 使用setnx实现加锁,可以同时通过expire添加超时时间 锁的value值可以是一个随机的uuid或者特定的命名 释放锁的时候,通过uuid判断是否是该锁,是则执行delete释放锁 常见问题 缓存雪崩 短时间内缓存数据过期,大量请求访问数据库 缓存穿透 请求访问数据时,查询缓存中不存在,数据库中也不存在 缓存预热 初始化项目,将部分常用数据加入缓存 缓存更新 数据过期,进行更新缓存数据 缓存降级 当访问量剧增、服务出现问题(如响应时间慢或不响应)或非核心服务影响到核心流程的性能时,仍然需要保证服务还是可用的,即使是有损服务。系统可以根据一些关键数据进行自动降级,也可以配置开关实现人工降级 一致性Hash算法 使用集群的时候保证数据的一致性 基于redis实现一个分布式锁,要求一个超时的参数 Unix五种i/o模型 阻塞io 非阻塞io 多路复用io(Python下使用selectot实现io多路复用) select 并发不高,连接数很活跃的情况下 poll 比select提高的并不多 epoll 适用于连接数量较多,但活动链接数少的情况 信号驱动io 异步io(Gevent/Asyncio实现异步) 比man更好使用的命令手册 tldr:一个有命令示例的手册 kill -9和-15的区别 -15:程序立刻停止/当程序释放相应资源后再停止/程序可能仍然继续运行 -9:由于-15的不确定性,所以直接使用-9立即杀死进程 分页机制(逻辑地址和物理地址分离的内存分配管理方案): 操作系统为了高效管理内存,减少碎片 程序的逻辑地址划分为固定大小的页 物理地址划分为同样大小的帧 通过页表对应逻辑地址和物理地址 分段机制 为了满足代码的一些逻辑需求 数据共享/数据保护/动态链接 每个段内部连续内存分配,段和段之间是离散分配的 查看cpu内存使用情况? 单例模式 工厂模式 构造模式 快速排序 选择排序 插入排序 归并排序 堆排序heapq模块 栈 队列 二分查找 关于数据库优化及设计 https://segmentfault.com/a/1190000018426586 https://www.jianshu.com/p/ea0259d109f9 为什么mysql数据库的主键使用自增的整数比较好?使用uuid可以吗?为什么? 如果InnoDB表的数据写入顺序能和B+树索引的叶子节点顺序一致的话,这时候存取效率是最高的。为了存储和查询性能应该使用自增长id做主键。 对于InnoDB的主索引,数据会按照主键进行排序,由于UUID的无序性,InnoDB会产生巨大的IO压力,此时不适合使用UUID做物理主键,可以把它作为逻辑主键,物理主键依然使用自增ID。为了全局的唯一性,应该用uuid做索引关联其他表或做外键 如果是分布式系统下我们怎么生成数据库的自增id呢? 使用redis 基于redis实现一个分布式锁,要求一个超时的参数 使用数据结构和算法 数据库 索引优化 慢查询消除 slow_query_log_file开启并且查询慢查询日志 通过explain排查索引问题 调整数据修改索引 批量操作,从而减少io操作 使用NoSQL:比如Redis 网络io 批量操作 pipeline 缓存 Redis 异步 Asyncio实现异步操作 使用Celery减少io阻塞 并发Py2 VS Py3
py2/3 转换工具
six模块:兼容pyton2和pyton3的模块 2to3工具:改变代码语法版本 __future__:使用下一版本的功能 常用的库
必须知道的collections https://segmentfault.com/a/1190000017385799 python排序操作及heapq模块 https://segmentfault.com/a/1190000017383322 itertools模块超实用方法 https://segmentfault.com/a/1190000017416590 不常用但很重要的库
Python进阶
网络知识
Hello, web!
RPC CDN SSL(Secure Sockets Layer 安全套接层),及其继任者传输层安全(Transport Layer Security,TLS)是为网络通信提供安全及数据完整性的一种安全协议。 SSH(安全外壳协议) 为 Secure Shell 的缩写,由 IETF 的网络小组(Network Working Group)所制定;SSH 为建立在应用层基础上的安全协议。SSH 是目前较可靠,专为远程登录会话和其他网络服务提供安全性的协议。利用 SSH 协议可以有效防止远程管理过程中的信息泄露问题。SSH最初是UNIX系统上的一个程序,后来又迅速扩展到其他操作平台。SSH在正确使用时可弥补网络中的漏洞。SSH客户端适用于多种平台。几乎所有UNIX平台—包括HP-UX、Linux、AIX、Solaris、Digital UNIX、Irix,以及其他平台,都可运行SSH。 TCP/IPMySQL
Redis命令总结
Linux
设计模式
数据结构和算法内置数据结构和算法
python实现各种数据结构
面试加强题:
缓存算法
LRU(least-recently-used):替换最近最少使用的对象 LFU(Least frequently used):最不经常使用,如果一个数据在最近一段时间内使用次数很少,那么在将来一段时间内被使用的可能性也很小服务端性能优化方向