多线程与多进程是Python中常用的并发编程实现方式,能够有效提高程序的执行效率。本文将系统介绍多线程与多进程的概念、使用场景以及相关知识点,并通过大量的代码案例进行演示。
多线程是指在一个进程内同时执行多个线程,每个线程可以独立执行不同的任务。多线程编程能够充分利用多核处理器的优势,提高程序的并发性和执行效率。
import threading
import requests
# 下载函数
def download_file(url, filename):
response = requests.get(url)
with open(filename, 'wb') as f:
f.write(response.content)
# URL列表
urls = ['http://example.com/file1.txt', 'http://example.com/file2.txt', 'http://example.com/file3.txt']
# 文件名列表
filenames = ['file1.txt', 'file2.txt', 'file3.txt']
# 创建并启动线程
threads = []
for i in range(len(urls)):
t = threading.Thread(target=download_file, args=(urls[i], filenames[i]))
t.start()
threads.append(t)
# 等待所有线程结束
for t in threads:
t.join()
print("All files have been downloaded.")
import threading
# CPU密集型任务
def calculate_factorial(n):
result = 1
for i in range(1, n+1):
result *= i
return result
# 创建并启动线程
threads = []
for i in range(5):
t = threading.Thread(target=calculate_factorial, args=(1000,))
t.start()
threads.append(t)
# 等待所有线程结束
for t in threads:
t.join()
print("All calculations have completed.")
threading
模块Python提供了threading
模块来支持多线程编程。以下是threading
模块中常用的几个类和方法:
Thread
类:表示一个线程对象,可以通过继承该类创建自定义的线程类。start()
方法:启动线程,使其处于就绪状态。run()
方法:线程启动后运行的方法,你可以在自定义的线程类中重写该方法以实现具体的逻辑。join()
方法:等待线程结束,使主线程阻塞,直到该线程执行完成。Lock
类:提供简单的锁机制,用于保护多线程对共享资源的访问。Rlock
类:可重入锁,可以被同一线程多次获取。Semaphore
类:信号量,用于控制对共享资源的并发访问数量。Condition
类:条件变量,用于实现线程之间的协调和通信。import threading
# 自定义线程类
class MyThread(threading.Thread):
def run(self):
# 线程执行的逻辑
print("Running thread:", self.name)
# 创建并启动线程
t1 = MyThread()
t2 = MyThread()
t1.start()
t2.start()
# 等待线程结束
t1.join()
t2.join()
print("All threads have finished.")
import threading
# 共享资源
shared_resource = 0
lock = threading.Lock()
# 线程函数
def increment():
global shared_resource
for _ in range(100000):
# 获取锁
lock.acquire()
shared_resource += 1
# 释放锁
lock.release()
# 创建并启动线程
t1 = threading.Thread(target=increment)
t2 = threading.Thread(target=increment)
t1.start()
t2.start()
# 等待线程结束
t1.join()
t2.join()
print("Final value of shared_resource:", shared_resource)
在多线程编程中,多个线程同时访问共享资源可能会导致数据不一致或竞态条件问题。为了解决这些问题,需要使用线程同步和互斥机制。
import threading
# 线程安全的计数器类
class Counter:
def __init__(self):
self.count = 0
self.lock = threading.Lock()
def increment(self):
with self.lock:
self.count += 1
def get_count(self):
return self.count
# 创建并启动线程
counter = Counter()
threads = []
for _ in range(10):
t = threading.Thread(target=counter.increment)
t.start()
threads.append(t)
# 等待所有线程结束
for t in threads:
t.join()
print("Final count:", counter.get_count())
多线程在许多应用场景中都能发挥重要作用,其中包括:
import socket
import threading
# 处理客户端请求的线程函数
def handle_client(client_sock):
while True:
data = client_sock.recv(1024)
if not data:
break
response = "Server response: " + data.decode()
client_sock.sendall(response.encode())
client_sock.close()
# 创建服务器套接字
server_sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
server_addr = ('127.0.0.1', 8000)
server_sock.bind(server_addr)
server_sock.listen()
print("Server listening on:", server_addr)
while True:
# 接受客户端连接
client_sock, client_addr = server_sock.accept()
print("Received connection from:", client_addr)
# 创建并启动新的线程来处理客户端请求
t = threading.Thread(target=handle_client, args=(client_sock,))
t.start()
导入multiprocessing
模块: import multiprocessing
定义要在进程中执行的函数: 这是一个普通的Python函数,可以包含任意代码逻辑。例如:
def worker():
# 进程任务逻辑
pass
multiprocessing.Process
类来创建一个进程对象,并指定要执行的函数。p = multiprocessing.Process(target=worker)
start()
方法来启动该进程。p.start()
join()
方法。p.join()
close()
方法来关闭该进程。p.close()
多个进程之间可能需要进行数据传递和协调工作。在多进程编程中,常用的进程间通信方式包括管道、队列、共享内存和信号量等。
multiprocessing.Pipe()
方法创建管道对象,并使用send()
和recv()
方法发送和接收数据。parent_conn, child_conn = multiprocessing.Pipe()
multiprocessing.Queue()
类创建队列对象,并使用put()
和get()
方法放入和获取数据。queue = multiprocessing.Queue()
multiprocessing.Value
和multiprocessing.Array
来创建共享内存对象。value = multiprocessing.Value('i', 0) # 创建一个整数类型的共享内存对象
array = multiprocessing.Array('d', [1.0, 2.0, 3.0]) # 创建一个双精度浮点型数组共享内存对象
进程池是一种重复利用多个进程来执行一组任务的方法。multiprocessing
模块提供了Pool
类来实现进程池功能。
multiprocessing.Pool()
来创建一个进程池对象。pool = multiprocessing.Pool()
map()
方法将任务分配给进程池中的空闲进程,并返回结果。results = pool.map(task, range(10))
close()
方法来关闭进程池。pool.close()
join()
方法等待所有子进程执行完毕。pool.join()
进程池可以方便地管理多个进程的创建和执行,从而提高程序的效率。
在多进程编程中,如果一个进程抛出异常,那么该进程可能会终止并且不会传播异常给父进程。为了能够捕获和处理子进程中抛出的异常,可以使用try-except-finally
语句。
以下是一个示例:
import multiprocessing
import time
# 进程函数
def worker():
try:
# 进程任务逻辑
time.sleep(1)
1 / 0 # 抛出异常
except Exception as e:
print("Caught exception in child process:", e)
# 创建并启动进程
p = multiprocessing.Process(target=worker)
p.start()
# 等待进程结束
p.join()
print("All processes have finished.")
示例中,子进程抛出了一个除以零的异常,父进程通过捕获异常来处理错误,并继续执行。
优化技巧和注意事项对于提升程序的性能和效率非常重要。接下来讲解的是一些常见的优化技巧和注意事项.
选择适合任务需求的高效数据结构可以显著提升程序的性能。
# 示例:使用字典进行快速查找
data = {'apple': 5, 'banana': 2, 'orange': 3}
quantity = data['apple']
print(quantity) # 输出: 5
# 示例:使用集合进行成员关系判断
fruits = {'apple', 'banana', 'orange'}
if 'banana' in fruits:
print("banana exists")
collections.deque
实现,并提供了高效的插入和删除操作。# 示例:使用堆栈和队列进行插入和删除操作
stack = []
stack.append(1) # 入栈
stack.append(2)
item = stack.pop() # 出栈
print(item) # 输出: 2
queue = collections.deque()
queue.append(1) # 入队列
queue.append(2)
item = queue.popleft() # 出队列
print(item) # 输出: 1
生成器和迭代器可以节省内存并提高代码的可读性和性能。
yield
关键字创建生成器对象:生成器可以按需生成数据,而不需要一次性生成所有数据。# 示例:使用生成器表达式创建一个生成器对象
evens = (x for x in range(10) if x % 2 == 0)
for num in evens:
print(num) # 输出: 0, 2, 4, 6, 8
__iter__()
方法返回一个迭代器对象,并在迭代器对象中实现__next__()
方法来生成下一个元素。# 示例:实现可迭代对象和迭代器
class MyIterable:
def __init__(self, start, end):
self.start = start
self.end = end
def __iter__(self):
return self
def __next__(self):
if self.start >= self.end:
raise StopIteration
else:
self.start += 1
return self.start - 1
my_iterable = MyIterable(0, 5)
for num in my_iterable:
print(num) # 输出: 0, 1, 2, 3, 4
选择适当的算法和数据结构可以显著提高程序的性能。
# 示例:使用二分查找算法进行快速查找
def binary_search(sorted_list, target):
left = 0
right = len(sorted_list) - 1
while left <= right:
mid = (left + right) // 2
if sorted_list[mid] < target:
left = mid + 1
elif sorted_list[mid] > target:
right = mid - 1
else:
return mid
return -1
data = [2, 5, 8, 12, 16, 23, 38]
index = binary_search(data, 16)
print(index) # 输出: 4
# 示例:使用哈希表进行查找和去重
data = ['apple', 'banana', 'orange', 'banana']
distinct_fruits = set(data)
if 'banana' in distinct_fruits:
print("banana exists")
fruit_counts = {}
for fruit in data:
if fruit in fruit_counts:
fruit_counts[fruit] += 1
else:
fruit_counts[fruit] = 1
print(fruit_counts) # 输出: {'apple': 1, 'banana': 2, 'orange': 1}
优化内存和时间的消耗可以提高程序的性能和效率。
# 示例:避免不必要的数据拷贝
data = [1, 2, 3, 4]
squared_data = [x**2 for x in data] # 不需要创建新列表,可以直接在原地计算平方
# 示例:使用适当的数据类型减少内存占用
data = [1, 2, 3, 4]
sum_value = sum(data) # 使用内置函数sum()计算和时,将整数列表转换为生成器可以减少内存占用
# 示例:避免重复计算
def fibonacci(n, cache={}):
if n in cache:
return cache[n]
elif n <= 1:
return n
else:
result = fibonacci(n-1) + fibonacci(n-2)
cache[n] = result # 缓存计算结果
return result
fibonacci(10) # 只需计算一次,并缓存计算结果