GPT-4 提升Streamlit 应用系列
Web 应用程序需要足够快。快速的网络应用程序可以让用户满意并回访更多。
加速 Streamlit 应用程序的最佳方法之一是利用缓存方法。简而言之,这些方法通过消除冗余的重新计算来优化性能。
Streamlit 提供两种缓存机制,@st.cache_data
和 @st.cache_resource
:
@st.cache_data
非常适合返回 DataFrame 和数组等数据类型的函数。它通过序列化解决突变和并发问题。@st.cache_resource
专为缓存全局资源而定制,例如 ML 模型或数据库连接。下面我创建了一个具有次优编码的应用程序,导致性能问题:
import streamlit as st
import pandas as pd
import sqlalchemy as db
import requests
import tensorflow as tf
price = st.number_input("House Price", min_value=100000, max_value=10000000, step=100000)
def load_data():
return pd.read_csv('large_dataset.csv')
data = load_data()
used_columns = ['Column1', 'Column2', 'Column3']
data = data[used_columns]
def download_model():
url = ""
response = requests.get(url)
with open('large-model.h5', 'wb') as f:
f.write(response.content)
download_model()
model = tf.keras.models.load_model('large-model.h5')
def load_efficient_data():
return pd.read_parquet('efficient_data.parquet')
efficient_data = load_efficient_data()
database_uri = 'sqlite:///example.db'
engine = db.create_engine(database_uri)
query = "SELECT * FROM large_table WHERE condition = true"
db_data = pd.read_sql_query(query, con=engine)
如果您将此代码粘贴到 ChatGPT 并请求性能改进 — GPT-4 可以在几秒钟内识别需要改进的领域!
prompt:
请一步一步分析下面代码的性能问题,并提供解决方案
提供的代码片段存在多个性能问题,可能会显著影响Streamlit应用程序的效率和响应能力。让我们逐步分析它们并提出解决方案:
def load_data():
return pd.read_csv('large_dataset.csv')
data = load_data()
问题:每次运行脚本都直接使用pd.read_csv()
加载大型数据集可能非常低效,特别是对于Streamlit应用程序,因为每次用户输入更改时都会重新运行脚本。
解决方案:使用Streamlit的@st.cache
装饰器缓存数据加载函数,以防止在每次交互时重新加载来自CSV文件的数据。
used_columns = ['Column1', 'Column2', 'Column3']
data = data[used_columns]
问题:首先加载整个数据集,然后只使用特定列。如果数据集很大,只需要少数列,这是低效的。
解决方案:修改load_data函数,只加载所需的列。
def download_model():
url = ""
response = requests.get(url)
with open('large-model.h5', 'wb') as f:
f.write(response.content)
download_model()
问题:每次运行脚本时都会从URL下载模型。这是非常低效的,特别是对于大型模型来说。
解决方案:在下载之前检查模型文件是否已经存在。或者,可以使用 @st.cache
装饰器来优化模型下载函数。
model = tf.keras.models.load_model('large-model.h5')
问题:加载大型TensorFlow模型可能会耗费时间,并且在每次运行时都要进行加载。
解决方案:使用@st.cache
缓存模型加载。
def load_efficient_data():
return pd.read_parquet('efficient_data.parquet')
efficient_data = load_efficient_data()
问题:虽然通常使用Parquet比CSV更高效,但每次加载大文件仍然可能很慢。
解决方案:使用@st.cache
缓存Parquet文件的加载。
database_uri = 'sqlite:///example.db'
engine = db.create_engine(database_uri)
query = "SELECT * FROM large_table WHERE condition = true"
db_data = pd.read_sql_query(query, con=engine)
问题:每次执行脚本时都会运行数据库查询。这可能会很慢,效率低下,特别是对于大型查询来说。
解决方案:使用 @st.cache
缓存查询结果。还要确保查询经过优化,只获取必要的数据。
import streamlit as st
import pandas as pd
import sqlalchemy as db
import requests
import tensorflow as tf
import os
@st.cache
def load_data():
return pd.read_csv('large_dataset.csv', usecols=['Column1', 'Column2', 'Column3'])
@st.cache(allow_output_mutation=True)
def download_model(model_url, model_path):
if not os.path.exists(model_path):
response = requests.get(model_url)
with open(model_path, 'wb') as f:
f.write(response.content)
@st.cache(allow_output_mutation=True)
def load_model(model_path):
return tf.keras.models.load_model(model_path)
@st.cache
def load_efficient_data():
return pd.read_parquet('efficient_data.parquet')
@st.cache
def load_db_data(query, engine):
return pd.read_sql_query(query, con=engine)
price = st.number_input("House Price", min_value=100000, max_value=10000000, step=100000)
data = load_data()
model_url = ""
model_path = 'large-model.h5'
download_model(model_url, model_path)
model = load_model(model_path)
efficient_data = load_efficient_data()
database_uri = 'sqlite:///example.db'
engine = db.create_engine(database_uri)
query = "SELECT * FROM large_table WHERE condition = true"
db_data = load_db_data(query, engine)
这个经过修订的代码效率更高,应该会显著提升应用程序的性能。
https://github.com/zgpeace/pets-name-langchain/tree/develop
https://blog.streamlit.io/take-your-streamlit-apps-to-the-next-level-with-gpt-4/