有时候我们需要存储较大json至mysql字段中,即使是text类型 也会有字段超出情况,那我们就得想办法进行字段压缩存储。
同时保证数据在读取后,不需要做额外工作。
#coding=utf-8
from io import BytesIO
from gzip import GzipFile
import jsonpickle
import sqlalchemy.types as types
def compress_string(s):
zbuf = BytesIO()
with GzipFile(mode='wb', compresslevel=6, fileobj=zbuf, mtime=0) as zfile:
zfile.write(s)
return zbuf.getvalue()
def uncompress_string(s):
"""helper function to reverse text.compress_string"""
import base64
import io
import gzip
try:
val = base64.b64decode(s)
zbuf = BytesIO(val)
zfile = gzip.GzipFile(fileobj=zbuf)
ret = zfile.read()
zfile.close()
except Exception as e:
print(e)
ret = s
return ret
class CompressField(types.TypeDecorator):
impl = types.Unicode
def process_bind_param(self, value, engine):
import base64
if value:
value = value.encode('utf8')
value = compress_string(value)
value = base64.b64encode(value).decode('utf8')
return value
# return unicode(jsonpickle.encode(value))
def process_result_value(self, value, engine):
if value:
# return jsonpickle.decode(value)
return uncompress_string(value).decode('utf8')
else:
# default can also be a list
return '[]'
压缩代码我们copy django
compress_string 方法。
以上我们就满足了sqlalchemy自定义压缩字段。
有一个不好的地方就是在数据库中 无法直接查询json内容, 必须基于sqlalchemy进行查询。