将大型语言模型部署到Android设备上是一个复杂的任务,因为这些模型通常需要大量的计算资源。首先,您需要加载和优化模型,然后选择一个合适的推理引擎,最后将其集成到Android应用程序中。以下是一般步骤:
1. 加载和优化模型:
2. 选择推理引擎:
3. 集成到Android应用程序中:
4. 优化性能:
5. 测试和调试:
6. 安全性和隐私:
7. 发布应用程序:
请注意,这是一个高级任务,需要深入的移动应用程序开发和深度学习知识。您可能需要详细了解Android开发、TensorFlow Lite或ONNX Runtime,以及模型优化技术,以成功地将大型语言模型部署到Android设备上。同时,确保遵守相关的法规和隐私政策,以保护用户数据。
近期,最令人兴奋的机器学习突破之一是大型语言模型 (LLM)。这些模型可用于生成文字、翻译语言以及以全面且信息丰富的方式回答问题。LLM(如 Google LaMDA 和 PaLM)已基于大量文本数据进行训练,使其能够学习字词和短语之间的统计模式和关系。这样,它们就可以生成类似于人工撰写的文本,并能够很准确地进行翻译。
LLM 会占用很多存储空间,并且通常需要消耗大量的算力才能运行,这意味着它们通常部署在云端,并且由于移动设备上的计算能力有限,对设备端机器学习 (ODML) 而言极具挑战性。不过,您也可以在新型 Android 设备上运行较小规模的 LLM(例如 GPT-2),并且仍能取得令人瞩目的成果。
在此 Codelab 中,您将学习如何通过以下方式构建由 LLM 提供支持的应用:
前提条件
学习内容
KerasNLP 是一个自然语言处理库,可为用户的整个开发周期提供支持。我们的工作流程由模块化组件构建,这些组件在开箱即用时具有最先进的预设权重和架构,并且在需要更多控制时可轻松定制。我们强调所有工作流程的图内计算,以便开发人员可以使用 TensorFlow 生态系统轻松实现生产。该库是核心 Keras API 的扩展;所有高级模块都 Layers接受 Models与核心 Keras 相同水平的打磨。
pip install git+https://github.com/keras-team/keras-nlp.git --upgrade
使用 API 对小型情感分析任务微调 BERT keras_nlp.models:
import keras_nlp
import tensorflow_datasets as tfds
imdb_train, imdb_test = tfds.load(
"imdb_reviews",
split=["train", "test"],
as_supervised=True,
batch_size=16,
)
# Load a BERT model.
classifier = keras_nlp.models.BertClassifier.from_preset("bert_base_en_uncased")
# Fine-tune on IMDb movie reviews.
classifier.fit(imdb_train, validation_data=imdb_test)
# Predict two new examples.
classifier.predict(["What an amazing movie!", "A total waste of my time."])
Colab
TensorFlow Codelab GitHub
初始化模型
initModel 方法用于初始化 TensorFlow-Lite 模型。它首先尝试加载模型文件,然后实例化一个 Interpreter 对象来运行模型。
override suspend fun initModel(): InitModelResult {
return withContext(dispatcher) {
// Load model file
val loadResult = loadModelFile(context)
// Determine if load was successful
if (loadResult.isFailure) {
val exc = loadResult.exceptionOrNull()
return@withContext if (exc is FileNotFoundException) {
InitModelResult.Error(AutoCompleteServiceError.MODEL_FILE_NOT_FOUND)
} else {
InitModelResult.Error(AutoCompleteServiceError.MODEL_NOT_INITIALIZED)
}
}
// Instantiate interpreter with loaded model
val model = loadResult.getOrNull()
isInitialized = model?.let {
interpreter = Interpreter(it)
true
} ?: false
if (isInitialized) InitModelResult.Success
else InitModelResult.Error(AutoCompleteServiceError.MODEL_NOT_INITIALIZED)
}
}
运行模型
runInterpreterOn 方法用于运行 TensorFlow-Lite 模型,根据输入文本生成新的文本。
@WorkerThread
private fun runInterpreterOn(input: String): String {
outputBuffer.clear()
// Run interpreter, which will generate text into outputBuffer
interpreter.run(input, outputBuffer)
// Set output buffer limit to current position & position to 0
outputBuffer.flip()
// Get bytes from output buffer
val bytes = ByteArray(outputBuffer.remaining())
outputBuffer.get(bytes)
outputBuffer.clear()
// Return bytes converted to String
return String(bytes, Charsets.UTF_8)
}
步骤 1. 使用 Keras 训练语言模型
在本次演示中,我们将使用 KerasNLP 来获取 GPT-2 模型。KerasNLP 是一个库,包含用于自然语言处理任务的最先进的预训练模型,并且可以在用户的整个开发周期中为用户提供支持。您可以在KerasNLP 存储库中查看可用模型的列表。工作流程由模块化组件构建,这些组件在开箱即用时具有最先进的预设权重和架构,并且在需要更多控制时可轻松定制。创建 GPT-2 模型可以通过以下步骤完成:
gpt2_tokenizer = keras_nlp.models.GPT2Tokenizer.from_preset("gpt2_base_en")
gpt2_preprocessor = keras_nlp.models.GPT2CausalLMPreprocessor.from_preset(
"gpt2_base_en",
sequence_length=256,
add_end_token=True,
)
gpt2_lm = keras_nlp.models.GPT2CausalLM.from_preset(
"gpt2_base_en",
preprocessor=gpt2_preprocessor,
)
您可以在 GitHub 上查看完整的 GPT-2 模型实现。
步骤 2. 将 Keras 模型转换为 TFLite 模型
generate()从执行转换的 GPT2CausalLM 函数开始。包装generate()函数以创建具体的 TensorFlow 函数:
@tf.function
def generate(prompt, max_length):
# prompt: input prompt to the LLM in string format
# max_length: the max length of the generated tokens
return gpt2_lm.generate(prompt, max_length)
concrete_func = generate.get_concrete_function(tf.TensorSpec([], tf.string), 100)
现在定义一个辅助函数,它将使用输入和 TFLite 模型运行推理。TensorFlow 文本操作不是 TFLite 运行时中的内置操作,因此您需要添加这些自定义操作,以便解释器对此模型进行推理。该辅助函数接受输入和执行转换的函数,即generator()上面定义的函数。
def run_inference(input, generate_tflite):
interp = interpreter.InterpreterWithCustomOps(
model_content=generate_tflite,
custom_op_registerers=tf_text.tflite_registrar.SELECT_TFTEXT_OPS)
interp.get_signature_list()
generator = interp.get_signature_runner('serving_default')
output = generator(prompt=np.array([input]))
您现在可以转换模型:
gpt2_lm.jit_compile = False
converter = tf.lite.TFLiteConverter.from_concrete_functions(
[concrete_func],
gpt2_lm)
converter.target_spec.supported_ops = [
tf.lite.OpsSet.TFLITE_BUILTINS, # enable TFLite ops
tf.lite.OpsSet.SELECT_TF_OPS, # enable TF ops
]
converter.allow_custom_ops = True
converter.target_spec.experimental_select_user_tf_ops = [
"UnsortedSegmentJoin",
"UpperBound"
]
converter._experimental_guarantee_all_funcs_one_use = True
generate_tflite = converter.convert()
run_inference("I'm enjoying a", generate_tflite)
步骤 3. 量化
TensorFlow Lite 实现了一种称为量化的优化技术,可以减小模型大小并加速推理。通过量化过程,32 位浮点数被映射为更小的 8 位整数,因此将模型大小减少了 4 倍,以便在现代硬件上更有效地执行。在 TensorFlow 中进行量化有多种方法。您可以访问TFLite 模型优化和TensorFlow 模型优化工具包页面以获取更多信息。下面简要解释量化的类型。
在这里,您将通过将转换器优化标志设置为 tf.lite.Optimize.DEFAULT,在 GPT-2 模型上使用训练后动态范围量化,其余转换过程与之前详述的相同。我们测试发现,使用这种量化技术,最大输出长度设置为 100 时,Pixel 7 上的延迟约为 6.7 秒。
gpt2_lm.jit_compile = False
converter = tf.lite.TFLiteConverter.from_concrete_functions(
[concrete_func],
gpt2_lm)
converter.target_spec.supported_ops = [
tf.lite.OpsSet.TFLITE_BUILTINS, # enable TFLite ops
tf.lite.OpsSet.SELECT_TF_OPS, # enable TF ops
]
converter.allow_custom_ops = True
converter.optimizations = [tf.lite.Optimize.DEFAULT]
converter.target_spec.experimental_select_user_tf_ops = [
"UnsortedSegmentJoin",
"UpperBound"
]
converter._experimental_guarantee_all_funcs_one_use = True
quant_generate_tflite = converter.convert()
run_inference("I'm enjoying a", quant_generate_tflite)
with open('quantized_gpt2.tflite', 'wb') as f:
f.write(quant_generate_tflite)
步骤 4. Android 应用程序集成
您可以克隆此存储库并替换android/app/src/main/assets/autocomplete.tflite
为转换后的quant_generate_tflite文件。
使用 Keras 和 TensorFlow Lite 的设备端大型语言模型
https://codelabs.developers.google.com/kerasnlp-tflite