Transformers-Bert家族系列算法汇总

Transformers 提供 API 和工具,可轻松下载和训练最先进的预训练模型。使用预训练模型可以降低计算成本、碳足迹,并节省从头开始训练模型所需的时间和资源。这些模型支持不同形式的常见任务,例如:

自然语言处理:文本分类、命名实体识别、问答、语言建模、摘要、翻译、多项选择和文本生成。
️ 计算机视觉:图像分类、对象检测和分割。
️ 音频:自动语音识别和音频分类。
多模式:表格问答、光学字符识别、扫描文档信息提取、视频分类、视觉问答。

具体算法模型地址:https://huggingface.co/docs/transformers/index

该文档分为五个部分:

GET STARTED 提供了库的快速浏览和安装说明,以启动和运行。

如果您是初学者,教程是一个很好的起点。本节将帮助您获得开始使用库所需的基本技能。

操作指南介绍如何实现特定目标,例如微调语言建模的预训练模型或如何编写和共享自定义模型。

概念指南提供了更多关于变形金刚模型、任务和设计理念背后的基本概念和想法的讨论和解释。

API 描述了所有类和函数:

主类详细介绍了最重要的类,如配置、模型、分词器和管道。
MODELS 详细介绍了与库中实现的每个模型相关的类和函数。
内部帮助程序详细介绍了内部使用的实用程序类和函数。

Transformers-Bert家族系列算法汇总_第1张图片

你可能感兴趣的:(自然语言处理笔记与知识图谱专栏,bert,人工智能,深度学习)