每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」,本期 Hugging News 有哪些有趣的消息,快来看看吧!
重磅更新
safetensors 将成为保存模型的默认格式
我们近期与 EleutherAI 和 Stability AI 密切合作,共同对 safetensors
库进行了一次安全审计,结果证明其安全可靠,我们也将默认采用使用这个格式来保存模型,并在其他相关库中提供支持和更新,为机器学习带来更安全、高效的体验。
下载报告: https://huggingface.link/hf-st-report
查看 EleutherAI 的博客文章了解更多:
https://blog.eleuther.ai/safetensors-security-audit/
开源更新
宣布与微软的合作,将开源模型带到 Azure 中
微软与我们合作,将开源模型引入了 Azure Machine Learning。本次合作使用户们可以在 Azure ML模型目录中找到成千上万个 Transformer 模型,仅需几次点击即可部署它们。AzureML 提供了托管的在线 endpoint,用于安全和可扩展的推理。
宣布与 IBM 企业 AI 工作室 Watsonx.ai 的合作
watsonx.ai 是新一代的企业工作室,针对那些有严格合规问题、只能在公司内部的基础设施上处理机密数据的需求提供了一个开源的解决方案,通过 watsonx.ai 你可以建立自己内部的机器学习平台,使用标准的 DevOps 工具进行部署和管理。
watsonx.ai 还集成了许多 Hugging Face开源库,如 transformers、accelerate、peft 和我们的文本生成推理服务器等。
Jsonformer: 一个 Gradio 应用示例,通过语言模型生成语法正确的 JSON 内容
通过限制 / 缩减语言模型的输出空间,生成语法正确的 JSON 内容,快来上手试试看吧!
https://huggingface.co/spaces/mishig/jsonformer
全新教程: 如何使用 Transformers 从头训练一个语言模型
Keras 官网发布了一个教程文章,演示了如何使用 Transformers 和 TPU 训练掩码语言模型。包括数据准备、模型初始化、优化器设置和训练过程,可以学习到如何利用 TPU 的高性能和可扩展性进行大规模模型训练。
https://keras.io/examples/nlp/mlm_training_tpus/
无需服务器,直接在浏览器中运行 Transformers!
transformers.js 是一个用于网页端的机器学习库,可以直接在浏览器中运行 Transformers,它支持自然语言处理、计算机视觉、音频和多模态任务。transformers.js 2.2.0 已经与上周正式发布,加入了使用 Whisper 进行多语言语音识别和翻译的功能。
你可以在这里体验:
https://hf.co/spaces/Xenova/whisper-web
活动回放
AI 快速增长年 - 来自 HuggingFace 开源社区的新进展
【视频】
2023 北京智源大会成功召开,我们的机器学习工程师黄靖雅带来的分享《AI 快速增长年 - 来自 HuggingFace 开源社区的新进展》让全场观众收获满满,并对 Hugging Face 正在做的开源有了更深一步的了解。请在上面的视频号上查看本次演讲的回放内容,或者来哔哩哔哩视频链接下方与我们互动。
https://www.bilibili.com/video/BV1qk4y1n7qa/
以上就是本周 Hugging News,祝大家有一个愉快的周末,购物之余不要忘记陪伴自己的父亲过一个父亲节!