后端即服务:Supabase 助你快速开发 | 开源日报 No.43

josephmisiti/awesome-machine-learning

Stars: 60.3k License: NOASSERTION

这个项目是一个精选的机器学习框架、库和软件列表,按语言分类。它提供了各种功能强大的工具和库,以帮助开发者在不同编程语言中进行机器学习任务。该项目主要有以下特点和优势:

  • 提供多种常见编程语言下的机器学习框架、库和软件
  • 支持通用目标的机器学习算法
  • 包括计算机视觉、自然语言处理等领域相关工具与库

supabase/supabase

Stars: 56.9k License: Apache-2.0

后端即服务:Supabase 助你快速开发 | 开源日报 No.43_第1张图片

Supabase 是一个开源的 Firebase 替代品,使用企业级开源工具构建了 Firebase 的功能。其主要功能包括:

  • 托管 Postgres 数据库
  • 身份验证和授权
  • 自动生成 API (支持 REST 和 GraphQL)
  • 实时订阅
  • 函数 (包括数据库函数和边缘函数)
  • 文件存储

该项目的核心优势在于提供与 Firebase 类似的开发者体验,并且具有以下关键特点:

  • 使用成熟可靠、性能强大的对象关系型数据库系统 PostgreSQL。
  • 支持实时数据更新,通过 Elixir 服务器监听 PostgreSQL 中插入、更新和删除操作并以 JSON 格式广播给客户端。
  • 将你现有的 PostgreSQL 直接转换为 RESTful API 或 GraphQL API,无需额外编写代码。
  • 提供文件管理服务,并利用 Postgres 来进行权限管理。
  • 完善文档及社区支持。

kunal-kushwaha/DSA-Bootcamp-Java

Stars: 13.3k License: NOASSERTION

这个是一个 DSA (数据结构与算法) 和面试准备的训练营材料,Youtube 上有对应的视频课程。

opentofu/opentofu

Stars: 9.0k License: MPL-2.0

OpenTofu 是一个开源工具,用于安全高效地构建、更改和版本化基础设施。它可以管理现有的流行服务提供商以及自定义内部解决方案。

  • 基础设施即代码:使用高级配置语法描述基础设施,使得数据中心的蓝图能够像代码一样进行版本控制,并且可以共享和重复使用。
  • 执行计划:OpenTofu 在 “规划” 阶段生成执行计划,执行计划显示了当您调用 apply 时 OpenTofu 将执行的操作。这使您可以避免在 OpenTofu 操纵基础架构时出现任何意外。
  • 资源图谱:OpenTofu 会构建所有资源之间的关系图,并并行化任何非依赖资源的创建和修改。因此,OpenTofu 尽可能高效地构建基础设施,并且允许运维人员深入了解其基础设施中的依赖关系。
  • 变更自动化:只需要较少的人工交互即可将复杂的变更集应用到您的基础架构。借助前面提到过的执行计划和资源图谱,您可以准确知道 OpenTofo 将按照何种顺序对哪些内容做出何种变更,从而避免许多可能的人为错误。

krishnaik06/The-Grand-Complete-Data-Science-Materials

Stars: 1.2k License: GPL-2.0

这个项目是一个完整的数据科学指南,提供了各种视频和材料。主要功能包括:

  • 提供 Python、统计学和 SQL 等方面的教程
  • 提供 Git 和 Github 使用教程
  • 包含特征工程、特征选择以及探索性数据分析 (EDA) 等内容的教程
  • 介绍机器学习算法,并提供深度学习与自然语言处理 (NLP)、MLOps 相关内容的详细讲解。

该项目具有以下核心优势:

  • 提供丰富多样的视频资源,涵盖了从基础知识到高级技术应用全方位覆盖;
  • 涉及领域广泛,包括 Python 编程、统计学、数据库操作以及机器/深度学习等;

InternLM/lmdeploy

Stars: 1.1k License: Apache-2.0

后端即服务:Supabase 助你快速开发 | 开源日报 No.43_第2张图片

LMDeploy 是一个用于压缩、部署和提供 LLM (Language Model) 的工具包,由 MMRazor 和 MMDeploy 团队开发。它具有以下核心功能:

  • 高效推理引擎 (TurboMind):基于 FasterTransformer 实现了高效的推理引擎 TurboMind,在 NVIDIA GPU 上支持 LLaMA 及其变种模型的推理。
  • 交互式推理模式:通过缓存多轮对话过程中注意力机制的 k/v 值,记住对话历史,避免重复处理历史会话。
  • 多 GPU 模型部署和量化:提供全面的模型部署和量化支持,并在不同规模上进行验证。
  • 持久批次推断 (Persistent Batch Inference):进一步优化了模型执行效率。

你可能感兴趣的:(开源日报,开源)