本周Github有趣的项目Rags等

本周Github有趣的项目、工具和库

Rags
使用自然语言在数据上构建 ChatGPT。

RAGs 是一款 Streamlit 应用程序,可让您使用自然语言从数据源创建 RAG 管道。
您需要执行以下操作:

  1. 描述您的任务(例如“加载此网页”)以及您想要从 RAG 系统获得的参数(例如“我想要检索 X 数量的文档”)

  2. 进入配置视图并根据需要查看/更改生成的参数(top-k、摘要等)。

  3. 向 RAG 代理询问您的问题的数据。

该项目的灵感来自于OpenAI 推出的GPT 。

Pororoca
支持 HTTP/2 和 HTTP/3 的 HTTP 检查工具。

Pororoca 是一个 HTTP 测试工具,受到 Postman 的启发,但有许多改进。
它适用于 Windows、Mac OSX 和 Linux。

Ppath-to-senior-engineer-handbook
高级工程师之路手册:成为高级工程师及更高职位所需的所有资源。

Sqids
Sqids 是一个开源库,可让您从数字中生成 像YouTube 的 ID。这些 ID 很短,可从自定义字母生成,并保证无碰撞。
Sqids (发音为“squids”)是一个开源库,可让您根据数字生成类似 YouTube 的 ID。这些 ID 很短,可以从自定义字母表生成,并且保证无冲突。

semantic-kernel
将尖端的 LLM 技术快速、轻松地集成到您的应用程序中。

Semantic Kernel是一个 SDK,它将OpenAI、 Azure OpenAI和Hugging Face 等大型语言模型 (LLM) 与 C#、Python 和 Java 等传统编程语言集成在一起。语义内核通过允许您定义只需几行代码 即可链接在一起的插件来实现此目的。

然而,Semantic Kernel的特殊之处在于它能够利用人工智能自动编排插件。借助Semantic Kernel 规划器,您可以要求大模型生成实现用户独特目标的计划。之后,Semantic Kernel将为用户执行该计划。

 SDK 支持 C#、Python 和 Java。

llamafile
llamafile 可让您使用单个文件分发和运行大模型 LLM。

目标是让人工智能开发者实现“随处构建,随处运行”的梦想。为此,我们将llama.cpp 与Cosmopolitan Libc结合到一个框架中,让您可以将 LLM 的应用程序构建为在大多数 PC 和服务器上本地运行的单文件工件。

  • 首先,您的 llamafile 可以在多个 CPU 微架构上运行。我们向 llama.cpp 添加了运行时调度,让新的英特尔系统可以使用现代 CPU 功能,而无需放弃对旧计算机的支持。
  • 其次,您的 llamafile 可以在多个 CPU 架构上运行。我们通过将 AMD64 和 ARM64 构建与启动相应脚本的 shell 脚本连接起来来实现这一点。我们的文件格式与 WIN32 和大多数 UNIX shell 兼容。只要需要,它还可以(由您或您的用户)轻松转换为平台本机格式。
  • 第三,您的 llamafile 可以在六种操作系统(macOS、Windows、Linux、FreeBSD、OpenBSD 和 NetBSD)上运行。您只需使用 Linux 风格的工具链构建一次代码。我们提供的基于 GCC 的编译器本身就是一个真正可移植的可执行文件,因此您可以从您最喜欢开发的任何一个操作系统中轻松构建适用于所有六种操作系统的软件。
  • 最后,您的 LLM 权重可以嵌入您的 llamafile 中。我们向 GGML 库添加了对 PKZIP 的支持。这使得未压缩的权重可以直接映射到内存中,类似于自解压存档。它使在线分发的量化权重能够以兼容版本的 llama.cpp 软件为前缀,从而确保其最初观察到的行为可以无限期地重现。

https://www.jdon.com/70419.html

你可能感兴趣的:(javascript,reactjs)