【新闻感想】谈一下PandoraNext的覆灭(潘多拉Next-国内可访问的免费开放GPT共享站将于2024年1月30日关闭)

文章目录

    • 悲报:TIME TO SAY GOODBYE!PandoraNext!
    • PandoraNext作者言:你们赢了,但我却没有输
    • 我如何了解到PandoraNext的
    • 合照留念
    • 于是开始逆向!

悲报:TIME TO SAY GOODBYE!PandoraNext!

PandoraNext镜像代理站将于本月30日关闭,届时服务器将会关停。
Github项目地址:https://github.com/pandora-next/deploy
PHP编码,代码未开源,仅提供基于Github账户年限的授权本地部署服务。

影响的服务包括:

  1. chat*.zhile.io
  2. chat-shared*.zhile.io
  3. chat*.geekgpt.org
  4. chat.oaifree.com 828
  5. *.pandoranext.com
  6. ai*.fakeopen.com

PandoraNext作者言:你们赢了,但我却没有输

  • 详见原帖:你们赢了,但我却没有输
    【新闻感想】谈一下PandoraNext的覆灭(潘多拉Next-国内可访问的免费开放GPT共享站将于2024年1月30日关闭)_第1张图片

我如何了解到PandoraNext的

  • 为什么感兴趣
    因为tts,so-to-vits,Bert-Vits之类的开源语音模型的整合包在B站被我频繁的刷到,我对这些的兴趣越来越浓厚。
    加之之前看过虚拟主播neruo sama觉得很酷,就想搞个本地可部署的大语音模型

  • 个算力资源捉襟见肘
    之前搞了个chatglm2-6b-int4量化的,跑起来大概6~7g,但是随着对话轮数的增加,显存占用量还在上升,这就无法满足我的一台机器运行的要求了(3060Ti 8G),因为Bert-Vits2-2.3平均负载也在2到4G之间。

  • c++编译的能用,但是不够快
    刚好清华大学的ChatGLM3发布了,就用了ChatGLM3-6b-int4 C++编译,使用CPU就可以运行。
    好用是好用,不过速度太慢了,稍微复杂点的问题感觉就要等好久

  • 当然在自己逆向之前,先看看有没有经验丰富并且乐于分享的大佬已经分享出来了
    之前找GPT提示词的时候,下载了一款steam上的【数字伙伴】,里面的创意工坊有很多GPT3.5适用的提示词
    这个数字伙伴主打一个【借】,语音模型用别的镜像站的,大语言模型也用镜像站的(也支持Openai key调用)

    其中镜像站里直接就用的是PandoraNext,点进去发现是个镜像站,完全免费无广告,每个账号按照对话隔离互不影响
    感觉服务了很多被美国政策挡住的普通人。

合照留念

服务器关闭后,就见不到了,有点理解那种游戏关服之前那种感觉了,拜拜
【新闻感想】谈一下PandoraNext的覆灭(潘多拉Next-国内可访问的免费开放GPT共享站将于2024年1月30日关闭)_第2张图片

于是开始逆向!

我觉得他的思路很好,人被杀就会死,我觉得我也可以逆向

	有一句话说得好,老佛爷已经付过钱了

于是我也开始了逆向:详细openai逆向思路见下期

你可能感兴趣的:(新闻,PandoraNext,OpenAI,chatgpt)