熟悉但又不陌生的 Tool:PlumGPT

体验不一样的感觉

      • 官网地址
      • 注册
      • 登录
      • 主界面
      • 体验
      • 总结

官网地址

网站地址:https://plumgpt.com/

进入网站:
熟悉但又不陌生的 Tool:PlumGPT_第1张图片

注册

该网站支持多种方式注册:很便捷的可以使用 微信扫码注册,需要输入你的账号和密码。注意
熟悉但又不陌生的 Tool:PlumGPT_第2张图片

登录

登录的话就需要输入上一步得用户名和密码正常登录即可。

熟悉但又不陌生的 Tool:PlumGPT_第3张图片

为了防止恶意访问还有类似于手机验证码的解锁方式。这个是为了保证IP访问安全。

熟悉但又不陌生的 Tool:PlumGPT_第4张图片

注意滑动的时候一定要慢一点,时间很多,可以慢点来。当然如果你觉得这个数字不好弄,咱们直接点击 重新获取 让他给咱重新生成一段数字去进行。

主界面

这个页面是不是非常得熟悉,就像GPT一样的界面。非常符合使用习惯。

熟悉但又不陌生的 Tool:PlumGPT_第5张图片

左下角的 Light mode 可以随意更改背景颜色
熟悉但又不陌生的 Tool:PlumGPT_第6张图片
点击 help 可以给予你一些基本帮助,当然有问题可以直接联系开发者
熟悉但又不陌生的 Tool:PlumGPT_第7张图片

My account0:查看自己的账户信息:这里有你注册的基本信息。
熟悉但又不陌生的 Tool:PlumGPT_第8张图片
log out的话就是退出啦

体验

工具是用来使用的,那么在实际体验中这个工具又会给我们带来怎样的感觉呢?那么就让我先来给大家体验一下
熟悉但又不陌生的 Tool:PlumGPT_第9张图片
当提问 csdn是什么?的时候,他会给咱们做出一个回答,同时在窗口的左侧也会将这个聊天界面进行保存,方便下回我们继续查看。

继续体验

如果我说她错了,他会回答什么
熟悉但又不陌生的 Tool:PlumGPT_第10张图片
它具备着基本的认知,即使你说他错了,里面就道歉。(其实我给它的回答是错误的)。

但是随后它仍然会给你正确的答案。

总结

总的来说,用起来还是非常不错的。至少不用去努力的爬过千山万水去用chatGpt。非常适合去搜索大量的知识,可以剩下你很多的时间。

专业知识的提问:ECG心电信号的去噪方法
熟悉但又不陌生的 Tool:PlumGPT_第11张图片

我们还想要它生成代码

双向LSTM并且有注意力机制

好的,以下是一个简单的双向LSTM并带有注意力机制的Python代码示例:

import tensorflow as tf
from tensorflow.keras.layers import Input, Dense, LSTM, Bidirectional, Concatenate, Dot, Activation
from tensorflow.keras.models import Model

# 定义输入
input_shape = (10, 100) # 10个时间步,每个时间步有100个特征
input_layer = Input(shape=input_shape)

# 双向LSTM层
lstm_units = 128
lstm_layer = Bidirectional(LSTM(units=lstm_units, return_sequences=True))(input_layer)

# 注意力机制
attention_units = 32
attention_dense_layer = Dense(units=attention_units, activation='tanh')(lstm_layer) # 全连接层
attention_score_layer = Dense(units=1, activation='softmax')(attention_dense_layer) # 全连接层
attention_output_layer = Dot(axes=1)([attention_score_layer, lstm_layer]) # 加权求和

# 拼接注意力输出和双向LSTM输出
output_layer = Concatenate(axis=-1)([attention_output_layer, lstm_layer])

# 全连接层
dense_units = 64
dense_layer = Dense(units=dense_units, activation='relu')(output_layer)

# 输出层
output = Dense(units=1, activation='sigmoid')(dense_layer)

# 定义模型
model = Model(inputs=input_layer, outputs=output)
model.summary()

上述代码中,我们定义了一个输入层,接着是一个双向LSTM层。然后定义了一个注意力机制,该机制使用全连接层和softmax层计算每个时间步的权重,再将权重与LSTM层的输出进行加权求和,得到注意力机制的输出。最后,将注意力机制的输出和LSTM层的输出拼接在一起,经过一个全连接层和输出层,得到最终的输出。

最终做出了回答,并且根据要求生成了我们想要的基本代码

你可能感兴趣的:(趣味人生,人工智能,chatgpt)