AIGC周报|周鸿祎:不会用GPT的人未来将被淘汰;蔡崇信:不用过于担心AI未来会取代人类;AI翻唱或涉多项侵权行为

AIGC(AI Generated Content)即人工智能生成内容。近期爆火的 AI 聊天机器人 ChatGPT,以及 Dall·E 2、Stable Diffusion 等文生图模型,都属于 AIGC 的典型案例,它们通过借鉴现有的、人类创造的内容来快速完成内容创作。

“新晋流量”ChatGPT的背后,AIGC是“昙花一现”?还是将引领人工智能进入新的时代?_「AIGC 周报」_将从【技术前瞻】【企业动态】【政策法规】【专家观点】带你快速跟进 AIGC 世界。

01 技术前瞻

VideoChat::基于聊天的视频理解系统

近日,上海人工智能实验室、香港大学等联合推出了一个端到端、基于聊天的视频理解系统——VideoChat。它通过一个可学习的神经接口整合了视频基础模型和大型语言模型,在时空推理、事件定位和因果关系推理方面表现出色。

此外,研究团队也提出了一个以视频为中心的指令数据集,其中包含数千个视频,配有详细的描述和对话。这一数据集强调了时空推理和因果关系,为训练基于聊天的视频理解系统提供了有价值的资源。

初步的定性实验显示,该系统在各种视频应用领域的潜力,并为未来的研究设定了标准。

参考链接:
https://arxiv.org/abs/2305.06355

ImageBind:横跨6种模态的开源大模型

日前,Meta公布了名为ImageBind的开源模型,该模型能够同时从文本、图像/视频、音频、深度(3D)、热能(红外辐射)和惯性测量单元(IMU)6种不同的模态中学习。

据介绍,ImageBind还能够超越之前的单一模态模型,具有更好的性能,并能够更好地分析多种形式的信息,它的目标是使机器具备类似于人类的全面理解能力。

参考链接:
https://arxiv.org/abs/2305.05665

OpenAI新研究:用AI解释A

近日,OpenAI使用GPT-4对GPT-2中307200个神经元进行了解释。从结果来看,绝大多数的解释评分并不高,但有超过1000个神经元的解释得分高于0.8。虽然从目前的结果来看,通过GPT-4解释GPT-2的效果并不完美,但这一阶段性的成果给AI可解释性研究提供了思路。

参考链接:
https://openai.com/research/language-models-can-explain-neurons-in-language-models

类似GPT-4,这个LLM有了多模态能力

近日,为了赋予LLMs多模态能力,,来自中科院、华南理工大学未来技术学院、中国科学院大学的研究团队提出了X-LLM——使用X2L接口将多模态(图像、语音、视频)转换为外语,并将其输入到开源的双语对话语言模型ChatGLM中。

实验表明,X-LLM表现出了优异的多模态聊天能力,有时甚至会在未见过的图像/指令上表现出多模态GPT-4的行为。与GPT-4相比,X-LLM在合成的多模态指令跟随数据集上取得了84.5%的相对得分。

参考链接:
https://arxiv.org/abs/2305.04160

新型Prompting让大模型推理能力狂升

近日,华为联和港中文提出Progressive-Hint Prompting(PHP),用来模拟人类做题过程。在PHP框架下,LLMs

你可能感兴趣的:(人工智能那些事儿,#,AIGC技术周报,人工智能,AIGC,机器学习,深度学习,自然语言处理)