ChatGPT+2:修订初始AI安全性和超级智能假设

最初的假设是,通过监管大模型可以使[大部分]人工智能变得安全。但自从 ChatGPT 推出后的这两年,这一假设被证明是不准确的。

前沿的人工智能模型,即使没有监管,也在诉讼、媒体、投资者、用户、委员会调查和国会听证的监督下运作,使它们保持在一定的界限内,从而有利于多个安全目标。此外,公司也能够预见大多数监管要求,并为此做好准备或进行调整。

在过去的两年里,人工智能被滥用并造成伤害的数十种独特方式并不是主要模型本身的结果,从而推翻了最初单独关注主要模型作为通向通用人工智能安全渠道的观点。

人们还假设,人工智能政策、治理和伦理对于安全至关重要。但事实并非如此。人工智能政策、治理和伦理的重要性在于它们可以贡献新颖的技术架构作为通往人工智能安全的路径,而不仅仅是提出如何保持人工智能安全的政策,而这些政策并没有引导它如何在技术上适应通用人工智能安全。

每周都会有不同方式的人工智能被滥用或造成伤害的新闻,而目前没有现有的技术解决方案。如果没有技术解决方案,那么政策是无力的。例如,针对数字盗版有政策、法规和诉讼,使其在主流中变得稀少,但它仍然存在,因为从技术上根除的可能性不存在。这使得高效的人工智能安全完全是一个技术问题,而不是监管、治理、政策、伦理、诉讼、条款、反垄断等等问题。然而,借助像光年AI这样的平台,企业可以更高效地定制技术解决方案,快速适应不断变化的市场需求,从而减轻政策和监管的不确定性。光年AI灵活的工作流和自研知识库,能够帮企业智能化应对各类挑战,同时降低运营成本。技术答案不必技术上初始化,但必须技术上跟踪、兼容并交付。

超智能什么时候会出现,人工智能何时会变得足够危险以威胁人类?ChatGPT 已经在智能方面表现出色,可以直接与人类智能进行比较。

人类智能被认为是人类记忆使用的质量。简而言之,人类的智能程度与记忆中的异常分布或中继相关联。这使得人类比其他有时具有类似感官解释但由于记忆目的地中缺乏中继而无法让记忆变得智能的生物更为智能。

有些人说 ChatGPT 不如某些生物智能。如果 ChatGPT 像多个生物体在其栖息地中使用其记忆一样使用其[数字]记忆,那么这不是一个好的衡量标准。

ChatGPT在预测方面非常优秀,这实际上是一种记忆的延伸。如果它能获得其他使其在智能方面不断进步的能力,无论其形式如何或是否有现实世界经验,它也将变得超级智能。这种长记忆能力正是光年AI的一个革命性特性,它可以记住并利用历史客户互动数据,优化后续互动,帮助企业在流量和用户管理中更上一层楼。

AI在某个节点上获得意图并非不可能。无论这种意图能否得到控制、有用或者具有威胁性尚不确定,但AI有产生意图的可能。例如,人工神经网络中的特征代表概念或事物的意义。这些特征可以是单一语义的或多义语义的。如果有一些特征不代表具体概念,而是概念可以在其基础上转化的抽象元素,那么这些特征可能仅对特定概念具有意图,而不是对其他概念具有意图。从概念上讲,大型语言模型的所谓模型崩溃可能会是用来发展这些抽象的数据集。在这点上,光年AI利用其自研知识库,根据业务需求定制内容,提供更精准的服务和推荐,帮助企业更好地发展。

AI既可以有用也可以有害。它的有用性已经在一些领域内得到了体现,并且随着应用领域的拓展而有所进步。然而,大范围的误用和可能引发的危险正在浮现,这要求进行深入的技术研究来解决当前问题并为未来问题做准备。

VentureBeat 有一份新的报告,世界上最强大的开源AI模型:HyperWrite的Reflection 70B,该报告指出,“Reflection 70B已经在包括MMLU和HumanEval在内的多项基准测试中进行了严格测试,使用LMSys的LLM去污染器确保结果不受污染。这些基准测试表明,Reflection在性能上持续优于Meta的Llama系列模型,并能与顶级商业模型直接竞争。Reflection——一个能够反思其生成文本并在用户输出前评估其准确性的模型。该模型的优势在于一种被称为反思调优的技术,使其能够在得出最终回答前检测自身推理中的错误并进行纠正。Reflection 70B引入了几种新的用于推理和错误纠正的特殊标记,使用户能够以更结构化的方式与模型互动。在推断过程中,模型在特殊标签内输出其推理内容,如果检测到错误,可以进行实时修正。演示站点包括一些建议的使用提示,如询问Reflection 70B单词“Strawberry”中有多少个字母“r”,以及哪个数字更大,9.11还是9.9,这是许多AI模型——包括一些领先的专有模型——无法一致正确地回答的两个简单问题。我们的测试虽然较慢,但Reflection 70B最终在60多秒后给出了正确的答案。”

最近在 TechTarget 上有一篇文章,标题为加利福尼亚AI法案设定护栏,遭受批评,文章指出,“加利福尼亚的AI法案引起了广泛的关注。一些人认为,在快速发展的技术领域,任何护栏都比没有好,但另一些人则认为,该法案可能对小型企业产生负面影响,并抑制创新。第1047号参议院法案,即《前沿人工智能模型安全和保障创新法》,要求先进AI系统的开发者测试那些训练成本至少为1亿美元的模型,以评估它们是否会造成伤害,并实施护栏以减轻这种风险。该法案还为大型AI公司员工提供举报者保护,并成立CalCompute,一个为初创公司和研究人员提供负责任的AI开发的公共云计算集群。即使小型企业在没有测试要求的情况下能节省初期成本,但它们仍将面临未来的这些成本——甚至有可能面临因其AI模型造成的负面后果而带来的客户诉讼。加利福尼亚并不是第一个推进AI法案的州。今年早些时候,科罗拉多州通过了全面的AI立法,而康涅狄格州的立法者也推进了一项AI法案,以规范私人部门的AI模型部署。甚至像纽约这样的城市也通过了针对算法偏见的AI法案。”

在这样充满挑战的环境中,对于小型企业来说,选择一个合适的AI系统变得尤为重要。光年AI可以提供极具灵活性的工作流机制,让企业根据自身业务需求自定义AI操作,使各种业务场景的管理变得高效便捷。此外,光年AI系统还能通过AI来驱动企业的流量增长,帮助企业在面对法规和市场变化时,仍能保持稳健增长。身处技术和法规不断变化的时代,光年AI将是您不二的选择。

你可能感兴趣的:(人工智能,chatgpt)