在大模型井喷的情况下,似乎没有什么是必须本人亲自来干的,不论是作图、做视频、写代码、写文章,似乎 AI 都可以完成。但是在这一开始,我就认定一个事:他只能辅助,不能全职替代。不仅是一句创造性的问题,更多的是对其的怀疑。
稍微了解深度学习的可以知道,所谓的回答不过是概率最大的可能,虽然这无法解释为什么 ChatGPT 可以回答如此之多的内容,但是相比于他看到过的数据集来讲,我们问他的可能也不过是九牛一毛。
既然回答只是一个概率问题,他甚至目前没有所谓的推理能力,那么问题就来了,我们凭什么相信,他的回答一定是正确的?
在这个讲座上,大概讲述了以下几个 AI 可能导致的安全问题:
共有 主持人、Kim、Kathleen 三人,具体讲话的是谁大家根据上下文自己推理一下吧。
我们今天的会议是关于在人工智能驱动的业务中创建和执行有效的网络防御策略。
我们今天的讨论将集中在作为一个不断变化的业务组合中的网络环境。
我们将探讨如何创建和执行一个有效的策略,以平衡现代人工智能增长中的防御。
我们将关注进攻技术和战术,以及该领域正在发生的防御策略和创新。
因此,我们期待着与金和凯瑟琳的对话。感谢你们今天加入我的节目。
金,你能否介绍一下你的背景以及今天面对人工智能驱动的组织时的首要想法?
你好,感谢参加今天的对话。我们在政府和公共服务领域非常专注于为我们的国家国防机构提供支持,帮助他们利用人工智能推进任务运营。在这样做的过程中,我们考虑并帮助他们思考了雇用人工智能的风险,特别是如何确保人工智能的可信性。
我们非常专注于这个问题。我们的座右铭之一是“AI by”。我们在三月份的国家安全委员会关于人工智能的报告中也提到了这一点。
我们非常专注于确保我们的国家安全和国防机构能够建立基础设施、技能和方法,以便在安全、安全可靠的方式下大规模有效地应用人工智能。
我最关心的一些事情当然是现代化的人工智能部署,这种部署正在迅速增长。我认为今天我们会对此进行非常好的讨论,我很期待听听Kathleen对此的看法。我们已经谈论了在组织中实施人工智能的问题很长时间了,商业行业领先于政府,毫无疑问。商业行业已经有了一些非常棒的应用案例和人工智能部署。
我们的政府机构刚刚开始赶上,并认识到在他们的工作流程、业务流程和任务操作中使用人工智能的好处。
然而,在这样做的过程中,我们看到了非常有趣的生成式人工智能应用的部署。像是来自微软的GPT或Open AI能力的收购、AWS、Google等公司都在生成式人工智能方面做了一些非常有趣的事情。
这样人工智能可以非常有说服力地生成代码 生成语音 生成图像 这带来了很多好处 但从网络安全的角度来看 肯定会引起一定程度的关注我认为这提高了我们今天可以在这里谈论的一系列全新挑战的标准
凯瑟琳 你能描述一下你在 DARPA 的角色 以及今天网络人工智能领域正在发生的创新吗
Sure, 我是信息创新办公室的主任,该办公室主要为DARPA进行计算机科学研究。我们的角色是推进这一点,你知道,看看地平线,看看未来可能会发生什么。这在人工智能网络空间是很难看到的,因为即使在你面前只有几英尺的地面也在迅速变化。
该办公室在全谱网络或攻防网络行动中都有重点领域,我们经常发现同时查看进攻和防守确实很有帮助,因为每个人都会通知对方。如果您了解硬币的另一面,您可以做得更好,并且可以做得更好。我们还研究弹性系统,即如何构建能够保证做他们应该做的事情而不做他们不应该做的事情的系统。但是你可以认为减少我们的纳税服务,这是巨大的。因此,我们可以做的任何事情来帮助开发工具和技术,使我们的攻击面不那么多孔,都会有所帮助。我认为我们实际上对如何使我们的系统不那么脆弱有所了解。动机和因为它实际上花费金钱来使系统不那么脆弱。呃,所以推力区域弹性系统是关于如何做到这一点的。
然后,我们有一个重点领域并提供AI,我们通常将其定义为如何构建支持AI的系统,我们可以信任我们的生活,或者战斗人员可以信任他们的生活。而现在这样做并不愚蠢,我们确实看到了支持AI RML的系统,人们在其中信任他们的生活,即使他们可能不应该这样做。每个推力领域都是相互关联的,例如使系统更有弹性,更不容易受到攻击是对的补充。
进攻性和防御性的网络操作以及使 AI 启用的系统使构建值得信赖的 AI 有助于构建弹性系统,并有助于在网络操作上开展工作。
最重要的是,显然要收取 EP T 的费用。我认为这绝对是对真正大规模的预训练模型的警钟。我认为语言的流利能力确实非常惊人,不仅具有英语的能力,而且还具有各种不同语言的能力。我写了一个意大利语,要求它将夏威夷语的一个短语翻译成意大利语,它做得很好。然后我说,将所有内容翻译成英语很好,而且做得很好。
同时,尽管如此,好吧,我想我的另一点是,代码实际上是一种语言。因此,语言模型能够编写高质量代码的程度,如果您要求它们编写高质量代码,它们在编写高质量代码方面会做得更好一点。
我不知道,我想这是我们生活的现实的一个标志。如果你只是问正确的代码,它写的不是那么好的代码。如果你要求它写代码,那是内存安全的,它实际上就像它知道如何做,它只是默认情况下不这样做。这可以用Chrome的工程解决一点。
你知道,它们很棒,但它们也不令人惊讶,因为它们不会做数学数数推理或理解物理,也不会产生幻觉嗯。
在某些情况下,您可能会感到很有趣,但是,如果您尝试将其应用于国家安全应用程序,则可能是欺诈。
另一方面,对于搜索公司来说,这似乎是一种生存威胁,能够处理这种情况。因此,我认为我们将会看到在解决这个特定问题方面的大规模运动。
基于大型语言模型下的科学,大型预先训练的模型如何仅基于对接下来发生的事情的统计预测似乎从根本上说,这种能力将继续存在一个说明性问题。但是,您可以在上面建立一些皮带、吊带或其他东西,这些东西可能会抓住问题,并将发生率降低到对系统可能出错的其他事物的不信任程度。因此,我认为我们将在相同的时间内看到一个非常有趣的运动。
谈及那种可怕的天性,太感人了,我们面临的是什么?
所以你提到了ChatGBT,现在每个人都在想它,因为它很好,但它做得很糟糕。
凯瑟琳,你如何看待人工智能改变了威胁的黑暗面,特别是当我们开始考虑它给对手带来了什么时。所以我们知道我们要面对什么,也知道我们需要捍卫什么。
是的,我认为短期内,生成式人工智能会很流行,它可以快速生成图像、视频、语音和假网站。你可以生成定制的钓鱼信息。我认为现在我们相信很多事情,但在未来由于高质量的钓鱼能力,我们可能无法再信任它们。最近,如果一些东西语法错误,你可以猜测它可能是垃圾邮件。而如果它没有语法错误,那么它更可能来自一个人。如果出现在错误的地方等等,那么它更可能是伪造的。
这些系统还可以编写代码,可以编写许多勒索软件中常用的脚本。因此,即使是没有太多培训的人也能够生成钓鱼邮件、虚拟人物和勒索软件。我认为这主要是噪音级别的问题,会带来更多的攻击,但这些攻击的严重性可能不会很高。抵御这种低威胁级别的攻击不会太困难。
在信息空间中,你可以看到更复杂的对手制造出看起来像是来自可信人士或可信机构的叙述,这也是一个重大威胁。
我认为从更长远的角度来看,具有自主能力的代理人与语言能力相结合的能力更加危险。这意味着软件会尝试实现一个目标。由于域名的特殊性质,我们很可能会看到具有人工智能能力的网络代理。在这个领域,你必须行动迅速,如果任何人都拥有这种能力,那么每个人都必须拥有这种能力,因为一旦这种能力存在,你就无法用人类打字的方式来防御。所以我认为长期来看,这是我们需要担心的事情。我不知道这是否会发生,但它确实是一个我们担心发生的威胁。
我们需要看到这些威胁,金,我知道你在一个非常具有挑战性的部署环境中工作。你能否给我们一些关于这些环境在人工智能方面如何演变的见解,以及它们除了我们启动人工智能和一般情况下所面临的挑战之外,还提出了哪些独特的挑战?
你知道我是说,我认为凯瑟琳提到了很多主要问题。在来到删除之前,我是太空林业的技术和创新主管。因此,我花费了很多职业生涯在太空领域工作,同时也在周围工作,你知道,空中系统也是如此。
在这里,我们看到很多机会,我认为可以将人工智能应用于太空领域,当然,一直以来,努力将人工智能应用于更好地理解太空领域并更好地认识太空中真正发生的事情。当然,我们谈论的是观察那些数百或数千英里以外的物体。如果你想象一下这个学习者,你甚至可以更进一步,但是这些物体是什么,什么是垃圾,什么不是垃圾,垃圾往哪里去,我们如何真正绕过它,随着空间变得更加拥挤,它变得更加成问题。我们当然可以看到大使们试图藏在垃圾中,并且制造这样的挑战。那么,如果我们真正依赖上面的数据,我们如何真正辨别我们在太空中看到的东西?
正如凯瑟琳所提到的,我们需要更多的自主性,我们需要更多的自主代理,这些代理可以帮助我们在卫星上的机载传感器,可以真正帮助我们查看,检测和表征正在发生的事情,并在该环境中提供一些预测性分析。
在空气环境中,我们看到同样的情况,当然我们有传感器的无人机技术和其他飞机也在海底下有传感器。你知道,这是另一个具有挑战性的环境,所以无论人类不想去还是不能安全地去的地方,我们都可以看到现在需要应用人工智能的地方。
在那些已经使用了主动人工智能或自主代理的情况下,我们看到这些模型可能会容易受到攻击。在那些模型可能容易受到攻击的地方,你知道在数据可能会被毒害的地方,因此人工智能可以创造一些对抗对手的竞争优势。但是,如果这些模型本身或供给这些模型的数据可以被妥协,我们知道它们可以被妥协,那么我们面临真正的挑战。
那也是一个真正的问题,因此,当你开始考虑人工智能的基础时,当你拥有高度依赖于数据的模型时,这些模型本身可能会被破坏,数据也可能被破坏,然后你再考虑这种新型生成式人工智能的出现。攻击者只需要正确一次,而防御者必须一直正确。
那么,Kim,在这种新的威胁环境中,你看到了什么样的网络罪犯行为?他们可能正在做些什么,或者我们如何看到他们适应这种新的威胁环境,新的工具技术和方法,你有什么看法?
是的,我认为网络安全和网络防御已经走过了漫长的道路,我完全同意Kathleen的看法,你必须拥有优秀的防御和攻击两面手段。你必须了解你的攻击向量,不断监控那些潜在的攻击向量,始终认为你会遭受入侵。你必须将自己置于攻击者和对手的立场,以便不断加强你的防御,并了解你可能面临的风险。同时,你必须真正采取系统级的方法,我想Kathleen会同意我的观点。你必须建立弹性,特别是当你考虑到人工智能时。正如我提到的,如果某个特定的数据或特定的模型可能会被破坏,你必须有多个模型和多种类型的数据。思考你的攻击向量,并始终将自己置于可能遭受入侵的位置,整个零信任的兴起正在帮助我们思考这个问题。使用这些零信任方法来认证数据,我们在认证方案、密码和验证到具体的数据元素方面已经取得了很大进展。这是重要的,同时还要思考鲁棒性、弹性和我们整体设计方面的问题,思考如何隔离一些潜在的漏洞或攻击类型,这些是基本原则。人工智能给问题集合增加了新的复杂性,但并不否定必须采用网络安全和网络防御的基本原则。
Kathleen提到了如何跟上的问题,我们产生了大量的数据,防御者如何以机器的速度跟上进攻的演变。我们让防御者成为现实,所以解决这个问题的方法是不要忽视它,比如我们在jarpa项目中有一个名为Chase的程序,它正是在解决如何保护这样的网络,如国防部的网络,它的规模是财富公司的10倍。其中之一的挑战是,当高级持续性威胁入侵时,它会潜入并保持安静很长一段时间,在这段安静期间,显示足迹的日志会被删除,因为你不能永远保存日志文件。因此,Chase程序采用了更智能的数据管理方法,使用机器学习技术来决定要保留什么,要保留什么不要保留,并具有全球视野,而不仅仅是局部视野。
因此,它对数据管理非常聪明,并将其提供给其他机器学习算法,这些算法实际上能够更快地检测威胁。他们进行了一个回顾性的实验,发现在普通流程发现安全漏洞并保留数据后,将其提供给Chase系统后,比标准技术提前数天发现了安全事件。这是其中一种方法。
另一个方法是他们正在开始探索的城堡计划。有时候,当您的系统受到攻击时,您不能只是关闭系统。您仍然需要使用系统来完成某些任务。因此,这个计划的想法是可以尝试模拟已知的威胁,以及在测试环境中使用非常逼真的对手来攻击和拆除系统,并将这种技术转移到实际系统中。
还有另一个努力是Guard计划,它非常认真地解决数据污染和基于机器学习的攻击问题。其目标是找出如何让机器学习研究人员和早期采用者将防御技术纳入他们的机器学习系统基线中,以使其更不容易受到攻击。然后,为那些进行测试和评估机器学习产品的人们开发一个单独的工具包,以便从对手的角度评估这些产品的表现。
在这个计划中,他们进行了一个对抗性的实验,在图像分类问题上使用Guard技术进行了一次头对头的比较。与没有Guard保护的基准和对手网络相比,他们发现Guard技术表现更好。
嗯,那就是与没有防护技术的基准相比,使用了 Guard 技术在对抗网络中的效果。
是的,这只是我们在这个领域所做的一些事情。
太棒了。基于这些解决方案的可信度方面,我知道有很多时候我们看到的网络威胁是入侵网络的最简单路线,而不是最先进和复杂的路线。
Kathleen,我们谈过那些试图减轻最近的 AI 威胁的研究,我们现在在野外看到了什么?
你看到的实际上是针对不同地方正在运行的 AI 进行攻击,还是大多数这些攻击只是在研究领域中?
是的,我并不完全了解,所以我不能完全说。我们看到的攻击往往是通过诱骗某些有权访问的人来进入系统的,这是最常见的方式。很多时候,攻击者会使用生成式 AI 来生成内容,从而使无意中的合作伙伴更可能点击他们不应该点击的链接,或者执行他们不应该执行的操作,以获得对系统的访问权限。
我们还看到在国家安全领域使用深度伪造技术。我们看到了库特尼的深度伪造和泽连斯基的深度伪造。幸运的是,它们的质量都不是很好,乌克兰也很快做出了反应,但这种能力显然存在,可以创建非常引人注目的虚假信息。
我们还看到人造声音被用来说服人们通过电话将钱转移到他们不应该转移的地方。我认为我们只是看到了这些攻击的冰山一角,但是考虑到这种能力有多么容易使用,而且如今基本上是可以作为一种服务提供的,我们将来可能会看到更多这样的攻击。
现在现在冷静下来。
我同意所有的事情,我的意思是这让我感到非常害怕,对吧,我是说。
对,就是在11月份,我们刚刚谈论过这个问题,那时这只是一个新兴的小说事物,现在它已经大行其道,有了所有这些新的后果,当然还有视频能力,你可以用文字或音频来展示信息,非常有说服力的方式呈现给人们,这会造成极大的危害。
还有电话,他们在转移不该转移的资金和提供访问信息,想象一下,如果你信任的某个人的声音过来,这是一个真正的问题,这对于社会来说是一个真正的问题,更不用说我们国家的发展了。
你提到了信任,这是你的头脑中最重要的问题之一,你还提到了值得信赖的AI。
好的,Kim,你看到了什么组织的实际步骤,我是说,我们都在踏上这个旅程,特别是那些将AI引入世界中,可能对其他人进行攻击的人,你看到了一些实际的实际解决方案,在信任的AI方面有所帮助。
您认为组织可以采取哪些实际步骤,尤其是那些将人工智能引入世界、可能会对他人进行攻击的组织。您看到了哪些实际解决方案,有助于建立可信的人工智能?例如,您认为数据应该是无偏的和公平的;您认为模型应该是透明的和可解释的;您认为应该有一定的可靠性和鲁棒性,并且需要对其进行测试。
当然,还有整个安全和模型的责任问题,以确保它按照预期在你的生活中发挥作用,例如你的自动驾驶汽车不会因为看到停车标志或其他东西而把你撞出路面。我们已经讨论了这些问题很长时间。
问题在于,首先我们的工作场所缺乏很多技能、策略和验证和验证或甚至是质疑与我们的模型有关的不同因素的方法。
我们仍然相对较新地将人工智能引入工作场所。它带来了一定程度的新奇感。我们倾向于比我们应该更信任它,我们依赖它比我们应该依赖它更多。
它并没有这些方法、流程或者甚至是认识到质疑所需的洞见和知识库。我们需要一种策略,帮助我们思考如何运用一些基本方法来验证和验证我们的人工智能和数据,使其值得信赖,而不仅仅是一次性的,而是在时间的推移过程中持续不断地实现这个目标。
这是一个真正的挑战。如果您开始考虑可以用于邪恶用途的生成人工智能的快速增长和应用,我们将使确保人工智能值得信赖的问题变得更加复杂。
但你知道,我认为你会看到各种组织,包括商业和政府,都在说他们落后了,我们仍然落后,因为越来越多的人渴望采用人工智能,但在人工智能的可信验证、评估、测试和持续应用方面,应用不足。
因此,对于那些正在使用人工智能的人来说,他们今天应该做些什么?你提到了一些关于制定策略的内容,但是是否有一些工具或能力可以帮助他们保护明天的使用,即使他们不是专家?
好的,再次强调,你不必成为一个人工智能专家来知道,你有一个可以用于善良或者反过来可以被利用对你造成威胁的能力。
因此,就像我们都意识到的那样,当我们思考与我们的网络、系统和数据相关的网络安全时,我们应该有这样的观点,我们应该从零信任的角度来处理它。
我们应该从我们已经被入侵的角度来处理它。我们应该从它容易受到攻击的角度来处理我们的人工智能。
我们应该从这个角度来看待它。你不必成为专家就可以开始提出很多问题,并开始要求你有方法,有人员可以提供一定程度的测试,以了解你正在投资的能力。
你应该投资于这些基础设施,并建立一个核实和验证的文化,以便以聪明、安全、有弹性的方式运用。
你知道,再次强调一下,这更多的是一种文化思维方式,考虑到弹性。如果我有一个容易受攻击的系统或应用程序,我如何通过具备冗余性或一定程度的弹性来保护它。如果它失败了,我们就知道那个将接管。
你不必成为专家才能提出这些类型的问题。所以我认为,确保你拥有能够使用这些技术的正确人才,确保你在多因素身份验证、验证和验证方面投资于一些基本原理,进行培训,并确保你的系统、应用程序和数据,我认为你已经迈出了正确的第一步。
所以你说的是,我们不能跳过基础知识,AI不会神奇地解决它。
这是令人惊叹的,我知道你在这些环境中已经有了一些早期的结果,这些结果可能会有所帮助,也可能没有。
我认为,与AI应用程序合作是很有可能的,我们将会比过去更多地与AI系统进行交互。人们有一种过度信任计算机系统的倾向。他们认为计算机说了算,所以它肯定是正确的,至少在历史上是这样的。也许在过去几年中这种情况有所改变。
但是我认为,拥有这种自然的怀疑是非常重要的。我认为,理解人类与AI系统相互作用的心理学非常重要。我认为,自动驾驶汽车的叙述方式是汽车在行驶,但人类应该保持注意力,准备在微秒内接管控制,如果这不可能,那么就从根本上误解了人类心理。我认为我们在参议院的案例中看到了这一点,Tinna 有一些由ChatGPT写的文章,有一个署名,我不确定是ChatGBT,但加了一个聊天机器人。它有一个署名,说像高级技术人员一样,如果你点击链接,它会带你到一个页面,说实际上那个高级技术人员是一个聊天机器人,由人类编辑增强,验证结果是否正确。
他们发布了一些这样的署名文章,结果超过一半有事实错误。我认为挑战在于,当你阅读具有ChatGPT等流畅性和保证性的文本时,你会认为它非常能干,当然,你认为它的数学和事实都是正确的。
因此,放置人类编辑在发现这些错误的位置上,忽略了人类心理,这些能力是极其强大的,将对许多事情非常有用。因此,它们将被广泛使用,我们需要采取实践方法来使用它们,以便获得它们提供的好处,而不会伴随着负面影响。在等待这些更加强大的智能体的同时,我们需要认真考虑人们的心理学,以改进网络系统。
我认为其中一件事就是进行演习,例如,你信任这个消息吗?我的组织定期发送带有链接的消息,你不应该点击它。他们会统计有多少人点击了这个链接。
这些都是非常有用的,可以让人们更加警惕。
我认为再次认真对待网络安全是非常重要的,我们不能轻易地认为这种事情不会发生在自己身上。
这将使我们所有人的风险降低。
是的,朝着零信任的方向发展,这样如果有人侵犯了你的系统,那并不意味着他们会自动侵犯其他系统。
希望我们能达到这样的程度,如果发生这种情况,公司会感到非常尴尬,所以未来没有人会这样做。
这可能是不切实际的期望,但这将是好的。我真的很担心我们的攻击面积的规模,以及它在更重要的国际冲突面前会使我们处于非常薄弱的地位,而在我们生活的这个世界中,这种冲突并非不可想象。
所以,你有什么想法?是什么让你夜不能寐呢?
首先,除了所有这些,有没有像商业领袖那样在做的思考呢?你的想法是什么?Kim,你先说。
好的,我想在这里留下一个更为积极的态度,因为我认为凯瑟琳绝对提到了很多关注点、挑战和让每个人夜不能寐的事情。攻击面是巨大的,挑战是真实的,威胁是真实存在的,对手在针对我们,我们可以看到这一切都在实时地发生。
但是,我想留下一个积极的态度,那就是人工智能是令人惊奇的,我是说我们能够用人工智能做的事情绝对是惊人的。
我们已经看到它如何帮助我们相对较快地解决了COVID问题,我是说疫情非常可怕,有巨大的无谓的生命损失。但我们之所以能够掌控局面,是因为我们有真正好的、坚实的人工智能,能够真正理解如何快速创建这些疫苗,并且在医疗保健领域不断发展,人工智能在医疗保健行业中的应用及其所能带来的帮助是惊人的,比如帮助我们找到更好的药物、更好的疫苗,以及人们适应治疗的更好的方式。
这只是一个例子,我们可以看到人工智能的应用正在改善我们的日常生活,有很多不同的例子。
因此,人工智能是令人惊奇的,而人工智能的本质是人类创新的结果,人类的创新将继续推动人工智能的发展,并且将继续找到方法来保护我们免受人工智能的不良应用。
我们只需要拥有这种积极的态度,但我们也不能自欺欺人,我们不能自满,我们不能抱着完全信任的态度。我们必须要让防御方学会更好的进攻,让进攻方学会更好的防御,并继续努力。
我认为,如果我们采取今天谈论的态度和观点,我们将能够更好地创造有效的人工智能,并应用有效的人工智能,并带领他人一起成长,培训我们的劳动力,并在培养我们的孩子和教育我们的孩子方面进行人类思考。所以我想以此留给大家。
我们有很多机会,我们只需要明智地去把握。
Kathleen,你有什么想法想要留给每个人的?
我认为最近几年出现的人工智能技术是非常惊人的。
我认为你可以使用人类的本地语言与计算机系统交互,计算机系统可以以人类的本地语言回复,并理解你的意思,这是一场游戏变革,或者说是完全不同的领域。
我认为这将渗透到许多方面,在未来我们与计算机系统的界面更有可能是口头界面,我认为这将以完全不可预测的方式改变很多事情。
一些事情会是可预测的,但我认为其他事情会让我们回顾过去,在那个时候你不得不在键盘上完成所有事情,这就像在电视出现之前,我们会想,“哇,那时候你是怎么做到的?那太疯狂了。”
我认为现在大型语言模型在语言流畅性方面表现出色,但在数学和推理方面表现不佳,但人们正在非常努力地解决这些缺陷。
因此,如果这些缺陷在不久的将来没有得到解决,我会非常惊讶。
我认为变化的速度是惊人的。
有时我每周要读一篇新论文,这些论文通常是在过去两周内发表的。
我最近去参加一个会议,我在那里展示了一篇三周前发表的论文,他们就像,哇,你在谈论三周前的工作,这就是变化的速度,它真的令人难以置信。
我认为很难看到这会带来什么后果,我认为很重要的是,我们要利用优势,减轻劣势,我们对优势和劣势都要有清醒的认识,我们不能在网络空间中感觉就像所有的优势都在这里,而且谁会试图破坏这些东西,这是一个难以想象的想法很长一段时间。
等到它变得可想象时,它已经被安装得如此之多,以至于非常难以修复了。
感觉我们处于一个时刻,我们在采用新技术时可以更加警觉,并且必须更加安全。
我并不是非常乐观,但我想指出的方向是朝着这个方向。
我非常乐观的是,新技术将是惊人的,而且它将比我们想象的早就到来。
因此,如果每个业务单位、每个业务领袖都能接受采纳一项事项,从今天开始做一件事情,那会怎么样呢?那个事项是什么呢?
哦,那个…你在问谁呢?
嗯,我们从你开始吧。
我不知道,我想真正重要的是,要仔细监控它的优点和缺点,并跟踪这些事情,不要在不该信任它的时候相信它。这意味着要做很多事情,比如查看进入它的数据,进行持续评估。挑战之一是如何测试ChatGPT这样规模的任务,它几乎了解整个网络,如何测试读完整个网络的东西?你可以在特定主题上测试它,可以在一个空间与它交互,但那只是微小的一部分。因此,在为特定任务定制AI技术时,一定要非常小心地测试它是否符合预期。
Kim,你有一个问题,你会问那些拥抱人工智能的商业领袖去做什么?
我认为这有点像Kathleen说的第一原则。我们正在尝试解决什么问题?
我们正在用这个AI做什么?为什么?
然后,当我们开始拆分它时,我们如何让它对我们有利,如何让它对我们不利,如何保护自己免受一些不利因素的影响,如何利用优势,如何加快进程,如何创造更有竞争力的优势等。
但你必须从根本问题开始,即我们为什么应用它,我们用它做什么,它将如何帮助我们。
好吧,Kim和Kathleen非常感谢您今天抽出时间。我们认为,随着人工智能的兴起,人工智能正在推动我们的许多业务,我们进行了很好的讨论,包括我们面前看到的威胁形势,这是如何演变的,有多少事情既有助于网络防御者,也有助于保护我们的业务,就像我们为那些商业领袖所做的那样。非常感谢非常感谢今天加入我们,感谢大家加入GTC,你们正在收听我们的会议