Problem F: 减少非法野生动物贸易
非法野生动植物贸易对我们的环境产生负面影响,威胁全球生物多样性。据估计,每年涉及的金额高达265亿美元,被认为是全球第四大非法贸易[1]。你需要开发一个以数据驱动的、为期5年的项目,旨在显著减少非法野生动植物贸易。你的目标是说服一个客户执行你的项目。为此,你必须选择一个客户以及适合该客户的合适项目。
你的工作应该探讨以下子问题:
你的客户是谁?这个客户实际上能做什么?(换句话说,你的客户应该具备执行你提出的项目所需的权力、资源和兴趣。)
解释你开发的项目为什么适合这个客户。从已发表的文献和你自己的分析中,有哪些研究支持你提出的项目的选择?使用数据驱动的分析,你将如何说服你的客户执行这个项目?
你的客户需要什么额外的权力和资源来执行这个项目?(记得使用假设,但也要在实际中进行合理的基础工作。)
如果项目得以实施,会发生什么?换句话说,对非法野生动植物贸易的可测量影响会是什么?你进行了什么分析来确定这一点?
项目达到预期目标的可能性有多大?此外,基于一个具体情境的敏感性分析,有哪些可能会不成比例地帮助或损害项目达到目标的条件或事件?
虽然你可以将方法限制在非法野生动植物贸易,但你也可以将非法野生动植物贸易视为更大复杂系统的一部分。具体来说,你可以考虑在其他领域的全球努力,例如遏制其他形式的非法贸易或努力减少气候变化,再加上遏制非法野生动植物贸易的努力,可能构成一个复杂系统的一部分。这可能为该领域中的意外参与者创造协同机会。
如果你选择在解决方案中利用复杂性框架,请确保通过讨论这一建模决策的利弊来证明你的选择。
此外,你的团队必须提交一份1页备忘录,重点介绍你的5年项目提案以及为什么这个项目适合作为他们的客户的原因(例如,获得资源的途径、符合他们的任务、与他们的使命宣言一致等)。
评审将特别关注在客户选择和整个分析过程中选择和证明适当建模过程的创造性。他们还将关注既能建立客户与提出的项目之间的强连接,又能在数据分析与提出项目设计之间建立清晰而直接的联系的阐述。
你的PDF解决方案总页数不得超过25页,其中包括:
一张清楚描述你对问题的方法以及你在问题背景下的分析中最重要的结论的一页摘要表。
目录。
完整的解决方案。
一张向客户的一面备忘录。
参考文献清单。
AI使用报告(如果使用)。
注意:对于完整的ICM提交,没有具体的规定最小页数要求。你可以使用多达25页的总页数来完成所有解决方案工作和你想包含的任何其他信息(例如:图纸、图表、计算、表格)。接受部分解决方案。我们允许谨慎使用ChatGPT等AI,尽管没有必要为此问题创建解决方案。如果选择利用生成式AI,必须遵循COMAP AI使用政策。这将导致必须将AI使用报告添加到PDF解决方案文件的末尾,该报告不计入解决方案的25总页数限制。
客户 (Client): 将要实施提案项目的参与者。他们可能是官方参与者(政府或准政府组织)或非官方参与者(非政府组织)。
非法野生动植物贸易 (Illegal Wildlife Trade): 涉及对濒危物种、受保护的野生动植物或这些物种的衍生/产品进行走私、盗猎、捕捉或收集的行为。
COMAP竞赛:在竞赛中使用大型语言模型和生成式人工智能工具的政策与指导
政策:
这一政策的制定是由于大型语言模型(LLMs)和生成式人工智能技术的崛起。该政策旨在为团队、顾问和评委提供更大的透明度和指导。此政策适用于学生工作的各个方面,从模型的研究和开发(包括代码创建)到最终的书面报告。由于这些新兴技术正在迅速发展,COMAP将根据需要不断完善此政策。
团队必须对其所有对AI工具的使用保持公开和诚实。 团队和其提交的透明度越高,其他人对其工作的信任、欣赏和正确使用的可能性就越大。这些披露有助于理解知识产权的发展,并正确承认贡献。如果不清晰地引用和参考AI工具的角色,很可能会将有问题的段落和工作识别为抄袭并被取消资格。
解决问题并不需要使用AI工具,尽管允许其负责任的使用。 COMAP认识到LLMs和生成式人工智能作为提高团队准备报告的生产力工具的价值;例如,在制定结构的初步想法、总结、改写语言等方面都可以发挥作用。在模型开发的许多任务中,人类的创造力和团队合作是至关重要的,而依赖AI工具会引入风险。因此,我们建议在使用这些技术进行模型选择和构建、协助代码创建、解释模型的数据和结果以及得出科学结论等任务时要谨慎。
重要的是要注意,LLMs和生成式人工智能具有局限性,无法替代人类的创造力和批判性思维。 COMAP建议团队在选择使用LLMs时要注意这些风险:
客观性: LLM生成的文本中可能包含种族主义、性别歧视或其他偏见的先前发表的内容,某些重要观点可能不被表示。
准确性: LLMs可能“幻觉”,即在其领域之外使用或处理复杂或模糊的主题时生成虚假内容。它们可以生成在语言上合理但在科学上不合理的内容,可能会错误地陈述事实,并已被证明生成不存在的引文。有些LLMs仅在特定日期之前发布的内容上进行训练,因此呈现不完整的图景。
上下文理解: LLMs无法将人类理解应用于文本的语境,尤其是在处理成语表达、讽刺、幽默或比喻语言时。这可能导致生成内容中的错误或误解。
训练数据: LLMs需要大量高质量的训练数据以实现最佳性能。然而,在某些领域或语言中,可能不容易获得这样的数据,从而限制了输出的有用性。
团队指导:
团队必须:
建模忠哥团队出品,关注微信公众号:建模忠哥获取更多资源
在报告中清楚指明使用LLMs或其他AI工具,包括使用哪个模型以及用途。 请使用内联引文和参考部分。在25页解决方案之后追加AI使用报告(如下所述)。