东南大学 崇志宏:我们在折腾什么?

东南大学数据与智能实验室(D&Intel Lab)组织“认知计算的大数据处理"暑期讨论班,主题应该属于多模态大数据的认知计算,尽管侧重于联结主义的方法,但是知识图谱、符号主义方法、异构大数据的存储访问、区块链的去信任化分布应用架构等也包括在讨论内容中。当时确定的讨论主题是:

开放环境下非结构文本、图片、视频数据的积累需要综合运用神经网络的感知技术和符号为基础的认知计算方法,从融合的异构数据中挖掘隐藏的结构,用于人类的感知、认知和决策活动。

在这些讨论中,是什么构成了问题的困难?我们在折腾什么?我们反思总结成以下几点:

1)不知道怎么建模:如何用一些 基本的概念和模型去建模,例如,尽管我们能巧妙地应用深度学习模型对语言、视觉甚至认知去建立模型,但是,对于如何利用神经模型对reason去建模,尽管我们有Learned Approximate Inference的技巧;

2)不知道怎么提高模型的质量:在建立模型并实验后,其性能的进一步提高成为面对的问题,其中的方法和技巧是我们关注点之一;

3)不知道如何优化算法效率:面对大模型和大数据的时候,在大计算平台上的算法优化是一个主要问题,将模型部署到移动端的轻巧学习和推理算法是另外一个问题。不是所有是人工智能都在云端,边缘上的智能也是一个趋势。

因此,有些问题是建模问题,有些问题是效果问题,有些问题是效率问题,这些问题是我们折腾的内容。


东南大学 崇志宏

你可能感兴趣的:(深度学习,知识图谱,区块链,深度学习,软件工程)