(1)《An improved artificial bee colony algorithm for solving multi-objective low-carbon flexible job shop scheduling problem》(2020)
提出具有变动加工速度的多目标低碳柔性作业车间调度模型,优化目标包括最小化最大完工时间、最小化总碳排放和最小化机器负载。设计了一种改进的人工蜂群算法(IABC)来求解MLFJSP问题。最后进行一系列的对比实验研究,包括算法改进前后的对比,以及改进后的算法与MOPSO、MODE、NSGA-II的对比。结果表明,该方法能较好地解决多目标FJSP问题。
(2)《Multi-objective optimization for energy-efficient flexible job shop scheduling problem with transportation constraints》(2019)
针对具有运输约束的柔性作业车间调度问题,建立了以能源消耗和最大完工时间最小为目标的多目标优化模型。然后,提出了一种改进的遗传算法来求解该问题。最后,通过综合实验对所提模型和算法的性能进行了评价。实验结果表明,所提出的模型和算法能够有效地解决问题。
(3)《Deep reinforcement learning based AGVs real-time scheduling with mixed rule for flexible shop floor in industry 4.0》(2020)
提出了一种基于自适应深度强化学习(DRL)的混合规则AGV实时JSP调度方法,以最小化最大完工时间和延迟率(delay ratio)。首先,AGV实时调度问题转化成MDP模型,包含状态表示、动作表示、奖励函数和最优混合规则策略,提出了一种新的DQN方法,实现了最优的混合规则策略,选择合适的调度规则和AGV对不同状态进行调度。以实际柔性车间为例,验证了该方法的可行性和有效性。
(4)《Solving the dynamic energy aware job shop scheduling problem with the heterogeneous parallel genetic algorithm》(2020)
研究了在有紧急到达任务的作业车间中,如何最大限度地减少总延误、总能量成本和对原计划的干扰。提出具有事件驱动策略的双异质岛并行遗传算法,最后进行了数值试验,结果表明该方法能有效地解决该问题。同时,平均结果得到了改善,执行时间显著减少。
(5)《Integrated intelligent green scheduling of sustainable flexible workshop with edge computing considering uncertain machine state》(2020)
提出了一种基于边缘计算的考虑不确定机器状态的可持续柔性车间智能绿色调度集成方法。以最大完工时间、加工成本、加工质量和能耗为优化目标,建立并求解绿色调度多目标模型;建立机器状态智能监测与诊断的硬件系统,将机器状态诊断结果反馈给原绿色调度方案,并对不确定的机器动态状态进行相应的实时调整,称为绿色重调度。
(6)《A dynamic job-shop scheduling model based on deep learning》(2021)(Q2)
以长短时记忆网络(LSTM)为基础,建立了作业车间动态调度的数据预测模型。选择最大完工时间、设备总负载和关键设备负载进行了优化。最后,采用改进的多目标遗传算法(MOGA)求解动态JSP调度的多目标问题。实验证明了该算法的有效性。
(7)《Petri-net-based dynamic scheduling of flexible manufacturing system via deep reinforcement learning with graph convolutional network》(2020)
使用DQN求解资源共享、路径柔性和原料随机到达的柔性制造系统动态调度问题,结合了图神经网络和Petri网,实验结果表明,与启发式方法和具有基本多层感知器的DQN相比,PNC网络的DQN在制造性能、计算效率和适应性方面能更好地解决动态调度问题。
(8)《Research on Adaptive Job Shop Scheduling Problems Based on Dueling Double DQN》(2020)
提出了一种基于析取图调度的深度强化学习(DRL)框架,该框架结合了深度卷积神经网络(CNN)和强化学习(RL)的实时性和灵活性优势,并根据输入制造状态直接学习行为策略。结果表明,该算法能够在小尺度问题上获得最优解,在大尺度问题上优于任何单一启发式规则,性能与遗传算法相当。为了证明算法的泛化性和鲁棒性,在训练过程中,以随机初始状态的实例作为验证集,选择泛化能力最好的模型,然后测试训练后的策略对不同初始状态的调度实例的性能。结果表明,该agent能够自适应地得到较好的解。同时,对具有随机处理时间的动态实例进行了研究,实验结果表明,该方法在动态环境下可以在短期内取得相当的性能。
(9)《Actor-Critic Deep Reinforcement Learning for Solving Job Shop Scheduling Problems》(2020)
提出的模型包括行为者网络和评论网络,两者都包括卷积层和全连通层。行动者网络代理学习在不同情况下的行为,批评家网络帮助代理评估语句的价值,然后返回行动者网络。本文提出了一种并行训练方法,结合异步更新和深度确定性策略梯度(DDPG)对模型进行训练。在多智能体环境下对整个网络进行并行训练,并以不同的简单调度规则作为动作。在一个著名的基准测试问题库—OR库中使用了十多个实例来评估模型。评估结果表明,在静态JSSP基准测试问题上是比较好的,在动态环境中实现了很好的完成时间和执行时间的平衡。该方法在静态JSSP基准问题上的调度得分为91.12%,在动态环境下的调度得分为80.78%。
(10)《Real-time neural network scheduling of emergency medical mask production during COVID-19》(2020)
提出了一种端到端神经网络,它以一系列生产任务为输入,实时生成任务调度。该网络通过强化学习来训练,使用负总迟到率作为奖励信号。我们将该方法应用于COVID-19疫情高峰期间一家医用口罩制造商的紧急生产任务调度。计算结果表明,神经网络调度程序可以在几秒钟内解决数百个任务的问题实例。神经网络调度算法获得的目标函数值明显优于现有的建设性启发式算法,并接近于目前最先进的元启发式算法,但在实际应用中计算时间较短。
(11)《Intelligent scheduling of discrete automated production line via deep reinforcement learning》(2020)
首先,提出了一种适用于多加工单元的线性、并行和可重入生产线的离散自动化生产线状态建模方法。其次,针对自动化生产线的调度问题,提出了一种基于深度RL的智能调度算法。该算法为深度RL建立离散事件仿真环境,解决了推进转移时间与最近事件时间的冲突。最后,将智能调度算法应用于线性、并行和可重入自动化生产线的调度。实验表明,在处理时间随机性条件下,该调度策略比启发式调度策略具有更好的性能,并能保持稳定的收敛性和鲁棒性。
(12)《Dynamic scheduling for flexible job shop with new job insertions by deep reinforcement learning》(2020)(Q1)
本文研究了以总拖期最小为目标的新作业插入下的动态柔性作业车间调度问题。在不失通用性的前提下,DFJSP可以被建模为马尔可夫决策过程(MDP),其中智能主体应根据当前决策点的生产状态,依次决定下一步要处理哪个操作,将其分配给哪台机器。为了应对连续生产状态,并在每个重调度点学习最合适的行动(即调度规则),提出DQN来解决这一问题。提出了6条复合调度规则,用于在每次作业完成或新作业到达时,同时选择作业并将其分配到可行机器上。提取7个通用状态特征来表示重调度点的生产状态。将连续状态特征作为输入到DQN中,可以得到各调度规则的状态-动作值(Q-value)。
(13)《Adaptive job shop scheduling strategy based on weighted Q-learning algorithm》
针对作业车间生产环境的动态和不确定性,提出了一种具有自适应特征的调度策略来适应生产要素的变化。为此,建立了包括机器代理、缓冲区代理、状态代理和作业代理在内的基于多agent技术的动态调度系统模型。