首页 > 文章中心 > 正文

谈离散型制造业生产能力平衡技术

谈离散型制造业生产能力平衡技术

关于虚拟企业的生产任务分配研究的报道有[1][1]等,关于生产计划执行,人力分配的研究报道有[3][4]等,而关于基于实际生产能力,对生产任务进行快速均衡分配的研究报道较少。本文探讨将所有工作中心的总工作负荷进行动态统计掌握,然后将工作中心的能力和生产任务进行匹配,平衡后产生适应负荷的详细生产计划,对超出能力负荷的生产任务进行选择外协。该方法将促进制造业的生产计划合理化、精准化,从而最大发挥生产资源的效率,增加制造业的经济效益。

离散型制造业生产能力均衡模型

生产计划下达模式问题分析生产计划与调度是生产控制的关键,它的科学性及优化程度,直接影响生产效率。现在,一般中等规模制造型企业的生产管理部常常接到成千上万生产订单(生产零件),凭经验分开转递外协生产或者自制,如图1。这种主要靠人工经验组织生产的模式,未根据生产资源约束,最优处理自制与外协的关系。本文采用改进后的生产组织模式,摈弃整个生产过程采用经验主义,而是建立在理性的推算基础上,将瓶颈工序外协制造,扩大产能。

生产计划下达模式改进本文采用优化模式[5]——拣选后直接下达到工作中心,如图2,其最关键的技术是经过科学计算后再判断,然后分流订单到外协加工。该模式采用两步优化的办法:首先生产部接到订单后,将其分为必须外协件,必须自制件和可外协可自制件三类。然后用算法将必须自制件和可自制可外协件约束于各工作中心的产能,进行匹配选择,基本符合产能的订单用于自制,超出产能的订单和必须外协件外协加工。然后,将下达到各车间或者工作中心的工件进行优化排产。该模式是两阶段优化,优点是将复杂问题进行了分解,对算法的要求相对较低,优化效果也较好,并且车间管理的灵活度较大,可以积极应对各种突发事件,校正计划的偏差;其缺点是生产部的大计划变更不方便,对车间的生产情况监控比较弱。改进的下单模式能起到“防洪抗旱”作用,均衡任务。备注:如图2虚线叠加部分所示,“软件系统优化排程”的动作可以是生产管理部或生产制造执行部门做,但必须根据实时动态产能等资源优化排产。

生产任务均衡下达模型生产管控业务过程比较复杂,生产环境相关的各种因素经常发生变化,各种不确定性的事件经常发生等等,也使得生产部计划不确定,也导致车间生产调度问题更加复杂。作者提出基于产能的计划制定模式,然后把订单下达至车间或者生产中心,具体排产调度由车间自己用算法根据生产现场实际再优化,该方法称为拣选后直接下达到工作中心的计划模式,下面详细介绍。为了说明方便,使用部分假设条件。设车间当前序的产能为[,,,]12mNAAA,m为工作中心或设备数目;有n种订单需要加工,其交货期几乎相同,订单j的工序需要在机器i上加工,如订单的加工机器矩阵S描述,列为工件,行为机器/序,工件j有jc个;工件j的工序在机器i上加工需要的时间如加工时间矩阵T描述。

优化产能均衡的学习算法设计

基本强化学习算法概述强化学习[7][8][9]是一种有效的机器学习方法,通过与环境的交互,经过试探与评价,实现从环境到动作的映射的学习方法,目标是使长期奖励信号最大。由于外部环境提供信息较少,强化学习的学习效率通常较低。Q-学习算法由Watkins于1989年提出的,类似于动态规划算法的一种强化学习方法,通过与环境交互,学习最优行动策略[10]。Q-学习的目标是学习在动态环境下如何根据外部评价信号来选择较优动作或者最优动作,本质是一个动态决策的学习过程。Q-学习中,每个Q(s,a)对应一个相应的Q值,在学习过程中根据Q值,选择动作。Q值的定义是如果执行当前相关的动作并且按照某一个策略执行下去,将得到的回报的总和。最优Q值可表示为Q*,其定义是执行相关的动作并按照最优策略执行下去,将得到的回报的总和。关于Q-学习算法的研究成果较多[11],如文献[12]针对标准强化学习学习由于缺乏环境信息,致使算法速度慢的问题,在标准的Q-学习算法的基础上,加入有效的经验知识,提出基于经验知识的Q-学习算法。文献[13]提出了新的多智能体学习算法,通过对联合动作的统计来学习其它智能体的行为策略,并利用智能体策略向量的全概率分布保证了对联合最优动作的选择。学习算法广泛应用于优化[14]、智能控制[15]、机器人、智能交通[16]和多智能体系等领域。

新学习算法原理描述自然界的生物在残酷的优胜劣汰法则下不断完善自己以适应环境,这就是生物的学习能力。通过学习,生物不断调整自身的状态来适应环境,并通过继承的积累使好的信息传递到后代。强化学习算法虽具有强大的应用范围,仍有其局限性,它应用于解决离散型生产调度问题的报道较少,特别应用于解决离散型制造业生产任务按照负荷分配几乎未见报道。本文针对离散制造业生产实际,提出新的学习算法,并将其应用于生产任务分配。该文的新学习算法,它的核心思想是基于哲学上的“近朱者赤,近墨者黑”的原理,也就是让潜在解不断的向较优解学习,学习过程中吸取它的优良基因,从而不断改善解。学习算法也借鉴了GA部分思想,若采用“整数编码”,学习其实就与好解(GA的染色体)交叉。该新的学习算法也是一种基于迭代的优化工具,系统初始化为一组随机解,通过迭代搜寻最优值。在学习算法中,我们将潜在解称为“学子”,学子在解空间追随最优的学子进行搜索。必须注意的是在学习过程中不能抛弃向优秀同事学习这一种重要方式。这种优秀学子的知识(历史最优解)信息代代相传,自然地形成了全局最优解的轨迹,对这些全局最优解进行模式抽取,即可得到全局最优模式。而全局最优模式是迭代搜索所需的极其有用的知识信息,利用全局最优模式可以对学子集体空间的进一步求解提供有效指导,从而加快算法的收敛速度。

总结

近些年来,关于生产调度的研究较多,解决生产调度的算法也较多,但因生产调度是NP难的组合优化问题,优化时的收敛速度较慢,耗费时间及存储资源较多,还没一种算法能适应各种复杂的调度问题。关于生产计划及其任务均衡分配的报道较少。本文深入探讨了基于生产能力负荷的生产任务分配问题,能最大限度地发挥产能。并提出了LA算法,采用了新的0-1编码,成功应用于解决生产任务均衡分配问题,数据仿真实验验证该算法收敛速度较快,且容易趋向全局最优解。未来将深入研究LA的其它模型用于优化问题的特性区别,效率差异;LA为初次提出,关于它的理论意义还没深入讨论。将来的工作一方面需要完善其理论意义;另一方面将其应用与连续函数优化问题,分配问题、TSP等其它组合优化问题,并进一步深入研究在其它领域的应用。

作者:连志刚焦斌高叶军单位:上海电机学院电子信息学院

文档上传者