一种三轴自动化程编特征识别与刀轨生成方法转让专利

申请号 : CN202311083327.5

文献号 : CN116804865B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 牟文平喻志勇曾德标王鹏程李博姜振喜沈昕游莉萍

申请人 : 成都飞机工业(集团)有限责任公司

摘要 :

本发明公开了一种三轴自动化程编特征识别与刀轨生成方法,属于数控加工领域,包括以下核心步骤:三维建模软件载入零件模型图并设置模型的显示参数,获取零件二维平面图像,制作训练样本、学习训练、得到模型权重参数,基于一阶梯度计算识别结果轮廓,对每一特征图进行三维轮廓扫描得到邻接关系图,特征的精细化识别并结合三维建模软件得到刀轨程序。本发明可自动识别图像中对应的驱动面与支撑面,并基于识别结果生成刀轨,识别结果的准确性较现有的拓扑规则判断方式有着明显提升,模型的适应性(56)对比文件TW 201536390 A,2015.10.01US 11010943 B1,2021.05.18US 2007292033 A1,2007.12.20US 2011150307 A1,2011.06.23US 2015045058 A1,2015.02.12US 2015294500 A1,2015.10.15US 2019294139 A1,2019.09.26US 6078642 A,2000.06.20WO 9424640 A1,1994.10.27李强;李迎光;刘旭;汤立民.基于特征的数控编程技术在航空企业的推广应用.航空制造技术.2016,(第06期),尚佳策.基于加工特征的舵机壳体孔系特征数控加工编程技术.组合机床与自动化加工术.2020,93-97+101.乐毅.基于特征识别的整体壁板快速编程推理算法.航空制造技术.2016,80-83+92.惠昕.基于特征的快速编程技术在飞机整体肋类零件中的应用.制造技术与机床.2020,41-45.Hussmann, H.Encounter trajectoriesfor deep space mission ASTER to thetriple near Earth asteroid 2001-SN263.The laser altimeter (ALR) point ofview.ADVANCES IN SPACE RESEARCH.2021,648-661.Gonzales, Gerard Bryan.Collisioncross section prediction of deprotonatedphenolics in a travelling-wave ionmobility spectrometer using moleculardescriptors and chemometrics.ANALYTICACHIMICA ACTA.2016,68-76.P.Vílez.Trajectory Generation andTracking Using the AR.Drone 2.0Quadcopter UAV.2015 12th Latin AmericanRobotics Symposium and 2015 3rd BrazilianSymposium on Robotics (LARS-SBR).2015,73-78.A. Azizi.Trajectory planning forvascular navigation from 3D angiographyimages and vessel centerline data.2017International Conference on Manipulation,Automation and Robotics at Small Scales(MARSS).2017,1-6.李强;李迎光;刘旭;汤立民.基于特征的数控编程技术在航空企业的推广应用.航空制造技术.2016,(第06期),54-59.

权利要求 :

1.一种三轴自动化程编特征识别与刀轨生成方法,其特征在于,包括如下步骤:S1、在三维建模软件中载入零件模型图,设置其显示参数以区分前景和背景;

S2、采集不同视角的零件表面二维投影图像;

S3、基于深度学习的分割网络粗识别图像特征区域;

S4、针对粗识别结果得到的图像进行灰度化处理;

S5、采用最大间方差策略实现灰度化后图像的二值化,得到包含前景和背景的二值图像;

S6、通过二值图像的全局一阶梯度计算获取图像特征区域的轮廓图;

S7、基于随机灰度赋值法得到图像特征区域轮廓图中的独立轮廓区域;

S8、基于激光扫描得到每个独立轮廓区域的轮廓线扫描数据,并生成二维邻接关系图:选择轮廓线任意位置为起始位置,腹板面法矢方向为激光点的移动方向,竖直扫描原始三维图,激光点发出的光线垂直于腹板轮廓线指向外侧,发出的光线遇到平面即反射对应的距离为扫描距离L;竖直方向的移动距离为零件三维图像中垂直于腹板方向的最大值Hmax,当轮廓线上一个点扫描完成后沿着轮廓线顺时针方向移动激光点,直到将一个独立腹板的轮廓线全部扫描完成为止;二维邻接关系图中,X轴表示不同的腹板区域轮廓线段;Y轴表示腹板法矢方向移动的距离;针对每个腹板区域独立的轮廓区域后建立激光扫描点,扫描轮廓线对应的三维图;

S9、建立邻接准则判断函数实现快速程编驱动面与引导面特征组的精细识别;

对应的判断函数为:

其中,sum表示腹板封闭轮廓线中存在的直线段总数量;i表示直线段的标号;flagli表示对应线段的状态标识; 、 、 、 分别表示腹板轮廓线l在第i段与ydi在二维坐标系中对应区域S中图像的R、G、B灰度值;di表示底角区域;up表示沿腹板法矢方向高于底角的区域;

S10、基于精细识别结果自动生成加工刀轨程序:基于上述判断函数,可以得到基于深度学习识别的所有腹板区域对应轮廓线的邻接关系,若一独立腹板轮廓线中存在一段区域其两侧各存在满足判断准则的面,即对应的面的flag为1其可与该面组成驱动加引导的组合关系;由此组合关系将识别结果返回映射到三维图像中,基于三维建模软件即可自动的得到NC刀轨程序。

2.根据权利要求1所述的一种三轴自动化程编特征识别与刀轨生成方法,其特征在于,零件表面二维投影图像为自动采集:在零件模型图中选择一特征面,以其对应的法矢方向为整个零件的视角方向,并截取屏幕图像;循环得到不同视角对应的特征面,使得零件在屏幕方向上的投影面积最大。

3.根据权利要求1所述的一种三轴自动化程编特征识别与刀轨生成方法,其特征在于,零件表面二维投影图像为手动采集:利用三维建模软件中的工具,依次选择“图像”—“捕获”,在“选择模式”中框选出整个零件区域,点击“选项”,在弹出的“捕获选型”中选择像素,在“更多”中设置图像的分辨率宽和长;设置好捕获参数后,点击“捕获”按钮截取图像,并将截取的图像进行保存。

4.根据权利要求1所述的一种三轴自动化程编特征识别与刀轨生成方法,其特征在于,所述的针对粗识别结果得到的图像进行灰度化处理包括:针对深度学习识别结果得到的图像,根据各个通道灰度值以加权求和的方式灰度化,得到灰度化后的图像。

5.根据权利要求1所述的一种三轴自动化程编特征识别与刀轨生成方法,其特征在于,所述的采用最大间方差策略实现灰度化后图像的二值化包括:对于大小为M*N包含sum个灰度级的图像,对应的计算式子为:;

;灰度图中小于

阈值像素点的平均灰度值为:

其中,pi表示灰度级为i的像素数占总像素的个数;ni表示灰度级为i的像素数;

pbackground表示像素点被分配为background的概率累加和;background与foreground分别表示前景与背景;threshold表示前景与背景分割的阈值; 表示图像中所有像素点的灰度值方差。

6.根据权利要求1所述的一种三轴自动化程编特征识别与刀轨生成方法,其特征在于,所述的基于随机灰度赋值法得到图像特征区域轮廓图中的独立轮廓区域包括:针对公式计算得到的图像特征区域轮廓图,采用全局像素种子点填充策略得到每一连通区域的语义信息;

每一填充区域采用随机赋值的方式进行处理,得到具有不同灰度的图像特征区域;

提取具有相同灰度信息的像素点并进行分类,从而得到独立轮廓区域;

针对每一个具有随机灰度的独立轮廓区域,分别进行灰度化和二值化处理,再基于Canny算子计算得到独立轮廓区域的轮廓线。

说明书 :

一种三轴自动化程编特征识别与刀轨生成方法

技术领域

[0001] 本发明涉及零件的数控加工与特征编程技术,具体涉及一种三轴自动化程编特征识别与刀轨生成方法。

背景技术

[0002] 在数控加工领域,要完成对所设计零部件的加工,数控加工刀轨的生成是一切工作的核心。然而现今在世界范围内还没有真正实现全自动的刀轨生成方法,基于毛坯要得到理想中的零件,需要手动的选择一组加工面即驱动面(一般为腹板)与引导面(一般为侧壁与圆角),然后基于选择的特征生成对应区域的刀轨。因此想要加工完整个零件,在设计的三维图中需将所有特征元素进行手动选择,基于此得到加工刀轨的信息。
[0003] 对于熟练的数控加工程序设计工艺师来说,手动选择加工特征的主要优势有,可根据加工面的特征选择适宜的刀轨生成策略。然而手工选择加工面的缺陷也较为明显,即对于多特征(面、槽腔等)元素零件需要手动的点选所有特征面效率较低,不能满足自动化、高效率以及低成本的需要。
[0004] 为了实现零件自动化程编,部分学者完成了前期的探索工作,现有的成果主要基于所设计零件所有面之间的拓扑关系与零件的几何参数生成刀轨。现有的方法主要步骤包含:导入待加工零件三维图、获取所有面与边的空间拓扑信息(拓扑图的结点表示一个面,面与面之间的连接用相邻的线表示)、选择法矢方向确定在三维空间中最底面、基于选择的面为起始逐步生成刀轨信息直至基于设定的规则得到所有面的加工刀轨信息。分析现有的基于最底面为起始刀轨生成方法主要的缺点有只能适用于零件结构较为简单的特征,若零件中最底面不存在或是零件最底面存在层层嵌套则不适用。
[0005] 为实现自动化程编高效与准确的需要,同时减少在零件程编中人为的介入,准确的特征(驱动面+引导面)识别是实现自动化程编的关键,也是行业急需解决的问题。

发明内容

[0006] 本发明的目的在于提供一种三轴自动化程编特征识别与刀轨生成方法,以解决现今人工生成零件加工程序效率低、高成本以及基于规则的拓扑关系判断驱动面与引导面导致的高误判问题,实现从零件输入自动判断特征面并得到数控机床加工NC程序,同时为进一步在线程序生成服务奠定了基础。
[0007] 为了实现上述发明目的,本发明的技术方案如下:
[0008] 一种三轴自动化程编特征识别与刀轨生成方法,其特征在于,包括如下步骤:
[0009] S1、在三维建模软件中载入零件模型图,设置其显示参数以区分前景和背景;
[0010] S2、采集不同视角的零件表面二维投影图像;
[0011] S3、基于深度学习的分割网络粗识别图像特征区域;
[0012] S4、针对粗识别结果得到的图像进行灰度化处理;
[0013] S5、采用最大间方差策略实现灰度化后图像的二值化,得到包含前景和背景的二值图像;
[0014] S6、通过二值图像的全局一阶梯度计算获取图像特征区域的轮廓图;
[0015] S7、基于随机灰度赋值法得到图像特征区域轮廓图中的独立轮廓区域;
[0016] S8、基于激光扫描得到每个独立轮廓区域的轮廓线扫描数据,并生成二维邻接关系图;
[0017] S9、建立邻接准则判断函数实现快速程编驱动面与引导面特征组的精细识别;
[0018] S10、基于精细识别结果自动生成加工刀轨程序。
[0019] 进一步的,零件表面二维投影图像为自动采集:在零件模型图中选择一特征面,以其对应的法矢方向为整个零件的视角方向,并截取屏幕图像;循环得到不同视角对应的特征面,使得零件在屏幕方向上的投影面积最大。
[0020] 进一步的,零件表面二维投影图像为手动采集:利用三维建模软件菜单栏的中的工具,依次选择“图像”、“捕获”,在“选择模式”中框选出整个零件区域,点击“选项”,在弹出的“捕获选型”中选择像素,在“更多”中设置图像的分辨率宽和长;设置好捕获参数后,点击“捕获”按钮截取图像,并将截取的图像进行保存。
[0021] 进一步的,所述的针对粗识别结果得到的图像进行灰度化处理包括:针对深度学习识别结果得到的图像,根据各个通道灰度值以加权求和的方式灰度化,得到灰度化后的图像。
[0022] 进一步的,所述的采用最大间方差策略实现灰度化后图像的二值化包括:
[0023] 对于大小为M*N包含sum个灰度级的图像,对应的计算式子为:
[0024] ;      (3)
[0025] ;    (4)
[0026] ;   (5)
[0027] 灰度图中小于阈值像素点的平均灰度值为:
[0028] ;(6)
[0029] ;(7)
[0030] ;        (8)
[0031] 其中,pi表示灰度级为i的像素数占总像素的个数;ni表示灰度级为i的像素数;pbackground表示像素点被分配为background的概率累加和;background与foreground分别表示前景与背景;threshold表示前景与背景分割的阈值;表示图像中所有像素点的灰度值方差。
[0032] 进一步的,所述的基于随机灰度赋值法得到图像特征区域轮廓图中的独立轮廓区域包括:
[0033] 针对公式计算得到的图像特征区域轮廓图,采用全局像素种子点填充策略得到每一连通区域的语义信息;
[0034] 每一填充区域采用随机赋值的方式进行处理,得到具有不同灰度的图像特征区域;
[0035] 提取具有相同灰度信息的像素点并进行分类,从而得到独立轮廓区域;
[0036] 针对每一个具有随机灰度的独立轮廓区域,分别进行灰度化和二值化处理,再基于Canny算子计算得到独立轮廓区域的轮廓线。
[0037] 进一步的,所述的基于激光扫描得到每个独立轮廓区域的轮廓线扫描数据包括:
[0038] 选择轮廓线任意位置为起始位置,腹板面法矢方向为激光点的移动方向,竖直扫描原始三维图,激光点发出的光线垂直于腹板轮廓线指向外侧,发出的光线遇到平面即反射对应的距离为扫描距离L;竖直方向的移动距离为零件三维图像中垂直于腹板方向的最大值Hmax,当轮廓线上一个点扫描完成后沿着轮廓线顺时针方向移动激光点,直到将一个独立腹板的轮廓线全部扫描完成为止。
[0039] 进一步的,所述的由轮廓线扫描数据生成的二维邻接关系图中,X轴表示不同的腹板区域轮廓线段;Y轴表示腹板法矢方向移动的距离;针对每个腹板区域独立的轮廓区域后建立激光扫描点,扫描轮廓线对应的三维图。
[0040] 进一步的,所述的建立邻接准则判断函数实现快速程编驱动面与引导面特征组的精细识别,对应的判断函数为:
[0041] ;(13)
[0042]  ;  (14)
[0043] 其中,sum表示腹板封闭轮廓线中存在的直线段总数量;i表示直线段的标号;flagli表示对应线段的状态标识; 、 、 、
分别表示腹板轮廓线l在第i段与ydi在二维坐标系中对应区域S中图像的R、G、B灰度值;di表示底角区域;up表示沿腹板法矢方向高于底角的区域。
[0044] 综上所述,本发明具有以下优点:
[0045] 1、本发明解决了现今零件刀轨程序需基于人工选择驱动面加支撑面方式生成刀轨,可自动的识别图像中对应的驱动面与其对应的支撑面并基于识别结果生成刀轨;
[0046] 2、由于采用了深度学习加图像处理方法,识别结果的准确性较现有的拓扑规则判断方式有着明显的提升,同时对不同模型的适应性与鲁棒性更强。采用提出的方式生成刀轨可显著的降低NC程序编制时间并提升效率,同时可大幅降低人工成本,为进一步在线提供零件刀轨程序生成服务奠定了基础;
[0047] 3、本发明可自动的识别图像中对应的驱动面与其对应的支撑面,并基于识别结果生成刀轨,识别结果的准确性较现有的拓扑规则判断方式有着明显提升,模型的适应性与鲁棒性更强,可显著的降低NC程序编制时间提升效率,同时可大幅降低人工成本,为进一步在线提供零件刀轨程序生成服务奠定了基础。

附图说明

[0048] 图1为本发明所述方法包含的核心步骤;
[0049] 图2为自动截屏获得的零件表面图像;
[0050] 图3为腹板区域训练样本图像;
[0051] 图4为基于深度学习网络识别的腹板区域结果图像;
[0052] 图5为基于式子计算得到的识别结果轮廓图;
[0053] 图6为识别结果不同腹板区域上色处理效果;
[0054] 图7为所有腹板信息的图像中提取出每一个单独的腹板;
[0055] 图8为激光点扫描方式与轮廓线之间的关系;
[0056] 图9为基于轮廓线扫描数据生成的二维邻接关系图。

具体实施方式

[0057] 下面结合实施例对本发明作进一步地详细说明,但本发明的实施方式不限于此。
[0058] 实施例1
[0059] 本实施例提供了一种三轴自动化程编特征识别与刀轨生成方法,可自动识别图像中对应的驱动面与其对应的支撑面,并基于识别结果生成刀轨,识别结果的准确性较现有的拓扑规则判断方式有着明显提升。
[0060] 本方法包含的核心步骤如图1所示:
[0061] 步骤一、使用三维建模软件打开设计好的零件图,在软件中设置显示参数,以得到利于分析的图像。
[0062] 在三维建模软件中设置背景灰度对应的RGB值,所有面的显示灰度对应的RGB数值,所有线条对应的RGB数值,设置线型和对应的线宽。具体设置方式为:设背景灰度对应的RGB值为x1、x2、x3,所有面的显示灰度对应的RGB数值为y1、y2、y3,所有线条对应的RGB数值为z1、z2、z3,线型为line,对应的线宽为w(mm),其中x1、x2、x3∈[0,255], y1、y2、y3∈[0,255]且至多两个数与x1、x2、x3相等,z1、z2、z3∈[0,255] 且至多两个数与x1、x2、x3相等,z1、z2、z3 至多两个数与y1、y2、y3相等。例如,设置背景灰度对应的RGB值为255、255、255,所有面的显示灰度对应的RGB数值为178、178、178,所有线条对应的RGB数值为0、0、0,线型为1,对应的线宽为1:0.13mm。
[0063] 步骤二、获取零件表面二维投影图像
[0064] 本步骤包含手动模式与自动模式。手动模式采集方式为:利用三维建模软件中的工具,依次选择“图像”——“捕获”,在“选择模式”中框选出整个零件区域,点击“选项”,在弹出的“捕获选型”中选择像素,在“更多”中设置图像的分辨率宽和长。设置好捕获参数后,点击“捕获”按钮截取图像,并将截取的图像进行保存,对应的格式为.bmp。
[0065] 自动模式采集方式为:在零件图中选择一特征面,以其对应的法矢方向为整个零件的视角方向,并截取屏幕图像。循环得到不同视角对应的特征面,使得零件在屏幕方向上的投影面积最大,采用三维建模软件VB宏代码实现自动截屏,获得的零件表面图像如图2所示。
[0066] 步骤三、基于深度学习的分割网络对图像特征区域(即腹板区域)进行识别。
[0067] 本步骤中,训练样本的制作方式为:采用灰度填充法对腹板区域进行标注,如对应的灰度值RGB为α1、α2、α3;然后基于OpenCV库遍历图像中所有像素点的灰度值,若对应的R、G、B灰度值为y1、y2、y3,则其灰度值设置为y1、0、0,这样设置是为了对训练腹板特征进行训练,该灰度值可不唯一。而不满足此灰度值关系(即y1、y2、y3)的像素点灰度值统一设置为0、0、0,并按原始输入图像的尺寸大小对图像进行保存,使处理后的图像大小保持不变,对应的图像格式为.png。
[0068] 本步骤中,图像特征区域的识别网络模型采用VGG‑16提取特征,使用交叉熵损失函数对识别结果进行评价,类别包含了前景(即腹板)与背景(即腹板以外的其他区域)两大类,训练时设置的模型超参数epoch设为num(>200)。采用图像增强(旋转、缩放)的策略获取足够数量的训练样本。腹板区域训练样本图像如图3所示。
[0069] 训练完成后得到记录有epoch、准确率、损失量等参数数值的.log日志文件,基于日志文件中loss最小对应的epoch保存的.pth权重文件为测试时初始化网络的参数。识别结果中腹板区域标注的灰度RGB为h1、h2、h3,除腹板之外的位置对应的RGB灰度值为k1、k2、k3(对应的灰度与h1、h2、h3皆不相同)。将识别结果与输入原图进行映射以保证识别结果图像的尺度保持一致。基于深度学习网络识别的腹板区域结果图像如图4所示,该结果为粗判断结果。
[0070] 步骤四、针对识别结果得到的图像,根据识别结果图像各个通道灰度值以加权求和的方式灰度化,得到灰度化后的图像。
[0071] 本步骤基于Visual Studio 与OpenCV实现,灰度化式子为:
[0072] h(x,y)=HR(x,y)*a1+HG(x,y)*a2+HB(x,y)*a3                          (1)[0073] a1+a2+a3=1.2                                             (2)
[0074] 其中,HR(x,y)、HG(x,y)、HB(x,y)分别表示与原始输入图像等尺度的预测图像中(x,y)位置像素点对应的红色、绿色、蓝色通道像素数值;a1、a2、a3分别表示灰度化处理时红色、绿色、蓝色通道数值所占的权重;h(x,y)灰度化后对应的单通道像素灰度值。
[0075] 步骤五、采用最大间方差策略实现灰度化后图像的二值化。
[0076] 对于大小为M*N包含sum个灰度级的图像,对应的计算式子为:
[0077] ;     (3)
[0078] ;    (4)
[0079]; (5)
[0080] 灰度图中小于阈值像素点的平均灰度值为:
[0081] ;(6)
[0082] ;(7)
[0083] ;  (8)
[0084] 其中,pi表示灰度级为i的像素数占总像素的个数;ni表示灰度级为i的像素数;pbackground表示像素点被分配为background的概率累加和;background与foreground分别表示前景与背景;threshold表示前景与背景分割的阈值;表示图像中所有像素点的灰度值方差。
[0085] 步骤五、基于上述步骤可获得包含前景(即腹板)和背景(即腹板之外区域)的二值图像。其中前景为1,背景为0,然后针对所得的二值图像计算其全局一阶梯度,式子为:
[0086]   (9)
[0087] 梯度大小计算式子:
[0088]   (10)
[0089] 梯度方向计算式子:
[0090]    (11)
[0091]  (12)
[0092] 其中,grad表示梯度; 表示偏导数; 与 分别表示在X轴与Y轴方向上的偏导数。
[0093] 得到二值图像中所有点处的导数后,设定阈值gradthreshold,将梯度值小于该阈值的像素点梯度值置为零,根据八邻域最近邻原则,将所有满足关系的像素点进行连接,得到若干独立的封闭区域,封闭区域即为识别的腹板区域。
[0094] 基于公式计算得到的识别结果轮廓图如图5所示。图5为若干独立的封闭轮廓线组成图像,采用全局像素种子点填充的策略得到每一连通区域的语义信息(即灰度信息)。
[0095] 具体实施时,每一个填充的区域采用随机赋值的方式,结果轮廓图以左上角为开始点,对起点像素进行随机赋RGB数值,值不超过255,且为正整数,并对与起点连通的所有点赋以相同的数值;从左至右,从上至下依次对每一个点进行扫描并随机赋RGB数值,若对应的值为黑色且不为白色则直接跳过进入下一个点,反之则采用随机的方式进行赋值,且对应的数值与之前出现过的赋值不一致;直到处理完所有的点为止。识别结果中不同腹板区域上色处理效果如图6所示。
[0096] 步骤六、基于上述步骤得到具有不同颜色的腹板区域,采用循环遍历的方式得到具有相同灰度信息的像素点,并基于像素点的灰度值对其进行分类。
[0097] 本步骤基于OpenCV获取图像像素,使用C++中的容器进行保存,实现的方式为,char ch;start = clock();int num = 1;for (int i = 0; i(i, j)[0] == 255&&img.at(i, j)[1] == 255&&img.at(i, j)[2] ==255)continue;if (img.at(i, j)[0] == 0&&img.at(i, j)[1] == 0&&img.at(i, j)[2] ==0)continue;Vec3b vc3 = img.at(i, j);int vec_int = vc3[0] * 256 +vc3[1]* 257 + vc3[2]* 259; //flagint length, first = 0;for (int k = 0; kLocation loc;loc.row = i;loc.col =j;all_location_info[k].locationArray.push_back(loc);first = 1;break;}}if (first== 0){VecHead head;head.length = 1; //首个录入长度为1,head.vec = vc3;//图像位置信息head.cha[vec_int] = 1;//int te = vc3[1];std::cout<<"输出第"<
[0098] 基于代码得到所有像素结果,提取满足灰度一致关系的像素点坐标及其灰度值,即可从所有腹板信息的图像中提取出每一个单独的腹板。
[0099] 步骤七、得到具有随机灰度的腹板区域后,对每一个独立的灰度区域,进行灰度化处理。本实施例中,R、G、B通道的权重分别为a1=0.3、a2=0.5、a3=0.2,然后基于OpenCV函数threshold实现二值化threshold(img, img, 0, 255, THRESH_BINARY + THRESH_OTSU)。二值化后基于Canny算子计算得到图像的轮廓线,对应的像素宽度为1,处理后的效果如图7所示。
[0100] 步骤八、得到每个腹板区域独立的轮廓区域后建立激光扫描点。
[0101] 操作时,选择轮廓线任意位置为起始位置O(x,y),腹板面法矢方向为激光点的移动方向,竖直扫描原始三维图,移动的步长可以为0.1mm,激光点发出的光线垂直于腹板轮廓线指向外侧,发出的光线遇到平面即反射对应的距离为扫描距离L。竖直方向(由轮廓线上的点构成的线垂直于腹板的方向)的移动距离为零件三维图像中垂直于腹板方向的最大值Hmax,当轮廓线上一个点扫描完成后沿着轮廓线顺时针方向移动激光点,对应的步距可以为0.2mm,直到将一个独立腹板的轮廓线全部扫描完成为止。激光点扫描方式与轮廓线之间的关系如图8所示。
[0102] 步骤九、基于扫描得到的轮廓线不同位置不同高度的扫描数据,建立由轮廓线扫描数据生成的二维邻接关系图。
[0103] 部分轮廓线二维邻接关系的表示如图9所示。其中,X轴表示不同的腹板区域轮廓线段;Y轴表示腹板法矢方向移动的距离;在图像中,相同轮廓线段对应的x值在不同移动距离y上具有不同的扫描距离(扫描距离为激光点至其前方对应特征面距离,移动距离为激光点沿着轮廓线移动的长度),用不同颜色的区域表示。二维坐标图像中,不同区域的颜色表示方式,以腹板区域轮廓线的垂线扫描距离开始,若扫描区域对应的槽为非开口槽,激光点线经过底角区域对应的扫描距离从0增加到R值(R为刀具的半径,一般为3mm),该区域采用统一的灰度表示,继续沿腹板的法矢方向移动激光点对应的扫描距离保持为定值R,对应的区域采用统一的灰度表示。沿腹板区域轮廓线的垂直方向开始,若为开口槽则对应的扫描距离为零表示。
[0104] 步骤十、采用迭代循环处理的方式,将所有腹板区域进行激光点的三维扫描,并得到各个区域的二维邻接关系图。
[0105] 步骤十一、建立邻接准则判断函数实现快速程编驱动(腹板面)加引导(侧壁面与圆角面)特征组的精细识别,对应的判断函数为:
[0106] ;(13)
[0107] ;  (14)
[0108] 其中,sum表示腹板封闭轮廓线中存在的直线段总数量;i表示直线段的标号;flagli表示对应线段的状态标识; 、 、 、 分
别表示腹板轮廓线l在第i段与ydi在二维坐标系中对应区域S中图像的R、G、B灰度值;di表示底角区域;up表示沿腹板法矢方向高于底角的区域。
[0109] 步骤十二、基于上述判断函数,可以得到基于深度学习识别的所有腹板区域对应轮廓线的邻接关系,若一独立腹板轮廓线中存在一段区域其两侧各存在满足判断准则的面,即对应的面的flag为1其可与该面组成驱动加引导的组合关系。由此组合关系将识别结果返回映射到三维图像中,基于三维建模软件即可自动的得到NC(数字控制加工)刀轨程序。
[0110] 以上所述,仅是本发明的较佳实施例,并非对本发明做任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化,均落入本发明的保护范围之内。