MIT最近发表了一项有意思的研究:
激光雕刻机装上AI,混合材料T恤上都能雕出花,自动变换力度保证不割破
他们给现有的激光雕刻机安上了一个AI,就可以自动识别30种不同的切割材料,准确率高达98%。
不仅告诉你是啥,还能告诉你切割/雕刻所需的力度、速度。
当然,如果这是一种危险材料,直接就把一个大大的“”甩给你。
这样一来,就能免去对一些人为识别失误造成的危险(尤其是一些未贴/贴错名称标签的材料),比如冒个有毒烟雾什么的,以及切割力度不对破坏材料造成的浪费。
比如面对下面三种看起来一模一样的透明塑料材料,哪一种适合做防护面罩呢?
交给AI!刷刷扫几下,就把三者分析得明明白白:
最右是聚碳酸酯,危险材料,不可(切割会冒带剧毒的火焰); 中间的是铸造丙烯,可以激光切割,但不可用酒精擦拭; 最左的是醋酸透明塑胶片,可以用温水和温和肥皂冲洗,也可以用酒精。
要做实验室里用的防护面罩,当然是选最左了,拿去搞定:
除了上面说的这些功能,这个叫做的AI还可以用来进行激光雕刻图案的调试:
一次摆好6种待雕材料,它就能将设计图案和相应材料进行匹配,输入每个材料的厚度后,立马就告诉你毛毡太薄了,现在的图案设计对它来说太复杂。
那你就可以调大一点再进行雕刻。
成品:
如果你不按它说的调整,打出来的就很“拉垮”:
此外,它也能在具有混合材料的手机壳、衣服等材料上进行图案的激光辅助雕刻。
△
注意c图红框部分,它会自动进行分割设计
下面这件T恤由纺织材料和黄色太阳部分的塑料材料组成,b图中间为通过辨别材料,再进行切割力度指导完成的海鸥图案,效果最好。
这也是它的另一厉害之处,因为传统的方法在复合材料上进行激光雕刻需要把设计进行拆分和边界对齐,很麻烦。
一路看下来,是不是觉得这个还挺有用,怎么实现的呢?
散斑传感+深度学习
由两部分组成:硬件附件和应用程序。
应用程序方面,用户界面设计得真心不错,功能就不多说了。
硬件部分由激光指针、无透镜图像传感器、微处理器和电池组成,固定在激光切割器的切割头上。
识别原理很简单:
利用散斑传感( )技术,将激光打向材料表面,上面的微小特征差异导致反射激光束光路的微小偏差,从而反射到图像传感器成像为带有亮斑和暗斑的散斑图案。
下图为四种材料分别在普通相机、电子显微镜和散斑传感成像下的三组照片,对比很明显:
图像有了,就可以用训练好的神经网络来进行类型识别了。
为确保准确率,研究人员对30种不同材料类型的张图像进行了训练。
他们使用了迁移学习和在数据集上预先训练的-50模型,以及Adam优化器,学习率为0.003, size为64。
训练图像大小为:使用低分辨率的图像不仅解决了高分辨率图像的过拟合,还节省了训练时间、加快了检测速度(为0.21s,为0.51s )。
还用了数据增强技术生成额外图像以便模型更好地泛化(比如光照也不会过多影响结果)。
评估结果和未来方向
98.01%(SD=0.20)的平均识别准确率基于5-fold交叉验证。
其中木材类的平均准确率为98.92% (SD=1.66),塑料类的为98.84% (SD=2.36),纺织品类的为97.25% (SD=2.50),纸质材料为95.90% (SD=2.94),金属类的为97.00% (SD=2.16) 。
纸质材料的准确率最低,也是因为它太容易和木材混淆了(硅胶和皮革也容易混)。
他们还做了一些实验发现:相比红色白色材料100%的识别准确率,反射光线较少的黑色材质只有92%的准确率,不过这个在捕获图像时启用自适应曝光来可以调整。
此外他们还研究了一下光照和角度对材料识别的影响。
结果发现:
增加亮度对黑色/白色材料的检测结果没有重大影响,但透明材料的影响却很大,重新在不同的光照条件下捕获透明材料的图像进行训练后的准确率比原来高了快22%。 角度影响最大的是木材,45%倾斜下的材料平均检测准确率只有70.31%。这是因为天然木材的细胞3D微观结构在微观层面具有90°旋转对称性。
最后,研究人员表示,硬件方面,所有其他组件现有的激光雕刻机中都有,制造商只需要添加无透镜图像传感器就可以拥有这项技术了。
未来,团队还会对散斑传感如何用于估计材料的厚度、对划痕材料准确率的保证、给软件加打印标签的功能等方面进行进一步研究。
论文地址: