Des chercheurs de l’Université technologique de Nanyang à Singapour ont rédigé un article intitulé « Développement d’un système de robot pour la suppression automatisée des pièces imprimées en 3D » sur leur travail pour tenter de contourner un goulot d’étranglement important dans la finition de l’impression 3D. Dans les procédés AM sur lit de poudre, tels que le Multi Jet Fusion (MJF) de HP, le décongélation consiste à éliminer la poudre résiduelle qui adhère à la pièce lorsqu’elle est retirée. Ceci est accompli principalement par des opérateurs humains utilisant des brosses, et pour les technologies AM qui peuvent produire des centaines de pièces en un seul lot, cela prend évidemment beaucoup de temps. Un travail manuel comme celui-ci est un élément de coût important dans les procédés de fusion en lit de poudre.

Un opérateur retire manuellement la poudre (décaking) d’une pièce imprimée en 3D.

«En combinant le Deep Learning avec la perception 3D, la conception mécanique intelligente, la planification des mouvements et la gestion des forces pour les robots industriels, nous avons développé un système capable de décoder automatiquement les pièces de manière rapide et efficace. Grâce à une série d’expériences de décaking effectuées sur des pièces imprimées par une imprimante Multi Jet Fusion, nous avons démontré la possibilité d’une extraction robotique pour une production de masse basée sur l’impression 3D », ont écrit les chercheurs.

Un problème de robot classique est la cueillette de bacs, qui consiste à sélectionner et retirer une pièce d’un conteneur. Les chercheurs de NTU ont déterminé que la perception 3D, qui « reconnaît les objets et détermine leur position 3D dans une zone de travail », serait importante dans la construction de leur système de sélection de bacs. Ils ont également utilisé un manipulateur à position contrôlée comme système de base pour assurer une commande de mouvement compatible.

Le système de robot de l’équipe NTU exécute cinq étapes générales, en commençant par la tâche de ramassage des bacs, où une ventouse prélève une pièce revêtue du conteneur d’origine. Le dessous est nettoyé en le frottant sur une brosse, puis retourné et l’autre côté est nettoyé. La dernière étape consiste à placer la pièce nettoyée dans le conteneur de destination.

Projet de conception de système de robot pour le décoffrage automatisé.

Chaque étape a ses propres difficultés; par exemple, les pièces qui se chevauchent se chevauchent et sont difficiles à détecter, car elles ont la plupart du temps la même couleur que la poudre, et la poudre restante et les pièces ont des propriétés physiques différentes, ce qui rend difficile la manipulation des pièces avec un robot industriel à position contrôlée.

«Nous relevons ces défis en tirant parti (i) des progrès récents de l’apprentissage en profondeur pour la vision 2D / 3D, respectivement; et (ii) conception mécanique intelligente et gestion de la résistance », a expliqué l’équipe.

Les trois étapes suivantes – nettoyage de la pièce, retournement et nettoyage de l’autre côté – sont difficiles en raison du « contrôle des contacts » entre les pièces, le robot et le système de brosse. Pour cela, les chercheurs ont utilisé le contrôle de puissance pour «effectuer des actions compatibles».

Leur plateforme robotisée composée de composants d’étagères:

  • 1 Denso VS060: Manipulateur industriel à six axes
  • 1 capteur ATI Gamma Force-Torque (F / T)
  • 1 Caméra 3D Ensenso N35-802-16-BL
  • 1 système d’aspiration alimenté par un aspirateur Karcher NT 70/2
  • 1 station de nettoyage
  • 1 station de basculement

La caméra permet d’éviter les collisions avec l’environnement, les objets et le bras du robot et «d’optimiser les angles de vision». Un système à ventouse s’est avéré être le plus polyvalent, et ils l’ont spécialement conçu pour générer une vitesse de flux d’air et un vide élevés pour récupérer la poudre recyclable, obtenir une puissance suffisante pour soulever et maintenir fermement les pièces pendant le brossage.

Station de nettoyage composée d’un ventilateur, d’une étagère à brosses et d’une prise d’aspiration.

Ils ont choisi une station de mise en miroir passive (aucun actionneur requis) pour changer la sous-orientation. La section descend du haut de la station et se déplace le long des curseurs de guidage. Il est retourné lorsqu’il atteint le fond, et est alors prêt à être ramassé par le bras du robot.

Station de virage.

Une machine d’état et une série de modules composent le système logiciel. La machine sélectionne le bon module à exécuter au bon moment et sélectionne également la «partie la plus réalisable» pour le décantage dans la séquence.

La machine à états et les modules du système logiciel effectuent la perception et différents types d’actions.

«La machine à états a accès à toutes les informations essentielles du système, y compris les types, les positions, les géométries et la pureté, etc. de tous les objets découverts dans la scène. Chaque module peut demander ces informations pour réaliser son comportement. En conséquence, cette conception est générale et peut être adaptée à de nombreux autres types de pièces imprimées en 3D », ont expliqué les chercheurs.

Les modules ont différentes tâches, telles que la perception, qui identifie et localise les objets visibles. La première phase de cette tâche utilise un réseau d’apprentissage en profondeur pour effectuer la détection et la segmentation des occurrences, tandis que la seconde utilise un masque de segmentation pour extraire les points 3D de chaque objet et «estimer la position de l’objet».

Exemple de module de détection d’objets basé sur Mask R-CNN. Les champs de démarcation et les sous-segmentations estimés sont représentés dans différentes couleurs et marqués de la proposition d’identification et de la confiance. Nous rejetons la divulgation avec une confiance inférieure à 95%.

« Tout d’abord, un réseau neuronal profond basé sur le masque R-CNN classe les objets dans l’image RVB et effectue une segmentation d’instance, qui fournit une classification des objets par pixel », ont écrit les chercheurs.

L’apprentissage par transfert a été appliqué au modèle pré-entraîné afin que le réseau puisse classer une nouvelle classe d’objets dans la poubelle avec un taux de détection élevé.

«Deuxièmement, l’estimation du sac des pièces est effectuée en estimant les champs limites et en calculant les centres de gravité des nuages ​​de points segmentés. Le nuage de points de chaque objet est affiné (c.-à-d. Élimination des valeurs aberrantes statistiques, lissage normal, etc.) et est utilisé pour vérifier si l’objet peut être prélevé par aspiration (c.-à-d. Que les surfaces exposées doivent être plus grandes que la surface de la ventouse). « 

Les modules de prélèvement et de nettoyage sont constitués de plusieurs primitives de mouvement, dont la première est le prélèvement ou l’aspiration. Le robot sélectionne les pièces avec des surfaces exposées presque plates en déplaçant la ventouse sur la pièce, et la commande de puissance compatible lui indique quand arrêter le mouvement vers le bas. Il vérifie si la hauteur à laquelle la ventouse a été arrêtée correspond à la hauteur attendue, puis soulève la ventouse pendant que le système «vérifie constamment le capteur de couple de force» pour s’assurer qu’il n’y a pas de collision.

Les primitives de nettoyage de mouvement éliminent la saleté et la poudre résiduelles des pièces imprimées en 3D presque plates. La pièce est située au-dessus du support de brosse, et la commande de puissance élastique déplace le robot jusqu’à ce qu’il entre en contact. Pour maintenir le contact entre la pièce et les brosses, utilisez un schéma de contrôle hybride position / force.

« Les chemins de nettoyage sont planifiés selon deux modèles: en spirale et en cercle droit », ont expliqué les chercheurs. « Alors que le mouvement en spirale est bien adapté pour nettoyer les surfaces presque plates, le mouvement circulaire à droite aide à éliminer la poudre dans les zones concaves. »

Une combinaison de chemins en spirale et rectangulaires est utilisée pour nettoyer les mouvements. Les chemins en spirale sont en rouge. Le point jaune indique le centre des pièces au début du mouvement. Les trajectoires en spirale changent pour continuer à faire circuler le point après avoir atteint un rayon maximum. Le tracé du rectangle est en bleu, les paramètres incluent la largeur, la hauteur et la direction dans le plan XY.

L’équipe a testé son système à l’aide de dix inserts de chaussures imprimés en 3D. Sa qualité de nettoyage a été évaluée en pesant les pièces avant et après le nettoyage, et les chercheurs ont rapporté la durée de fonctionnement du système dans un cadre réaliste par rapport à des opérateurs humains qualifiés.

En termes de qualité de nettoyage, les performances du système robotique étaient presque deux fois plus faibles, ce qui «soulevait des questions sur la manière dont l’efficacité des tâches pourrait être encore améliorée». Les humains ont passé plus de 95% du temps d’exécution au brossage, tandis que le système n’effectuait des actions de brossage que 40% du temps d’exécution; cela est dû aux «compétences supérieures d’une personne pour effectuer des manipulations de détection et habiles». Cependant, la qualité du nettoyage était réduite lorsque le temps de brossage était limité à 20 secondes, ce qui pourrait signifier que la qualité serait améliorée en améliorant la station de nettoyage et en « allongeant le temps de brossage ».

De plus, les humains ont eu des résultats plus cohérents car ils sont capables d’ajuster leurs mouvements au besoin. Les chercheurs pensent que l’ajout d’un module d’évaluation de la pureté avec une autre caméra 3D à leur système améliorerait cela.

Présentation chronologique moyenne des actions utilisées pour le nettoyage.

«Nous avons remarqué que notre robot fonctionnait à une vitesse maximale de 50% et que tous les mouvements étaient planifiés en ligne. Par conséquent, les performances du système peuvent être encore améliorées en optimisant ces modules », a écrit l’équipe. « De plus, notre module de perception fonctionnait sur un processeur, ainsi la mise en œuvre d’un meilleur matériel informatique améliorerait la vitesse de perception. »

Bien que ces résultats soient largement positifs, les chercheurs prévoient de valider davantage le système en améliorant sa conception d’effet final, en optimisant l’efficacité des tâches et en l’adaptant pour fonctionner avec des pièces imprimées en 3D plus générales.

Discutez de ceci et d’autres sujets d’impression 3D sur 3DPrintBoard.com, ou partagez vos réflexions ci-dessous.



Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *