AI를 통한 완전히 자동화된 시각적 최종 라인(end-of-line) 검사는 복잡한 제어를 수행합니다.

지능적으로 테스트됨

AI를 통한 완전히 자동화된 시각적 최종 라인(end-of-line) 검사는 복잡한 제어를 수행합니다.

제조업체가 생산 장비에 두는 요구사항이 엄청납니다. 처리량은 최대여야 함과 동시에 비용이 효율적이어야 하고, 무결점 품질을 생산하며, 매우 유연해야 합니다. 기존의 품질 검사는 종종 신뢰성, 유연성 및 탐지율 측면에서 결함이 있고, 상대적으로 비용이 비싼 측면이 있었습니다. 품질검사가 사람의 눈으로만 이루어질 수 있다면, 매우 피곤하고, 지치고, 따라서 부정확해질 위험도 있습니다. 그러나 테스트 상황이 복잡할수록 품질 보증은 더욱 까다롭지만 동시에 절감 가능성은 더 커집니다.

어플리케이션

시각적 검사를 위한 산업용 카메라의 사용은 통상 자동화를 향한 첫 번째 단계라고 할 수 있습니다. 인공 지능 기능이 추가되면 자가 학습, 자급 100 %로 테스트가 가능하게 됩니다. 여러 테스트 특성에 놓여있는 복잡한 조립품의 최종 라인 검사의 예시는 인공 지능이 까다로운 상황에서도 어떻게 마스터할 수 있는지 보여줍니다. 오스트리아 회사인 Nordfels GmbH는 모든 종류의 조립품 또는 골재를 100% 시각적으로 검사할 수 있는 자가 학습 시험기를 개발했습니다. 이 "deep learning inspector"는 관절식 팔로봇과 지능형 소프트웨어 그리고 IDS GigE Vision 산업용 카메라로 구성됩니다.

이 시스템은 예를 들어 내연 기관, 변속기 또는 소방 펌프 뿐만 아니라 전기 드라이브 트레인, EV 배터리 시스템 또는 e- 모빌리티 세계의 기타 구성 요소를 검사하는 데 사용할 수 있습니다. 다양한 부착물, 케이블 또는 호스로 구성되고, 완전성과 정확성을 위해 체크되어야 하는, 모든 것이 검사됩니다. 이들은 종종 수많은 복잡한 개별 부품이 있는 복잡한 구성 요소입니다. 많은 특징들을 가진 수동으로 조립된 부품은 기록되어야 하는 오류의 무수한 가능성을 만듭니다. 50개 이상의 다른 매개 변수를 사용하여 다양한 테스트 오브젝트를 안정적으로 식별하고 평가하는 Deep-Learning Inspector에게는 문제되지 않습니다. 좋은 부품에 대한 모호한 가능성이 있더라도, 즉 "IO"(In Order) 자격을 갖추기에 충분한 다른 기준을 충족하고 명확한 오류 패턴이 없는 경우에도 불량 부품을 감지합니다.

학습은 구체적인 IO 상황과 NIO 상황을 보여주는 티치-인(teach-in) 그림을 통해 이루어집니다 (in order/not in order). AI는 해당 이미지 세트로부터 훈련되며 복잡한 테스트도 완전 자동으로 즉시 수행할 수 있습니다. 시스템은 새로운 이미지가 추가됨에 따라 지속적으로 진화하고 있습니다. 딥 러닝 알고리즘의 훈련 과정을 단순화하기 위해 시스템은 사용자 친화적인 인터페이스를 갖추고 있습니다. 또 다른 이점은 배송 전에 각 제품에 대한 이미지 문서가 자동으로 생성된다는 것입니다.

원칙적으로 제어 유닛은 항상 조명을 포함한 카메라로 구성되며 로봇 팔에 장착됩니다. 이 유닛으로 특징별로 특징에 접근되고, 기록되며, 기계 학습을 사용하여 자동으로 평가됩니다.

— Edmund Jenner-Braunschmied, Nordfels GmbH의 CEO —
설정은, 로봇 암에 장착된, 조명을 포함한 IDS의 GigE Vision 카메라로 구성됨
설정은, 로봇 암에 장착된, 조명을 포함한 IDS의 GigE Vision 카메라로 구성됨

그러나 실제로는 하나의 테스팅 머신 내에서 여러 제어 유닛 (손-눈 유닛)도 사용됩니다. 두 유닛들 이상에서 다양한 팀워크 기능을 사용하여 유닛들이 함께 작업할 수 있습니다. "Dark-Field Teamwork-Function"에서 하나의 로봇 카메라 조명 유닛은 다른 유닛의 조명만을 담당하고 두 번째 로봇 카메라 조명 유닛은 이미지를 촬영합니다. 이 기능은, 특징이 모든 제어 유닛에서 표준인 확산 입사광 조명보다 측면 조명으로 더 잘 강조될 수 있는 경우에 유용합니다.

가능한 팀워크 협업의 또 다른 예는 "Free-Sight Teamwork Function"입니다. 이 경우 하나의 로봇 유닛은 작은 막대를 사용하여 다른 카메라 유닛의 시야에 있을 수 있는 테스트 오브젝트의 케이블이나 호스를 측면에 고정함으로써 다른 하나를 돕습니다. 이를 통해 두 번째 로봇 카메라 유닛이 방해없이 이미지를 촬영할 수 있습니다.

이 지능적이고 유연한 시스템을 통해, 현재 종종 힘들고 지치는 작업 상황에서만 충족되는 최종 라인 테스트를 미래 대비적인 방법으로 자동화할 수 있습니다.

카메라

시스템당 하나의 IDS GigE Vision 카메라가 사용됩니다. 인터페이스 외에도 Nordfels가 카메라 모델을 선택하는데 결정적이었던 요소는 크기와 센서였습니다. GV-5890SE는 IMX226 롤링 셔터 CMOS 센서를 특별히 포함합니다. Sony STARVIS 시리즈의 1200만 화소 센서 (4000 x 3000 px, 픽셀 크기 1.85µm)는 낮은 노이즈와 최대 해상도에서 10fps의 프레임 속도로 뛰어난 광-감도를 제공합니다. 이더넷을 통한 전원 공급은 최대 100미터까지 단일 케이블 작동을 허용합니다. 센서의 BSI("back-side-illumination") 기술 덕분에 카메라가 저조도에서도 완벽한 결과가 필요한 작업에 미리 맞춰져 있어, EOL 검사기는 앞서 언급한 "Dark-Field Teamwork-Function"이 없어도 좋은 결과를 얻을 수 있습니다.

제어 유닛은 사진을 찍고 특성별로 특성을 평가합니다 (사진 : Zeidler G) :

"uEye 카메라는 다양한 어플리케이션들에서 사용됩니다. 산업용 이미지 처리에서 알려진 것과 같이 클래식 그레이 스케일 이미지로 많은 특징이 확인될 수 있습니다. 그러나 색상 정보가 중요한 역할을 하는 특징도 있습니다. 이 때, 사진이 컬러 모드로 트리거됩니다. 또한 이미지 획득을 위한 최적의 조건을 항상 만들기 위해, 하나의 카메라 유닛은 다양한 조명 색상들을 가집니다. "라고 Edmund Jenner-Braunschmied는 설명합니다. 이 구조로 2D 코드 또는 DataMatrix 코드와 같은 OCR 판독 및 코드 판독이 가능합니다. OCR 인식은 딥 러닝으로도 수행되는 반면 코드 판독은 고전적인 이미지 처리로 수행됩니다.

전망

특히 로봇과 관련된 머신 비전 시장은 광범위한 산업에서 끊임없이 성장하고 있습니다. Nordfels도 이러한 추세에 직면하고 있습니다. "기계를 취급하든 시험하든 조합 및 가능한 어플리케이션들은 마찬가지" 라고 Jenner는 확인합니다. 여기에 딥 러닝과 머신 러닝이 제공하는 새로운 가능성이 추가되었습니다. "그 결과는 무한한 가능성을 제공하는 기술적인 경쟁의 장이지만 궁극적으로 생산에서 운영하기 쉽고 최고의 공정 신뢰성으로 실행되는 시스템을 개발하려면 상당한 전문성과 다 분야 기술이 필요합니다." Nordfels와 같은 혁신적인 시스템 통합 업체 및 기계 제작 업체와 IDS와 같은 미래 지향적 카메라 제조업체는 이러한 과제에 동등하게 직면하고 있습니다.

uEye SE 제품군의 GigE Vision 카메라

Nordfels GmbH