Current Issue

Journal of Korea Technical Association of the Pulp and Paper Industry - Vol. 53 , No. 5

[ Article ]
Journal of Korea Technical Association of the Pulp and Paper Industry - Vol. 53, No. 5, pp.74-81
Abbreviation: J. Korea TAPPI
ISSN: 0253-3200 (Print)
Print publication date 30 Oct 2021
Received 27 Sep 2021 Revised 19 Oct 2021 Accepted 21 Oct 2021
DOI: https://doi.org/10.7584/JKTAPPI.2021.10.53.5.74

제조 공정에서의 실시간 불량 탐지를 위한 딥러닝 모델 적용 연구 : 라벨 인쇄 공정에서 불량 탐지 사례
손진호1 ; 김창욱2,
1연세대학교 대학원 융합기술경영공학과, 학생
2연세대학교 공과대학 산업공학과, 교수

A Study on the Application of Deep Learning Models for Real-time Defect Detection in the Manufacturing Process : Cases of Defect detection in the Label Printing Process
Jin Ho Son1 ; Chang Ouk Kim2,
1Department of Convergence Technology & Management Engineering, Yonsei University
2Department of Industrial Engineering, College of Engineering, Yonsei University
Correspondence to : E-mail: kimco@yonsei.ac.kr (Address: Department of Industrial Engineering, College of Engineering, Yonsei University, Seoul 03722, Republic of Korea)


Abstract

The global smart manufacturing market is growing rapidly as developed countries (Germany, USA, Japan) as well as late comers such as China are now recognizing the importance of “smart manufacturing” and promoting active policies to foster related ecosystems. Policies to revitalize manufacturing through the convergence of cutting-edge ICT and manufacturing technology are already in progress. Some such policies include Industry 4.0, the Advanced Manufacturing Partnership of the United States, Japan’s Industrial Revitalization Plan, and China’s Made in China 2025. As a result of the gradual shift from product standardization to product customization, the importance of machine vision in manufacturing has also been increasing. However, it is difficult to develop a standard machine vision method because there are different specifications for meeting the individual demands of different manufacturing industries. Moreover, it is difficult to apply such a standard machine vision method to artificial intelligence because defective data for learning in the manufacturing industry are not frequently generated and stored. Therefore, it is conducted manually or visually inspected by workers. This study applies the primary feature of matching models for a label printing process to efficiently detect defects with high performance and applies a deep learning model to maximize performance. Our proposed method achieved an accuracy of 97% with a feature matching model and 99.8% accuracy with the deep learning model.


Keywords: Computer Vision, Deep learning, Object detection, Semi supervised learning, One class convolutional neural network

1. 서 론

현재 스마트 제조 공정에서는 제품 불량 검출을 목적으로 영상 검사기를 활용하고 있다. 이러한 비전 검사는 불량 제품의 공정 간 유출을 막아 완제품의 품질 향상을 위해 많은 제조 현장에 적용되고 있다. 그러나 대부분의 영상 검사기는 규칙 기반의 단순 알고리즘을 적용하고 있는 상태로 검사 인력의 투입과 불량 패턴 정의를 위해 많은 시간이 소모되고 있다. 또한 검사를 위해 균일한 조명, 피사체의 정위치 및 주변 객체에 의해 검사 대상이 가리어지지 않은 환경 내에서 치수 측정, 생산품의 이물질 발생 검사, 비파괴 초음파 검사 등에서만 우수한 성능을 보이고 있다. 실제 제조 산업에서 인공지능을 활용한 불량 검사를 적용할 경우 불량데이터가 적게 발생하기 때문에 학습 데이터에서 정상과 불량의 비율이 불균형이 되는 상황이 자주 발생한다. 또한 검사를 위한 환경 구축이 미흡한 경우 조명의 변화에 따른 이미지 인식 편차가 발생하며, 비전 검사 영상을 취득하는 영상검사기와 렌즈의 조건에 따라 흐림(blur), 일그러짐(twist)이 적용된 이미지 왜곡현상이 발생하게 되어 오불량 검출율을 높이고 검사기의 신뢰성에 문제를 발생시킨다. 특히나 연구 대상인 인쇄 설비에서는 인쇄물인 라벨을 제조하면서 측정된 데이터를 기반으로 생산 중에 일어나는 불량을 실시간으로 탐지하여 불량제품이 근본적으로 생산되지 않도록 하며 또한 불량 발생 시 실시간으로 작업자에게 경고 메세지를 인지시켜 즉시 시정할 수 있는 스마트 제조 개념의 연구가 많이 필요한 시점이다. 이러한 문제 해결 방안으로 제품의 정위치 배치 장치 설계와 암실을 포함한 일정한 조명 설계로 주변 작업환경 또는 보조 조명에 영향을 받지 않는 비전 검사 환경을 구현하는 방안이 필수적이다. 또한, 기존의 Optical Character Verification(OCV) 검사를 기준으로 작업자가 추가 폰트나 패턴을 지정하는 경우는 많은 수작업이 동반되고 오랜 작업 시간이 필요로 하게 된다. 제품 및 품질의 빠른 변화에 대응하기 위해서는 이러한 기존의 규칙 기반 알고리즘은 많은 문제점을 가지고 있다. 이를 해소하기 위하여 본 연구에서는 딥러닝(deep learning) 기반의 불량 검사를 실시간 이미지 매칭 검사 이후 실시간 불량탐지와 불량데이터가 불균형상태인 라벨 인쇄공정에서 정상만을 학습하여 판정하는 딥러닝 기반의 비전검사 방법을 제안하고자 하였다. 딥러닝은 최근 많은 연구로 인해 비약적인 발전을 보이고 있으며 특히 영상 검사에서는 인간을 능가하는 성능을 보이고 있다.

본 연구에서는 인쇄 설비로 라벨을 제조하면서 수집되는 라벨 영상 데이터를 이용하여 Scale-Invariant Feature Transform(SIFT), Binary Robust Invariant Scalable Keypoints(BRISK), Oriented Fast and Rotated Brief(ORB), KAZE, Advance kaze(AKAZE)와 같은 매칭 모델을 기반으로 불량 탐지 아키텍처를 제안하였다.1) 제안하는 아키텍처에서는 라벨 제조 공정을 기준으로 1단계에서는 불량 특성(feature) 매칭 모델을 이용하여 빠르게 불량 탐지를 수행하였다 또한 탐지 못한 불량은 인쇄 공정에서 발생하는 불량의 데이터는 극소수이기 때문에 사전에 정상데이터로 학습된 단일 클래스(one–class) Convolutional Neural Network (CNN) 모델을 적용하여 실험하였다.2)


2. 재료 및 방법

본 연구에서 사용한 인쇄 설비 기반의 라벨은 딥러닝 기반 불량 감지를 위한 아키텍처에 사용하였다.

2.1 데이터 수집

인쇄 공정의 특성상 실시간 검사를 하지 않으면 생산된 대량의 제품에서 불량품을 전수 검사하는 것은 불가능하다. 이를 해결하기 위해서는 공정검사 자동화를 통한 검사 누락 방지, 측정값 이상 발생 시 알람을 통한 대량 불량을 방지할 수 있도록 해야 한다. 또한 검사데이터를 통해 제조 품질 이력 추적성 확보 및 실시간 모니터링을 통한 공정 불량에 대한 신속 정확한 대응체계 마련이 필요하다.

연구를 위한 수집된 데이터의 라벨 인쇄 공정 개념도는 Fig. 1과 같다. 설비에서 생산되는 라벨은 제조 단계부터 실시간으로 검사하여 작업자에게 품질에 대한 안정성을 공급하게 된다. 완제품 상태에서 전수 검사를 실시간으로 실행함으로써 생산과 동시에 품질관리가 이루어진다. 이는 불량품이 발생되는 재화적 손실과 시간적 손실을 획기적으로 없애 제품 및 품질에 대한 경쟁력 향상에 영향을 줄 수 있다. 하지만 Fig. 2와 같은 라벨 인쇄공정은 빠른 속도로 진행되어 높은 수준의 불량품 탐지 정확도를 확보하기 쉽지 않다. 또한 조명의 불규칙성과 카메라 설치 위치에 따른 촬영의 문제, 피사체 왜곡이 발생할 수 있는 문제가 존재한다. 따라서 품질 검사를 위한 실시간 탐지와 학습 데이터의 구축을 위해 Fig. 3과 같이 데이터 전처리 작업이 필요하다.


Fig. 1. 
Label printing process data collection target.


Fig. 2. 
Label Printing Manufacturing Process.


Fig. 3. 
Data preprocessing.

2.2 데이터 전처리

라벨 인쇄 공정의 제조 환경 특성상 라벨의 영상은 Fig. 3과 같이 일정하게 촬영된다. 이는 실시간 이미지 특성(feature) 매칭 및 딥러닝 기반의 객체 탐지 모형에 맞지 않는 데이터로 전처리 과정이 필요하다. 실시간 이미지 특성 매칭을 위해서는 Bounding Rectangle을 구하여 정재가 가능하며 컨투어(contour) 라인을 둘러싸는 사각형을 그리는 방법으로 가능하다. 물체의 회전은 고려하지 않은 사각형과 물체의 회전을 고려한 사각형으로 컨투어 라인 위에 두 가지 종류의 사각형을 그린 후 대상 데이터의 정재를 진행할 수 있다(Fig. 1 참조). 즉 회전된 사각형을 감싸는 최소 크기의 사각형 정보가 필요하며 특정 객체를 감싸는 최소 크기의 사각형을 바운딩 박스(bounding box)라고 한다. 회전된 사각형의 바운딩 박스를 구하려면 회전된 사각형 객체의 네 꼭지점 좌표를 구하여 바운딩 박스를 다시 지정할 수 있다. 데이터 수집 및 정제 결과는 Fig. 3과 같다.

이미지 특성 매칭 및 학습 데이터로 사용하기 위해서는 동일한 색상 또는 색강도를 가진 부분의 코너 경계선을 통해 이미지 객체의 모양 분석이나 객체 인식을 위해 코너점을 구하게 된다. 이러한 전처리 과정은 명확한 데이터의 인식 및 분류를 위해 진행하며 실시간으로 처리하게 된다.

2.3 이미지 특성 매칭

라벨 인쇄 공정의 경우 대부분의 영상 검사기들은 규칙 기반의 단순 알고리즘을 적용하고 있다. 이는 많은 검사 인력이 필요할 뿐만 아니라 불량 패턴 정의를 위해 많은 시간이 소모되는 단점이 있다. 이러한 문제를 개선하기 위해 인쇄 라벨의 정답지를 지정하여 Structural Similarity Index Measure(SSIM) 측정을 통한 불량을 검출하는 이미지 특성 매칭을 사용할 수 있다. SSIM은 이미지 품질을 평가하기 위해 개발된 알고리즘으로 원본 이미지에서 얼마만큼 왜곡이 발생했는지 수치상으로 알 수 있다.3) SSIM은 사람의 눈이 이미지에서 구조적 정보를 도출하는 데 특화되어 있으며 휘도(luminance), 명암비(contrast), 구조(structure)를 이용하여 구조적 유사도를 구한다. 기존 연구에서는 SSIM 기반의 이미지 매칭 성능을 향상시키기 위해 SIFT, BRISK, ORB, KAZE, AKAZE의 알고리즘을 적용하여 실험 하였다.1)

이미지 특성 매칭 알고리즘은 Fig. 4와 같이 이미지에서 관심 특성(edge나 corner) 등을 검출하고 기술자(descriptor)는 검출된 특징점 주위의 밝기, 색상, 그래디언트 방향 등의 Fig. 5와 같은 매칭 정보를 산출한다.


Fig. 4. 
Image feature matching (BRISK).


Fig. 5. 
Fast Feature Detector.

본 연구에서는 이러한 SSIM 기반의 이미지 특성 매칭 모형을 1차 실시간 불량 검사에 적용한다. 추출된 특성을 이용하여 정답지와 비교 이미지 간의 유사도를 계산한다. 일반적으로 이 측정값은 거리 척도의 역수로 유사한 개체는 매우 높은 양의 유사성 값을 갖는 반면 유사하지 않은 개체의 유사성 측정은 0에서 1의 수치로 산출된다. 유사성 측정은 이미지 간에 사용되며 n개의 점 집합에 대해 동일 크기의 유사성 행렬을 얻는다. 이러한 원리를 응용하여 특징점(keypoint)과 기술자(descriptor)를 함께 추출한다. 기술자는 특징점에 해당되는 정보로 SSIM 수치를 계산하기 위한 데이터로 활용한다. 특성 매칭 과정은 Fig. 6과 같은 단계로 진행하게 된다.


Fig. 6. 
Feature detector, Descriptor Process.

기술자 matcher의 경우 두 개의 이미지에서 추출된 기술자의 유사도를 비교하여 유사한 기술자들을 매칭하는 역할을 한다. 이때 매칭 시 사용되는 방식은 k개의 가장 근접한 매칭을 하고 매칭이 없는 경우 매칭 결과에 불포함하는 K-Nearest Neighbors 매칭을 기반으로 한다. 계산 방법에 있어서 Brute-Force Descriptor Matcher, Brute-Force Hamming Descriptor Matcher와 Fast Library for Approximate Nearest Neighbors를 사용한다. 무손실 영상 기준이 아닌 고해상도의 비전 카메라를 통한 이미지 품질을 특정하기에 최대 신호 대 잡음비(peak signal-to-noise ratio) 측정 수치를 제외한 SSIM을 기준으로 1단계 실시간 불량 판정을 수행하였다. SSIM은 휘도, 명암비, 구조를 고려하며 측정된 SSIM은 1에 가까울수록 참조 이미지와 유사하며, 0에 가까울수록 참조 이미지와 다르다고 판단한다. 참조 이미지(signal-x)와 입력 이미지(signal-y)의 유사도를 측정하기 위한 입력 이미지(signal-y)의 SSIM 유사도를 측정한다.

2.4 딥러닝 기반 불량 탐지

본 연구는 딥러닝 기반 불량 탐지를 위해 라벨 인쇄 공정의 데이터를 사용한다. 불량 탐지를 위한 데이터 전처리의 자동화가 필요하며 1차 실시간 탐지를 위해 이미지 특성 매칭 기법을 활용하여 불량을 탐지하였다. 하지만 실제 인쇄 공정에서 발생하는 불량의 데이터는 극소수이기 때문에 딥러닝을 하기에 부족한 양이다. 이를 해결하고, 1차 실시간 검수 시 확인하지 못한 데이터에 대한 품질을 검수하기 위한 방안으로 단일 클래스(one–class) Convolutional Neural Network (CNN)를 이용하였다.

단일 클래스 학습은 한 개 클래스(정상)의 데이터만 있고 나머지 클래스(불량) 데이터는 없는 경우이다. 단일 클래스 학습에서는 오직 positive class 데이터 셋에서만 학습한다. Positive class가 A라면 negative class는~A가 된다. 특히 이미지와 같이 고차원 데이터의 경우 특징 수가 급증하게 되며 비전검사의 영상은 고해상도로 학습을 위해 224×224 픽셀 사이즈 변환 시 훈련의 효과가 낮아질 수 있다. 따라서 촬영 이미지의 유효 필터링 작업을 통해 각 이미지는 분할 학습을 진행하였다. 정상 데이터의 지도 학습 요구 사항을 충족하기 위해 불량 데이터의 오차 행렬을 통해 정확도를 제시하고자 한다.

2.4.1 유효데이터의 필터링

정상 라벨의 경우 고해상도로 촬영 시 활용하고자 하는 딥러닝의 네트워크 모델은 형상의 축소로 인해 학습 손실(loss)이 크게 발생한다. 따라서 라벨의 244×244 픽셀 기준으로 분할 처리를 하여 학습 데이터의 증강을 진행하였다.

2.4.2 정상 데이터의 학습

본 연구에서 전술한 바와 같이 실제 인쇄 공정에서 발생하는 불량의 데이터는 극소수이기 때문에 딥러닝을 하기에 부족한 양이므로 이를 극복하기 위해 단일 클래스(one–class) Convolutional Neural Network (CNN)로 실험하였다. 정상 레이블로 지정된 이미지 기준으로 단일 클래스 학습을 진행하며 학습 데이터는 Fig. 7과 같은 11,850장의 정상 이미지를 대상으로 한다. 검증 데이터의 경우 약 20%의 데이터인 3,492를 기준으로 정상과 불량의 클래스로 분류하였다. 단순 연결(simple fully-connected layer)계층에 소프트맥스을 통한 분류기를 사용하였다.4) 완전 연결(The dimension of the fully-connected)레이어의 차원은 피처 차원과 동일하게 유지시켰으며 활성화 함수인 소프트맥스(softmax) 레이어의 출력 수는 2로 설정하여 분류기를 적용하였다. 전체 네트워크는 특징 추출기 네트워크(Feature Extractor)와 분류기 네트워크(Classification Network)로 구성하여 Fig. 8과 같이 진행하였다.


Fig. 7. 
Image filtering process.


Fig. 8. 
One–class Convolutional Neural Network Experimental Procedure and Structure.2)


3. 결과 및 고찰
3.1 이미지 특성 매칭 알고리즘 실험 결과

본 연구에서 사용한 BRISK, ORB, KAZE, AKAZE 알고리즘의 평균 SSIM 수치를 기반으로 1차 품질 검사를 실시하였으며, 이때 한계선을 0.84로 설정하였다. 많은 제조 현장에서 발생할 수 있는 다양한 환경 변수를 반영하기 위해서 네 가지 알고리즘의 SSIM 수치를 평균 값을 분석하여 이를 통해 빠른 속도로 진행되는 공정의 인쇄 라벨을 실시간으로 확인할 수 있는 것으로 판단된다.

1차 실시간 분석 대상의 인쇄 라벨지는 공정에서 출력된 라벨로 737장을 테스트하였는데, 이 중 60장은 불량 라벨이었다. 실험의 결과는 Fig. 9와 같은 분포를 보였다. 이 분포는 평균 SSIM 수치의 분포로 한계(threshold)선 이하의 값은 불량으로 체크를 거치거나 시스템에서 체크를 해야 함을 Fig. 9과 같이 확인할 수 있다.


Fig. 9. 
SSIM distribution.

Fig. 10은 한계선 이하의 평균 SIMM 수치를 가진 라벨을 보여주며, 이는 검수 시 불량 체크가 필요하다.


Fig. 10. 
Defective inspection sample.

Table 1은 이미지 특성 매칭 알고리즘인 ORB, BRISK, KAZE, AKAZE의 성능 평가 결과를 보여 준다. 이 표에서 보듯이 가장 우수한 성능을 보인 알고리즘은 KAZE였으며, 가장 낮은 성능을 보인 알고리즘은 ORB였다. 하지만 네 가지 알고리즘 모두 큰 성능 차이를 보이지는 않았다.

Table 1. 
Feature Matching Algorithm-average SSIM
구분 BRISK ORB KAZE AKAZE
SSIM (AVG) 0.860 0.849 0.863 0.862

이진 분류(정상 또는 불량) 문제에서는 정밀도(Precision)와 재현율(Recall)이 성능 지표로 사용된다. 정밀도는 불량으로 예측된 제품 중 실제 불량 제품의 비율이며, 재현율은 실제 불량 제품 중 불량으로 예측한 제품의 비율이다. 또한 종합 지표로 F1 점수(F1-Score)를 사용하며 식은 다음과 같다.

 F1-Score =2× Precision × Recall  Precision + Recall 

Table 2의 F1-스코어 값을 보면 최대 97%의 정확도를 보여 1차 단계의 실시간 품질 검수에 적합함을 알 수 있다. 따라서 인쇄 라벨 공정의 초기 품질 검사를 통해 다음 공정으로 이송되기 전 제거 또는 보완의 공정을 추가할 수 있는 판정이 가능하여, 공정상 발생할 수 있는 품질 문제를 사전에 예방할 수 있을 것으로 판단된다.

Table 2. 
Image Feature Matching Algorithm (F1-score)
구분 BRISK ORB KAZE AKAZE
Precision 0.988 0.99 0.988 0.988
Recall 0.949 0.83 0.95 0.952
F1-score 0.968 0.904 0.969 0.97

3.2 딥러닝 모형 실험 결과

1차 실시간 이미지 특성 매칭 모형에 의한 검사에서 탐지하지 못한 불량을 공정 완료 후 추가 탐지한다는 것은 불가능한 것이 현실이다. 본 연구에서는 이를 극복하기 위해 2차 검사를 할 수 있는 딥러닝 기반 불량 감지 모형으로 단일 클래스 CNN 을 제시했으며 실험 결과 높은 성능을 보였다. 이는 제품의 전수검사를 대체하여 품질 검사를 시행할 수 있다. 신뢰할 수 있는 결과를 얻으려면 학습 절차를 모든 클래스에 적용해야 한다. ‘정상’으로만 모형을 학습한 다음 ‘불량’의 모형을 학습하였으며 학습 과정에서 Fig. 11Fig. 12와 같은 손실 함수를 최소로 만들어주는 가중치들을 찾는 것을 목표로 실험하였다.


Fig. 11. 
Training Accuracy and Loss Function.


Fig. 12. 
Mean squared error.

테스트를 위한 난수 발생(random seed) 개수를 500으로 설정하여 생성하였다. 예측 데이터의 경우 기존에 학습한 모형을 통해 예측 데이터의 검증을 진행하였으며, 검증결과 예측 데이터에 대한 정확도는 99.79, F1-스코어는 99.8%였다. 또한, 혼동 행렬(confusion matrix)을 통한 구체적인 성능은 Fig. 13과 같이 정상레이블 데이터 기준 100%의 탐지를 했으며 불량 데이터의 예측 데이터 평가시 97%의 우수한 성능을 보였다.5)


Fig. 13. 
Confusion matrix.


4. 결 론

소비자들의 상품 선택 패러다임이 다양화되면서 생산 방식이 다품종 소량 생산체제로 변화되고 있다. 이에 따라 생산 시스템의 슬림화를 지향하면서 생산관리의 전문화와 역할의 효율성을 추구하고 있다. 생산관리의 핵심 역할은 소비자가 요구하는 상품을 최적 조건에서 신속하고 정확하게 생산하기 위한 효율을 강화시키는 것이다. 이를 위해 제품 생산 시 실시간 검수에 따른 운영 관리의 효율성 추구하고 실시간으로 품질을 관리하여 불량품을 근본적으로 발생하지 않도록 해야 한다.

본 연구는 육안 검사나 간단한 OCV 검사 등 비교적 불량 데이터의 발생이 크지 않은 경우에 적용되는 기존의 검수 과정에 대한 단점을 보완하기 위한 대안으로 딥러닝 기반 제조 공정 비전검사 불량 감지에 적용 가능성을 탐색한 연구로 정상품과 불량의 발생 수량의 극심한 불균형을 보이는 라벨 인쇄 공정에 대한 적용성을 평가하였다. 실시간 데이터를 제조공정에서 샘플링하기 위해 1차 이미지 특성 매칭 알고리즘을 적용하여 1차 라인의 실시간 품질 검수에 적합함을 실험하여 그 가능성을 확인하였으며,이를 통해 발생할 수 있는 초기 품질 검사를 통해 뒤에 공정으로 이송되기 전 제거 또는 보완의 공정을 추가할 수 있으며 이는 큰 품질 문제를 예방할 수 있을 것으로 기대된다. 이미지 특성 매칭을 통한 실시간 탐지 수치(F1-스코어 기준 AKAZE 모델)의 정확도는 97%로 높은 값을 나타냈다. 딥러닝 기반의 제조 공정 비전검사 불량 감지 모델을 이용한 탐지 못한 불량에 대한 2차 품질 검수의 정확도는 99.8%로 상당히 높게 나타났다. 따라서 딥러닝 기반 제조공정 비전검사 불량 감지모델로 인쇄 공정에 안정된 정확도 성능의 도출이 가능할 것으로 예상된다.

하지만 라벨 인쇄 공정의 경우 출력 시 번짐, 흐림 등의 세부적인 품질 검수 사항에 대해서는 기존 방식외의 구체적인 학습데이터가 필요한 상황이다. 이는 Faster Regions with Convolutional Neuron Networks features 등의 특정 부위의 바운딩 박스 등의 학습 데이터를 통해 보다 세밀한 검수 체계가 필요한 상황이다.6) 또한 이러한 학습데이터는 다양한 산업으로 확장하여 학습데이터 및 이미지 확보를 확보할 수 있다면 딥러닝 기반 제조공정 비전 검사의 성능 및 효율성 향상이 가능할 것으로 예상된다.


Literature Cited
1. Km, Y. W., Kim, D., and Kim, S. H., Development of recommendation model for image keypoint detection and descriptor extraction algorithm, Jounal of KIIT, 19(4):27-35 (2021).
2. Oza, P. and Patal, V. M., One-class convolutional neural network, IEEE Signal Processing Letters, 26(2):277-281 (2018).
3. Wang, S., Rehman, A., Wang, Z., Ma, S., and Gao, W., Perceptual video coding based on SSIM-inspired divisive normalization, IEEE Transactions on Image Processing, 22(4):1418-1429 (2012).
4. Oliver, J. and Aldrich, C., Dynamic monitoring of grinding circuits by use of global recurrence plots and convolutional neural networks, Minerals, 10(11):958 (2020).
5. Visa, S., Ramsay, B., Ralescu, A. L., and Van der Knaap, E., MAICS, 710:120-127 (2011).
6. Ren, S., He, K., Girshick, R., and Sun, J., Faster R-CNN: Towards real-time object detection with region proposal networks, IEEE transactions on pattern analysis and machine intelligence, 39(6):1137-1149 (2016).