desenvolvimento e avaliaÇÃo de um sistema para …§ões-teses... · grÃos de culturas anuais...
TRANSCRIPT
UNIVERSIDADE FEDERAL DE MATO GROSSO
FACULDADE DE AGRONOMIA E MEDICINA VETERINÁRIA
Programa de Pós-graduação em Agricultura Tropical
DESENVOLVIMENTO E AVALIAÇÃO DE UM SISTEMA
PARA CLASSIFICAR GRÃOS DE CULTURAS ANUAIS
POR PROCESSAMENTO DE IMAGEM DIGITAL
ROGÉRIO ANTONIO GALLON
CUIABÁ - MT
2012
2
UNIVERSIDADE FEDERAL DE MATO GROSSO
FACULDADE DE AGRONOMIA E MEDICINA VETERINÁRIA
Programa de Pós-Graduação em Agricultura Tropical
DESENVOLVIMENTO E AVALIAÇÃO DE UM SISTEMA
PARA CLASSIFICAR GRÃOS DE CULTURAS ANUAIS
POR PROCESSAMENTO DE IMAGEM DIGITAL
ROGÉRIO ANTONIO GALLON
Engenheiro Agrônomo
Orientador: Prof Pós-Doc. MARCELO DE CARVALHO ALVES
Dissertação apresentada à Faculdade
de Agronomia e Medicina
Veterinária da Universidade Federal
de Mato Grosso, para obtenção do
título de Mestre em Agricultura
Tropical.
CUIABÁ – MT
2012
3
Dados Internacionais de Catalogação na Fonte
G173d Gallon, Rogério Antonio.
Desenvolvimento e avaliação de um sistema para classificar grãos
de culturas anuais por processamento de imagem digital / Rogério
Antonio Gallon. -- 2012.
74 f. : il. color. ; 30 cm.
Orientador: Marcelo de Carvalho Alves.
Dissertação (mestrado) - Universidade Federal de Mato Grosso,
Faculdade de Agronomia e Medicina Veterinária, Programa de Pós-
Graduação em Agricultura Tropical, Cuiabá, 2012.
Inclui bibliografia.
1. Classificação de grãos. 2. Classificação de grãos – Sistema. 3.
Automação agrícola. 4. Classificação de grãos – Visão de máquina. 5.
Processamento de imagem digital – Grãos. I. Título.
CDU 631.56:004.932(817.2)
Ficha Catalográfica elaborada pelo Bibliotecário Jordan Antonio de Souza - CRB1/2099
Permitida a reprodução parcial ou total desde que citada a fonte
4
5
‘Faça as coisas o mais simples que puder, mas não as mais simples’.
Albert Einstein
6
A todos os Mestres que passaram pela minha vida, aos que ajudaram nos
primeiros passos e aos que me guiaram pela estrada do saber.
Aos Pais Frederico e Dorvalina e aos irmãos: Juraci, Salete, Érico, Edgar (In
Memorian), Alcio e Omar.
À esposa Márcia e ao filho Frederico Neto, pelo apoio e compreensão.
Aos inumeráveis amigos, pelo incentivo recebido.
Dedico.
7
A Deus pelo dom da vida e da sabedoria.
Ao professor orientador, Pós-doc. Marcelo de Carvalho Alves que me
orientou neste trabalho, pela sua dedicação e paciência.
Aos colegas do laboratório SERGEO, ao Núcleo de Tecnologia e
Armazenagem de grãos da UFMT.
Ao portal de pesquisas CAPES.
Ao Programa de Pós Graduação em Agricultura Tropical e à Faculdade de
Agronomia da UFMT.
Agradeço.
8
DESENVOLVIMENTO E AVALIAÇÃO DE SISTEMA PARA CLASSIFICAR
GRÃOS DE CULTURAS ANUAIS POR PROCESSAMENTO DE IMAGEM
DIGITAL
RESUMO - O objetivo deste trabalho foi desenvolver um sistema para classificar
grãos por processamento de imagem digital, para desenvolver e avaliar o sistema.
Foram utilizados grãos das culturas agrícolas anuais, milho (Zea mays L.), soja
(Glycine Max L.), arroz (Oryza sativa L.), algodão (Gossypium hirsutum L.), girassol
(Helianthus annus), feijão carioca (Phaseolus vulgaris L.), produzidos no Estado de
Mato Grosso. O trabalho foi executado no Laboratório de Sensoriamento Remoto e
Geoinformações (SERGEO) da Universidade Federal de Mato Grosso. Foi utilizado
um computador do tipo PC, câmara de vídeo e caixa analítica para posicionar os
equipamentos necessários para a coleta das imagens (lâmpadas, suporte para câmera
de vídeo e local para receber os grãos das seis espécies). Para iluminação do alvo,
três lâmpadas eletrônicas foram dispostas abaixo da amostra de grãos. A construção
da caixa analítica para posicionamento das lâmpadas foi útil no registro e
processamento das imagens. Uma rotina de computador capaz de obter a imagem,
processar as informações e fornecer os resultados foi desenvolvida, com a utilização
do programa Matlab® e o módulo específico para processamento de imagem. As
imagens foram obtidas utilizando-se uma câmera de vídeo do tipo ‘webcam’ mantida
numa posição fixa, com a mesma distância do alvo em todo o experimento. Após a
obtenção das imagens, procedeu-se à calibração geométrica. A imagem capturada
passou por correção radiométrica utilizando filtros para eliminar ruídos. As imagens
inicialmente em composição colorida (RGB) foram convertidas em binária. Para a
binarização foi utilizado o método de limiarização ótima de Otsu. Em seguida, foram
extraídos os dados necessários para os cálculos das medidas geométricas de área,
diâmetro maior e menor e excentricidade. As medidas de diâmetro maior obtidas por
processamento digital foram comparadas com as de um paquímetro digital e o
coeficiente de correlação (Pearson) foi determinado como r = 0,98; 0,98; 0,99; 0,99;
0,97 para milho, girassol, feijão, soja e algodão respectivamente. Para a identificação
9
das espécies foi usado um classificador que utilizou valores pertencentes a um
intervalo de mínimos e máximos para cada cultura. Esses valores foram identificados
previamente para as quatro características avaliadas e fixadas na rotina do programa.
O total de acerto do programa na identificação das espécies individualmente,
comparado com a avaliação visual, para soja, arroz e girassol foi de 100% e para
algodão, feijão e milho, de 98%, 89,4% e 90,4%, respectivamente. A acurácia do
programa para avaliação das seis espécies, utilizando a matriz de confusão foi de
86%. Para uma melhor utilização do classificador da imagem, foi desenvolvida uma
interface gráfica e gerou-se um programa executável. O programa desenvolvido
mostrou-se útil na identificação automática de grãos de culturas anuais. As vantagens
de se utilizar o processamento digital na classificação de grãos é a rapidez na
obtenção dos resultados, a alta acurácia dos resultados, a redução dos custos e o
registro permanente dos resultados.
Palavras-chave: Classificação de grãos, automação agrícola, visão de máquina.
10
DEVELOPMENT AND EVALUATION OF A YEARLY CROP GRAIN
CLASSIFICATION SYSTEM USING DIGITAL IMAGE PROCESSING
ABSTRACT - The objective of this study was to develop a system to classify grains
using digital image processing, to develop and evaluate the system. We used grains
of annual agricultural crops, corn (Zea mays L.), soybean (Glycine max L.), rice
(Oryza sativa L.), cotton (Gossypium hirsutum L.), sunflower (Helianthus annus),
bean (Phaseolus vulgaris L.), produced in the State of Mato Grosso. The work was
executed at the Laboratory of Remote Sensing and Geoinformation (Sergeo) int the
Federal University of Mato Grosso. We used a PC-type computer, video camera and
analytical box to position the equipment needed for the collection of images (lights,
support for the video camera and a place to accommodate the grains of the six
species). To illuminate the target, three electronic lamps were disposed below the
grain sample. The construction of the analytical box to position the lamps was useful
in recording and processing the images. A computer routine capable obtaining the
image, processing the information and providing the results was developed using the
Matlab® and the specific module for image processing. The images were obtained
using a ‘webcam’ type video camera kept in a fixed position with the same distance
from the target throughout the experiment. After obtaining the images, we proceeded
to the geometric calibration. The captured image was corrected radiometricaly using
filters to eliminate noise. The first color composite image (RGB) were converted to
binary. For the binarization method was used for optimal Otsu thresholding. Then,
the extracted data required for calculation of the geometrical measurements of area,
major axis, minor axis and eccentricity. The measures of axis obtained by digital
processing were compared with a digital caliper and the coefficient of correlation
(Pearson) was determined as r = 0.98, 0.98, 0.99, 0.99, 0.97 respectively for corn,
sunflower, beans, soybeans and cotton. For species identification we used a classifier
that used values belonging to a range of minimum and maximum for each culture.
These values were previously identified for the four traits and fixed in the routine of
the program. The total success of the program in the identification of individual
species, compared with visual assessment for the soybean, rice and sunflower was
11
100% and cotton, beans and maize, 98%, 89.4% and 90.4%, respectively. The
accuracy of the program for evaluation of the six species, using the confusion matrix
was 86%. For a better usage of the image classifier, a graphical interface was
developed and an executable program was created. The software has proved useful in
the automatic identification of annual grain crops. The advantages of using digital
processing in the classification of grains is the speed in obtaining results, the high
accuracy of results, reducing costs and permanent record of the results.
Keywords: Classification of grain, agricultural automation, machine vision.
12
SUMÁRIO
1 INTRODUÇÃO ..................................................................................................... 13
1.1Hipótese ................................................................................................................ 15
1.2 Objetivos .............................................................................................................. 15
1.2.1 Objetivo Geral ................................................................................................... 15
1.2.2 Objetivos Específicos ........................................................................................ 15
2 REVISÃO BIBLIOGRÁFICA ............................................................................. 17
2.1 Sensoriamento Remoto ........................................................................................ 17
2.1.1 Fundamentos ..................................................................................................... 17
2.1.2 Radiação Eletromagnética ................................................................................. 17
2.1.3 Espectro Eletromagnético ................................................................................. 18
2.2 Imagem Digital..................................................................................................... 18
2.2.1 Definição ........................................................................................................... 18
2.2.2 Resolução .......................................................................................................... 18
2.2.3 Processamento ................................................................................................... 19
2.2.4 Aquisição de Imagem ........................................................................................ 19
2.2.5 Armazenamento ................................................................................................ 20
2.2.6 Tratamento de Imagens ..................................................................................... 20
2.2.7 Analise (Interpretação) ...................................................................................... 20
2.2.8 Classificação e Análise dos Resultados ............................................................ 20
2.2.8.1 Classificação Supervisionada ......................................................................... 21
2.2.8.2 Classificação não supervisionada ................................................................... 21
2.2.9 Binarização ........................................................................................................ 21
2.3 Software ............................................................................................................... 21
2.3.1 Matlab®
............................................................................................................. 21
2.4 Aplicações do processamento de Imagem Digital ............................................... 22
2.5 Câmara Fotográfica Digital .................................................................................. 24
2.6 Escâner de Mesa ................................................................................................... 25
2.7 Câmera de Vídeo .................................................................................................. 25
2.8 Equipamentos Acessórios .................................................................................... 26
2.9 Processamento das Informações .......................................................................... 28
2.10 Classificação de Grãos ....................................................................................... 29
13
3 MATERIAL E MÉTODOS .................................................................................. 31
3.1 Equipamentos Utilizados ..................................................................................... 31
3.1.1 Descrição da Caixa Analítica ............................................................................ 31
3.1.2 Medição dos Grãos ............................................................................................ 32
3.1.3 Câmera de Vídeo ............................................................................................... 33
3.1.4 Computador ....................................................................................................... 33
3.2 Posicionamento dos Equipamentos ..................................................................... 33
3.3 Laboratório ........................................................................................................... 33
3.4 Características do experimento ............................................................................ 33
3.5 Transformações geométricas ................................................................................ 34
3.6 Metodologia de Trabalho ..................................................................................... 35
3.6.1 Aquisição e Segmentação da Imagem............................................................... 35
3.6.2 Calibração da Câmera de Vídeo ........................................................................ 36
3.6.3 Imageamento e Ajustes ..................................................................................... 36
3.6.4 Calibração da Câmara de Vídeo ........................................................................ 37
3.7 Captura e Processamento das Imagens ................................................................ 38
3.8 Segmentação ........................................................................................................ 39
3.9 Operações Morfológicas ...................................................................................... 41
3.10 Amostras de Grãos ............................................................................................. 42
3.11 Aferição do Sistema ........................................................................................... 42
3.12 Amostragem e Extração das Características Morfológicas para Calibração do
Programa. ................................................................................................................... 42
3.13 Estatística Descritiva .......................................................................................... 43
3.14 Validação............................................................................................................ 43
3.15 Guia de Interface do Usuário (GUI).................................................................. 44
3.16 Programa Executável ......................................................................................... 44
4 RESULTADOS E DISCUSSÃO ......................................................................... 45
4.1 Radiação ............................................................................................................... 45
4.2 Algoritmo para Reconhecimento e Classificação ................................................ 47
4.2.1 Reconhecimento ................................................................................................ 47
4.2.2 Classificação ..................................................................................................... 47
4.3 Calibração da Câmera .......................................................................................... 47
14
4.4 Validação dos Dados ............................................................................................ 48
4.5 Guia de Interface do Usuário (GUI).................................................................... 59
4.6 Fluxograma .......................................................................................................... 60
4.6.1 Fluxograma Programa para Realizar Medições. ............................................... 60
4.6.2 Fluxograma para Classificar as Espécies. ......................................................... 61
5 CONSIDERAÇÕES FINAIS ................................................................................. 63
5.1 Sugestões Para Trabalhos Futuros ....................................................................... 64
6 CONCLUSÃO ....................................................................................................... 65
7 REFERÊNCIAS BIBLIOGRÁFICAS ................................................................ 66
8 APÊNDICE ............................................................................................................ 71
13
1 INTRODUÇÃO
O motivo que nos levou a desenvolver um programa para classificação de grãos,
por processamento de imagem digital, foi a constatação ‘in locco’ da necessidade da
adoção de métodos alternativos para a identificação de produtos agrícolas recebidos
pelas unidades armazenadoras de grãos. Rotineiramente a tarefa de classificar um
lote de grãos é realizada por profissionais treinados que utilizam equipamentos
mecânicos e realizam análise visual para reconhecimento de padrões. A classificação
é feita avaliando-se os grãos das amostras coletadas no veículo transportador. A
coleta das amostras deve ser feita como determina a Instrução Normativa do
Ministério da Agricultura para amostragem de grãos, que determina o número
mínimo de pontos amostrais a serem coletados, e que depende da quantidade de
toneladas do produto que é transportada. A coleta de amostras é um processo que
demanda o emprego de força física, que poderia ser substituída totalmente ou em
partes com o uso de novas tecnologias. A pesquisa buscou desenvolver um método
alternativo ao esforço físico humano, que fosse mais ágil, econômico e confiável,
com resultados reproduzíveis e sem a subjetividade humana.
As vantagens principais do uso de processamento digital, em comparação com
métodos tradicionais são o registro permanente da característica física dos objetos de
estudo, a rapidez com que os resultados são obtidos, bem como o elevado grau de
acurácia envolvido nos processamentos computacionais.
Para o processamento das imagens, existem, à disposição no mercado, diversos
programas, possuindo funções básicas semelhantes, mas com detalhes particulares
que poderão ajudar o usuário. Entre esses programas citamos o SPRING, software de
domínio público desenvolvido pelo INPE, ENVI para análise de imagens
14
multiespectrais e hiperespectrais que pode também ser utilizados para o
processamento de imagens obtidas por câmeras digitais (EMBRAPA, 2001), o
Matlab® sistema para cálculos matemáticos e matriciais (MARQUES FILHO, 1999).
O processamento de imagem digital vem sendo utilizado para os mais diversos
fins. Na agricultura, trabalhos de pesquisas demonstraram a viabilidade de seu uso,
entre outros, na verificação da mudança de coloração de banana prata durante o
armazenamento (WERNER et al., 2009), avaliação do índice espectral na avaliação
de dose de nitrogênio na cultura do feijoeiro (BAESSO et al., 2007), avaliação das
características físicas de grãos de soja como o comprimento, largura, espessura,
circularidade, esfericidade e perímetro, utilizando escâner de mesa, (GUEDES et al.,
2011), danos mecânicos em sementes de milho utilizando imagem de raio-X
(TEIXEIRA, et al., 2007), efeito de diferentes posições da semente de milho na
espiga, sobre a qualidade (MONDO e CICERO, 2005). As imagens digitais também
servem para fazer o levantamento de informações relacionado aos aspectos
biofísicos, mapeamento e quantificação da vegetação natural e das áreas
agricultáveis, interpretando fotos aéreas e análise de imagem digital de satélite
(BARBOSA, et al. 2009). Extração semi-automática de rodovias em imagens de
satélite, ou em fotografias aéreas digitalizadas (DAL POZ e AGOURIS, 2001).
No processamento de imagens, o uso de características morfológicas é útil
quando o classificador necessita de dados, tais como área e diâmetro para mensurar
uma determinada espécie ou cultivar. Essas medidas são obtidas com o uso de
instrumentos mecânicos, tornando o processo demorado, laborioso, de difícil leitura,
em especial nos grãos com pequenas dimensões (BOTHONA et al., 1999). Outro
problema é a subjetividade do método manual, acarretando em erros
(MANICKAVASAGAN et al., 2008), (ZHANG et al. 2005). Com o
desenvolvimento da técnica de análise de imagem digital para a determinação precisa
do tamanho e formas de órgãos e estruturas vegetais (SYMONS e FULCHER, 1988),
a identificação automática de espécies passou a ser viável, embora o uso de sistemas
informatizados seja conhecido há décadas, a análise das características morfológicas
de grãos em laboratórios ainda é feita pelo sistema manual.
A fim de melhorar a eficiência e qualidade na análise de grãos, empresas,
laboratórios e pesquisadores, em várias partes do mundo, utilizaram o processamento
de imagem digital como alternativa à classificação manual. Este método subjetivo
15
visual pode proporcionar erros devido às diversas circunstâncias
(MANICKAVASAGAN et al., 2008). O sistema de visão artificial pode possibilitar
a avaliação de uma amostra sem a subjetividade humana, com maior precisão e
rapidez no processo de análise.
Sistemas de reconhecimento por visão artificial têm se tornado um produto
atrativo para o processamento de imagens digitais e, cada vez mais, novas áreas vêm
sendo estudadas na agricultura. Diferentes estudos demonstraram a eficiência do uso
de imagens digitais tais como, controle de qualidade (CHENG et al., 2004),
gerenciamento de mapas (HAGUE et al., 1997), detecção em tempo real, (TIAN et
al., 1999), estimativa de ervas daninhas, classificação de fibras naturais (WENZHU
et al., 2009), detecção de doenças em plantas, entre outras aplicações. Com o avanço
tecnológico e industrial, a imagem digital pode ser um instrumento importante para
verificar o tipo e a qualidade dos produtos agrícolas.
Devido aos inúmeros benefícios da adoção do processamento de imagens há a
necessidade de estudos para fazer a adequação necessária de softwares e
equipamentos, que respondam às necessidades do usuário.
1.1Hipótese
O processamento de um conjunto de características morfológicas dos grãos pode
fornecer dados que possibilitem identificar uma espécie e diferenciá-la de outras.
1.2 Objetivos
1.2.1 Objetivo Geral
Neste trabalho, descreve-se e avalia-se o uso da técnica de análise de imagens
digitais, obtidas de câmera de vídeo. Na quantificação das medidas morfológicas
(diâmetro maior e menor, área e excentricidade) das espécies de milho, soja, arroz,
feijão, algodão e girassol.
1.2.2 Objetivos Específicos
Como objetivos específicos têm-se:
Desenvolver um equipamento para servir de suporte para a amostra de grãos,
apoio para câmera de vídeo e efetuar o controle da iluminação.
16
Criar algoritmo para automatizar o processo de classificação desde a obtenção
da imagem até o fornecimento dos resultados.
Classificar grãos de seis espécies de culturas anuais (soja, milho, arroz, feijão,
girassol e algodão), utilizando diversas características morfológicas.
Verificar a possibilidade de identificação de cultivares de milho por
processamento de imagem digital.
Quantificação das medidas morfológicas, na quantificação de grãos de culturas
anuais.
Desenvolver um programa executável para sistema operacional DOS
ou
Windows
.
Desenvolver interface gráfica para utilizar o ‘software’ de classificação.
17
2 REVISÃO BIBLIOGRÁFICA
2.1 Sensoriamento Remoto
2.1.1 Fundamentos
Sensoriamento remoto é a arte e a ciência de obter informação sobre um
objeto sem estar em contato físico direto com o objeto. O sensoriamento remoto pode
ser usado para medir e monitorar importantes características biofísicas e atividades
humanas na terra (JENSEN, 2009). Quatro são os elementos fundamentais das
técnicas do Sensoriamento Remoto: Fonte, Sensor, Alvo e a Radiação
Eletromagnética. A radiação eletromagnética (REM) é o elemento que liga os
demais. Para estudos dos recursos naturais a fonte do REM é o sol. O Sensor é capaz
de coletar e registrar a REM refletida ou emitida pelo objeto, que também é
denominado alvo, e que representa o elemento do qual se pretende extrair
informações (FERREIRA, et al., 2001).
2.1.2 Radiação Eletromagnética
A radiação eletromagnética (REM) é entendida como sendo toda a energia
com propriedades elétricas e magnéticas, movendo-se à velocidade da luz. Essa
energia refletida ou emitida pelo material presente na superfície pode ser detectada
por um sensor, tal como faz o olho humano, que capta a energia refletida no intervalo
de luz visível, ou uma câmara de vídeo, sendo em seguida convertida em dados
passíveis de interpretação, de acordo com a frequência e intensidade (HOLZ, 1985).
18
2.1.3 Espectro Eletromagnético
O espectro eletromagnético pode ser compreendido como um comprimento
de onda continuo da radiação eletromagnética (HOLZ, 1985), fragmentadas nos
intervalos Raio gama e Raio-X, ultravioleta, faixa do visível, infravermelho (próximo
e distante), micro-ondas e ondas de rádio (JENSEN, 2009). Para fins práticos do
sensoriamento remoto, normalmente são utilizados os intervalos espectrais do
Visível, Infravermelho e Micro-ondas (FERREIRA, et al., 2001). Sobre uma energia
incidente, três tipos de interações básicas podem ocorrer entre a energia
eletromagnética e o alvo: transmitância; reflectância; e absortância (HOLZ, 1985). A
reflectância é definida como a razão adimensional entre o fluxo radiante refletido por
uma superfície e o fluxo radiante incidente nela; a transmitância é a razão
adimensional entre o fluxo radiante transmitido por uma superfície e o fluxo radiante
incidente nela e a absortância é definida entre a razão adimensional do fluxo de
energia absorvida e o somatório do fluxo radiante refletido, mais o fluxo radiante
absorvido e o fluxo radiante transmitido. (JENSEN, 2009).
2.2 Imagem Digital
2.2.1 Definição
Uma imagem digital é o resultado do estímulo luminoso captado pelo olho
humano em que, cada ponto de uma cena está associado a uma informação de cor.
Uma imagem monocromática pode ser descrita matematicamente por uma função f(x,
y) da intensidade luminosa, sendo seu valor, em qualquer ponto de coordenadas
espaciais (x, y), proporcional ao brilho (ou nível de cinza) da imagem naquele ponto
(MARQUES FILHO, 1999). Assim, uma imagem pode ser compreendida como uma
matriz de linha (x) e colunas (y), numeradas de (1,1) iniciando no canto superior
esquerdo até o canto inferior direito (n, m).
2.2.2 Resolução
A resolução de uma imagem pode ser espacial, espectral e radiométrica. A
resolução espacial mostra a qualidade óptica de uma imagem produzida por um
determinado sensor, a resolução espectral de um sensor pode ser definida pela
capacidade de ele registrar a radiação refletida ou emitida pelos alvos,
19
simultaneamente, em diferentes comprimentos de onda ou intervalos do espectro
eletromagnético (FERREIRA et al., 2001), já a resolução radiométrica, é definida
como a capacidade de o sensor medir com precisão, os diferentes níveis de radiância
refletida pelos alvos na superfícies. É medida pelos números de valores digitais
utilizados para expressar os dados coletados em uma imagem. Quando uma imagem,
obtida por câmara de vídeo ou máquina fotográfica digital possui resolução
radiométrica de 8 bits, significa que cada pixel da imagem será representado por um
valor digital (0 – 255), (FERREIRA, 2001).
2.2.3 Processamento
O processamento digital das imagens indica a manipulação de dados em meio
computacional em que o material de entrada e de saída do sistema é uma imagem. A
necessidade do processamento surge do fato de a imagem conter um volume de
informações quase sempre superior à capacidade de percepção do olho humano. Na
maioria das vezes essas informações são traduzidas somente pela melhoria no
aspecto visual ou estrutura da imagem. Tais melhorias incluem alguns tratamentos,
como aumento de contraste ou uso de filtros de bordas, por exemplo. Criam-se
assim, condições para uma interpretação mais eficaz, facilitando o reconhecimento
de feições comuns (FERREIRA, 2001).
De modo geral, um sistema de processamento de imagens envolve algumas
etapas que podem ser agrupadas na seguinte ordem: Aquisição da imagem e
armazenamento; tratamento da imagem (realce); análise da imagem (interpretação,
coleta de amostras de pixels para classificação supervisionada); classificação e
análise dos resultados.
2.2.4 Aquisição de Imagem
A aquisição da imagem digital é o processo no qual se faz a conversão de
uma cena real tridimensional em uma imagem analógica, em uma cena com
dimensionalidade reduzida (bidimensional). O dispositivo de aquisição de imagens
mais utilizado atualmente é a câmara CCD (Charge Coupled Device – ou dispositivo
de carga acoplada) que se constitui de uma matriz de células semicondutoras
20
fotossensíveis que atuam como capacitores, armazenando carga elétrica proporcional
à energia luminosa incidente (MARQUES FILHO, 1999).
2.2.5 Armazenamento
O armazenamento de imagens digitais é um dos maiores desafios no projeto
de sistemas de processamento de imagens, em razão da grande quantidade de bytes
necessários para tanto. Este armazenamento pode ser divido em três categorias:
armazenamento de curta duração de uma imagem, enquanto ela é utilizada nas várias
etapas do processamento; armazenamento de massa para operações de recuperação
de imagens relativamente rápidas; e arquivamento de imagens, para recuperação
futura quando isto se fizer necessário (MARQUES FILHO, 1999).
2.2.6 Tratamento de Imagens
A interpretação de uma imagem pode ser dificultada por alguns fatores, ora
inerentes ao sensor, tal como a baixa resolução espacial e radiométrica deste, ora
externos ao processo, tal como a perda de qualidade da imagem durante a fase de
aquisição (FERREIRA, et al., 2001).
2.2.7 Analise (Interpretação)
Depois da aplicação de alguns tratamentos voltados para a melhoria de
qualidade (realce, filtragem, etc.), a última etapa de um processamento digital antes
da obtenção dos resultados propriamente ditos está relacionada com a extração de
informações quantitativas e qualitativas de determinada cena. O procedimento
principal de uma análise de imagens refere-se às técnicas de classificação
(FERREIRA, et al., 2001).
2.2.8 Classificação e Análise dos Resultados
A classificação de imagens consiste no estabelecimento de um processo de
decisão no qual um grupo de pixels é definido como pertencente a determinada
classe temática (definida ou não pelo usuário), de acordo com o respectivo valor
digital (FERREIRA et al., 2001).
21
2.2.8.1 Classificação Supervisionada
O método de classificação é dito supervisionado por realizar um
reconhecimento dos
padrões de pixels na imagem com base em indicações definidas pelo próprio
analista. (FERREIRA et al., 2001).
2.2.8.2 Classificação não supervisionada
A classificação não supervisionada não utiliza amostras de pixels, coletadas
pelo analista, para classificar os diferentes alvos de uma imagem. Ou seja, não há
fase de treinamento do algoritmo classificador. O analista opta apenas por um dos
algoritmos oferecidos pelo software de processamento para a realização da
classificação, escolhendo também o número de classes de informações (FERREIRA
et al., 2001).
2.2.9 Binarização
A binarização consiste em transformar uma imagem originalmente com 256
níveis de cinza, em apenas dois níveis: 0 (zero) e 1, ou seja, preto e branco.
2.3 Software
Os processadores de imagens são softwares desenvolvidos para o tratamento
de imagens no formato digital (em geral 256 níveis de cinza), permitindo a realização
de diversas operações: tratamento no domínio da imagem ou da frequência pra
realçar certos objetos ou áreas na imagem, classificações, análise espacial e
estatística dos pixels (FERREIRA, 2001).
2.3.1 Matlab®
O Matlab® (abreviação de 'laboratório de matrizes' - MATrix LABoratory) é
um sistema para cálculos matemáticos e matriciais, o qual pode ser imaginado como
uma espécie de linguagem de programação. Todas as variáveis são tratadas como
matrizes pelo Matlab®, com uma característica especial: são dimensionadas
automaticamente, fato que facilita sobremaneira a implementação de algoritmos
22
matriciais. Outra vantagem do uso do Matlab® é o seu extenso conjunto de rotinas de
representação gráfica. É possível a criação de programas com as funções do Matlab®
para implementar algoritmos mais complexos. Esses programas são conhecidos
como arquivos-M ou ‘scripts’.
Normalmente o Matlab® é utilizado no modo comando, ou seja, os comandos
são processados imediatamente após a sua entrada, exibindo os resultados na tela.
Porém, também é possível a criação de sequências de comandos (scripts)
armazenadas em arquivos denominados arquivos-M. Essa possibilidade é bastante
útil para sequências de comandos comumente repetidas e também para a criação de
novas funções específicas. Uma característica bastante útil e prática do Matlab® é a
de que as suas variáveis não precisam ser dimensionadas antes de serem usadas. As
variáveis são geradas e dimensionadas automaticamente ao serem referenciadas pela
primeira vez em uma atribuição de valores, permanecendo na memória de trabalho
até que esta seja limpa. (MARQUES FILHO, 1999).
2.4 Aplicações do processamento de Imagem Digital
Há algumas décadas a utilização do processamento de imagem para
identificação e classificação de produtos agrícolas vem sendo estudado. Durante a
década de 1970, a heterogeneidade das características agronômicas em campo, deu
início à agricultura de precisão (JONES et al., 2009). Segundo Gebbers et al. (2010)
agricultura de precisão proporciona um meio de monitorar a cadeia de produção
alimentar e gerenciar a quantidade e a qualidade dos produtos agrícolas.
Para Shahin et al. (2003), com a melhoria no sistema de processamento
computacional e a redução de custos dos equipamentos e ‘softwares’ foi possível
utilizar o processamento de imagem para obter sucesso em diversos segmentos,
como identificação de doenças em plantas, germinação, vigor, ocorrência de pragas,
qualidade dos produtos e identificação de amostras de grãos.
Para Kiliç et al. (2007) usualmente, a inspeção de materiais ou produtos é
realizada por inspeção humana, no entanto isso pode facilmente resultar em enganos
e os custos são relativamente altos quando feito por profissionais especializados.
Outra dificuldade apontada pelos autores é obter resultados padronizados pelos
23
classificadores. Por essas razões se confirma a necessidade de um sistema objetivo de
medições.
Para compreender melhor como funciona o processamento de imagem digital
com finalidades agrícolas, é interessante conhecer a dinâmica envolvida no processo.
O sistema de visão de máquina, comumente utilizado em aplicações agrícolas,
adquire a refletância, a transmitância, ou imagens fluorescentes do material agrícola
em estudo sob iluminação, na faixa de espectro que vai desde o ultravioleta passando
pelo visível até o infravermelho próximo. O sistema é, geralmente, composto por um
sensor ótico, ou até três sensores, como no trabalho realizado por Xiao-bo et al.
(2010), que inspecionaram a qualidade de maçãs, em um computador do tipo pessoal
equipado com placa de aquisição de imagem e por um sistema de iluminação.
Também deve ser incluso um ‘software’ para transmissão eletrônica dos sinais para o
computador, para aquisição, armazenamento e processamento das imagens (CHEN,
2002).
Para que produza resultados práticos, a análise de imagens digitais reconhece
a cena e gera características dimensionais ou padrões de cores e texturas dos objetos
contidos na imagem. Nesse caso, a unidade de medida é constituída de elementos
formadores da imagem denominados ‘pixels’, ou pel do inglês ‘pictures elements’
(TEIXEIRA et al., 2006, GONZALES e WOODS, 2003). Cada pixel pode ser
representado por um determinado número de bits. Por exemplo, um pixel com 4 bits
pode ter 16 cores, enquanto que um pixel com 24 bits pode ter 16,7 milhões de
cores.
Para a captura de imagens, o sensor ótico recebe radiação eletromagnética
refletida da superfície do objeto e a converte em sinais elétricos usando um
dispositivo de carga acoplada (Charge Couple Device - CCD). Os CCDs são
materiais sólidos, fabricados em silício e disponíveis em um conjunto de área
(CHENG et al., 2004).
A matriz de área é capaz de capturar uma imagem bidimensional em uma
única exposição. A sensibilidade à luz dos dispositivos de CCD faz com que
convertam uma imagem ótica em matriz de sinais elétricos e esses sinais elétricos são
proporcionais à intensidade da luz recebida (CHENG et al., 2004).Os dispositivos de
carga acoplada podem estar fixados em câmeras fotográficas digitais, câmera de
24
vídeo, ‘webcam’ e escâner de mesa. Para a pesquisa agrícola, ambos os dispositivos
de vídeo podem ser utilizados.
2.5 Câmara Fotográfica Digital
Story et al. (2010) fizeram uso de câmera fotográfica acoplada em um sistema
robótico de posicionamento nos eixos XY, sobre canteiros cultivados com alface
(Lactuca sativa L.) e obtiveram cinco imagens sequenciais, com objetivo de
identificar a deficiência de cálcio nas plantas.
Doucournau et al. (2004) utilizaram câmara fotográfica para avaliar a emissão
de radícula em sementes de girassol, em ambiente com luz e temperatura controladas
com o uso do processamento de imagem digital. Os pesquisadores desenvolveram
um algoritmo que consistiu de duas etapas de processamento não supervisionadas, o
primeiro passo foi a transformação das imagens coloridas para binárias utilizando o
método de Otsu e, o passo seguinte foi realizar a contagem das sementes germinadas.
Para os autores, o sistema teve a vantagem de ser mais rápido que os processados
manualmente.
Solis-Sánches et al. (2011) desenvolveram um sistema para o controle
integrado de pragas em ambiente protegido. Para programar o sistema foi necessária
a detecção e a identificação dos insetos. Tradicionalmente esse trabalho é efetuado
colocando-se armadilhas, e posteriormente, efetuada a contagem e identificação. Para
os autores foi possível o uso de técnicas de visão de máquina para a identificação das
espécies de insetos, besouro (Diabrotica speciosa), (Lacewings spp.), pulgões (Aphis
gossypii Genn.), tripés (Thrips tabaci L.) e mosca branca (Bemisia tabaci) foi
superior à efetuada manualmente R² =0,99.
Para reduzir perdas devido à identificação errada por parte dos funcionários
de caixa de supermercado e distribuidoras de produtos hortigranjeiros, Rocha et al.
(2010) classificaram frutas e verduras em um centro de distribuição e em caixas de
supermercado, utilizando o processamento de imagem digital, combinando
características dos produtos e classificadores, foi possível uma redução do erro de
classificação acima de 15 pontos percentuais.
25
2.6 Escâner de Mesa
A imagem produzida por escâner de mesa foi utilizada para uma melhor
qualidade, mais detalhes dos objetos, como a definição dos contornos e a definição
das cores para, por exemplo, identificar as variedades de grãos de trigo (SHOUCHE
et al., 2001). O uso do escâner também favoreceu os trabalhos de classificação sem
que houvesse a necessidade do controle da luz ambiente, Shahim et al. (2003)
fizeram uso de escâner de mesa para classificar grãos de lentilha (Lens esculenta,
Moench), os autores utilizaram 800g da amostra que foi posta em um saco plástico
transparente e depositados sobre o escâner, ocupando uma área de 220 x 220
milímetros. A área do escâner que não foi ocupada pelos grãos, foi coberta com uma
folha de cor preta, esse cuidado permitiu fazer a análise sem que a luz ambiente
interferisse nos resultados. A colocação de folha escura cobrindo a área
remanescente da superfície do escâner impediu que fossem feitas imagens não
desejadas.
Teixeira et al. (2006), ao estudarem o vigor de plântulas de milho, utilizaram
escâner sem a tampa e sem colocação de folhas escuras em áreas não cobertas pela
amostra, mas para isto, tiveram o cuidado de não deixar a iluminação ambiente
incidindo diretamente sobre o equipamento, durante o processo de digitalização. A
ausência de luz produziu um efeito desejado de imagem de fundo tendo o preto como
cor predominante.
2.7 Câmera de Vídeo
O uso de câmera de vídeo foi útil quando o trabalho exigiu uma resposta
imediata, na análise em tempo real, para aplicação de herbicidas na lavoura. Burgos-
Artizzu et al. (2011) colocaram uma câmera de vídeo sobre teto do
trator/pulverizador e realizaram coleta de dados em locais específicos e conseguiram
discriminar linhas de cultura de milho e plantas invasoras utilizando o processamento
de imagem digital, com iluminação não controlada e em tempo real. Os
pesquisadores desenvolveram um sistema com dois subsistemas independentes, um
com processamento rápido de imagem e obtenção dos resultados em tempo real e o
outro subsistema, mais lento e mais preciso, para a correção do primeiro. Os
resultados obtidos com a combinação dos subsistemas resultaram na detecção de
26
95% de plantas indesejáveis e 80% das lavouras, nas mais diversas condições de
umidade de solo, iluminação e condições de crescimento.
A detecção em tempo real pode ser de grande ajuda na automação e no
barateamento do sistema de amostragem de plantas daninhas, economizando na
aplicação de herbicidas. A câmera de vídeo também foi utilizada por Bennedsen et
al. (2005), que desenvolveram um sistema para identificar defeitos em maçãs, O
método consistiu na rotação das maçãs em frente à câmera de vídeo, enquanto
múltiplas imagens eram adquiridas. O sistema teve 90% de precisão nos
experimentos realizados com duas variedades de maçãs.
Segundo Thorp et al. (2011), a imagem digital captada por câmera de vídeo
posicionada dois metros acima do dossel da cultura de lesquerella (Lesquerella
fendleri (Gray) Wats) proporcionou um meio barato e prático para monitoramento
remoto. O óleo desta brassica está sendo proposto como uma alternativa ao petróleo
em muitos produtos industrializados. Os pesquisadores utilizaram a transformação
das informações para matiz, saturação e intensidade (HSI) e abordagem Monte Carlo
para lidar com as incertezas do espaço de cor nos parâmetros HSI, utilizados para
segmentação de imagem. A contagem de flores foi estimada a partir de uma
porcentagem de cobertura em uma imagem base, calculando o erro médio da raiz
quadrada, o resultado foi superior aos outros estudos com objetivos semelhantes.
Para Kiliç et al. (2007) a opção foi pelo uso de ‘webcam’ e o programa
Matlab® para o processamento das imagens quando classificaram feijão, com base
em dados morfológicos e de cores. Esse trabalho possibilitou automatizar o processo
desde a captura das imagens até o fornecimento de resultado final, fazendo uso de
equipamentos que possuam baixa qualidade de imagem com resultados satisfatórios.
2.8 Equipamentos Acessórios
Aos sensores óticos podem-se adicionar equipamentos auxiliares como o
microscópio, equipamentos de Raios-X e uso câmeras multiespectrais. Costa et al.
(2009) usando uma câmera digital acoplada a um microscópio fizeram a contagem de
grãos de pólen de duas espécies Carduus acanthoides L. e C. nutans L., eles
obtiveram a mesma precisão nos resultados com aqueles avaliados por especialistas
da área, porém conseguiram uma significativa redução do tempo para apresentação
27
dos dados. Quando o olho humano ou os sensores óticos não viram, devido a
limitações de captura dos sinais na faixa do visível, a opção foi fazer uso de imagens
hiperespectrais.
Singh et al. (2010) utilizaram imagens na faixa de 700 – 1.100nm, imagens
coloridas para identificarem danos em grãos de trigo provocados por insetos. Para a
classificação do tipo de dano foram utilizados os classificadores discriminantes
(linear, quadrático, mahalanobis) e redes neurais. Um total de 230 características
(cor, textura e morfologia) foi extraído. O resultado do estudo indicou que o uso de
infravermelho próximo, associado com características de imagens coloridas, teve
potencial para detectar danos causados por insetos em grãos de trigo com alta
acurácia.
Liu et al. (2011) utilizaram imagem hiperespectral com análise de
componentes principais (PCA) para detectarem defeitos em laranjas causados por
inseto, ventos, cicatrizes e fitotoxicidade. A detecção dos defeitos com base em PCA,
relação de bandas e limiarização simples foram capazes de identificar 91,5% das
áreas com defeitos. A desvantagem do algoritmo foi não ser capaz de diferenciar o
tipo de dano apresentado.
Para verificar a contaminação em alimento, Yang et al. (2012) desenvolveram
três algoritmos para detecção de fezes em maçã. O trabalho consistiu em utilizar
iluminação florescente em 4 faixas de ondas, (680, 684, 720 e 780 nanômetros ) para
identificar manchas de contaminação nas maçãs, a partir da excitação de luz
provocada por ‘led’ violeta. O algoritmo indicou que a imagem multiespectral
fluorescente foi capaz de identificar mais de 99% dos pontos fecais. Os
pesquisadores concluíram que o algoritmo pode ser utilizado no processo industrial
de produção de alimentos, reduzindo a contaminação. E, quando há a necessidade de
enxergar além das estruturas superficiais dos objetos, a imagem de Raios-X pode ser
a indicada.
Mathanker et al. (2011) estudaram a classificação de noz-pecan (Caryail
linoensis K.), utilizando imagem de Raio-X. Chuang et al. (2011), apresentaram um
sistema automático eficiente para detectar pragas em produtos agrícolas sob
quarentena. O trabalho integrou mecânica, mecatrônica, instrumentação, Raios-X,
câmara fotográfica e programa para análise de imagem. Eles também projetaram uma
28
interface gráfica para auxiliar na operação do sistema. Para o processamento de
imagem foram inclusos o realce do contraste, filtragem mediana, operadores
morfológicos matemáticos e limiarização pelo uso da estatística. Os resultados
experimentais indicaram que o uso de escâner de Raios-X foi capaz de identificar até
94% de ovos a partir do quarto dia de implantação. Foram utilizados frutos intactos
e frutos com ovos implantados para avaliar a sensibilidade, especificidade, exatidão e
precisão, e os resultados foram superiores a 96% e foram significantemente
superiores aos avaliados por inspeção visual tradicional.
2.9 Processamento das Informações
Após a obtenção das imagens com câmera de vídeo, escâner ou máquina
fotográfica, o passo seguinte é o processamento das informações, Yang et al. (2009)
propuseram quatro passos principais: transformação, aprimoramento, segmentação e
segmentação pós processamento das imagens. Em geral, a maioria dos algoritmos de
segmentação se baseia nas propriedades básicas de descontinuidade e de
similaridade.
Há dois tipos algoritmos para segmentação, um é baseado na descontinuidade
do nível de cinza e o outro na similaridade dos valores nos níveis de cinza. O
primeiro grupo de métodos particiona uma imagem em mudanças abruptas na
transposição dos níveis de cinza. O segundo método utiliza limiarização, crescimento
de região, e a divisão e fusão de regiões. Dependendo da finalidade do estudo, o
pesquisador pode fazer uso de cores, textura ou dados da morfologia do objeto.
Camargo e Smith (2009) desenvolveram algoritmo para detecção automática de
doenças em folhas de diversas espécies, entre elas as de milho (Zea mays L.), soja
(Glycine Max L.), algodão (Gossypium hirsutum L.) e bananeira (Musa spp.), por
meio de segmentação de imagens a partir de imagens coloridas. As imagens em cores
foram transformadas para dar ênfase na região onde os sintomas da doença estão
localizados. A imagem foi então segmentada utilizando a distribuição da intensidade
do histograma. Em vez de usar a abordagem tradicional de corte pelo ponto mínimo,
foi realizada a localização de um conjunto máximo de locais e o valor limite de corte
foi determinado de acordo com sua posição no histograma. Para os autores a técnica
foi útil quando o alvo, no conjunto de dados da imagem, tem uma grande distribuição
29
de intensidades. O algoritmo foi capaz de identificar uma região doente, mesmo
quando essa região apresentou uma ampla gama de intensidades. Após a
segmentação das imagens faz-se a contagem dos objetos formados por um conjunto
de pixels de valor igual a zero, presentes em uma área contínua.
2.10 Classificação de Grãos
Segundo Granitto et al. (2002), a implantação de métodos confiáveis e
rápidos para identificação e classificação de grãos é de grande importância para a
agricultura industrial. Na pesquisa conduzida, os autores concluíram que a
classificação de grãos pode ser baseada no tamanho, na forma, na cor e na textura.
Foram identificadas 57 espécies de culturas agrícolas e as características de tamanho
e da forma dos grãos ofereceram detalhamento superior aos de cor e textura para a
classificação. No entanto, todas as características são requeridas para alcançar um
desempenho aceitável nas aplicações práticas.
Paliwal et al. (2003) identificaram 5 espécies, aveia (Avena sativa,L.), centeio
(Secale cereale,L.), trigo (Triticuma estivum, L.), canola (Brassica napus L. var.
Oleifera Moench) e cevada (Hordeum vulgare, L.) e cinco categorias de trigo
armazenado (trigo quebrado, farelo, trigo mourisco, trigo com casca e espigas de
trigo). Um total de 230 recursos foi extraído, sendo 51 de cores, 123 morfológicos e
56 texturais. Os autores utilizaram imagem hiperespectral, a média e a variância das
cores RGB foram transformadas para matiz, saturação e brilho e agrupadas em 16
bandas e o histograma foi avaliado. Para classificação utilizou-se a rede neural com
quatro camadas, analisando 1500 grãos de cada tipo, e esse conjunto de grãos foi
dividido em amostras com trezentos indivíduos para o treinamento da rede. Para o
trigo, onde os núcleos e partículas estavam bem definidos, a identificação foi quase
perfeita, enquanto que partículas com superfícies irregulares como as espiguetas e
palha de trigo tiveram acerto de 90%. Para os autores, as características de forma, cor
e textura devem ser avaliadas conjuntamente para obter um melhor acerto na
classificação dos produtos, embora características morfológicas possam identificar
corretamente, quase 100% das sementes de canola e grãos de trigo quebrados e trigo
mourisco.
30
Para classificação de cinco variedades de sementes de lentilha, Shahin e
Symons. (2003) utilizaram cor e forma, e os recursos de dilatação e erosão dos pixels
da borda dos objetos presentes na cena. Com isso conseguiram identificar
corretamente mais de 98% das cinco variedades de sementes. Liu et al. (2005)
classificaram cinco variedades de arroz, utilizando quatorze características
morfológicas e sete características de cores. Os pesquisadores utilizaram 2040
imagens para treinamento da rede neural, para classificação. Para quatro variedades o
acerto foi superior a 80% e uma variedade o acerto foi 74%. Para classificar e avaliar
a qualidade de grãos de feijão, Kiliç et al. (2007) utilizaram um sistema de visão
computacional com base no tamanho e cor das amostras. Um sistema de ‘software’
foi codificado no Matlab® para segmentação, operações morfológicas e
quantificação das cores das amostras. Os autores desenvolveram uma interface
gráfica amigável para execução do programa, essa interface permitiu visualizar os
dados em uma janela com a execução de comandos via ‘mouse’ do computador. Para
medidas morfológicas, os autores fizeram uso de um paquímetro e compararam os
resultados aos obtidos pelo processamento de imagem digital e obtiveram uma
correlação de Pearson (r) superior a 0,97. Para Paliwal et al. (2003), foi possível
avaliar não apenas grãos inteiros mas também frações dos produtos com alta
acurácia, usando sistema de visão de máquina.
O uso do processamento de imagem digital pode ser uma boa alternativa à
classificação manual (Gonzalez e Woods, 2003), mas para Lopez - Granados (2011)
para a aplicação das novas tecnologias é necessário o investimento em capacitação
técnica, desenvolvimento e padronização de normas e aumento nas pesquisas e a
formação de grupos de pesquisas multidisciplinares.
31
3 MATERIAL E MÉTODOS
3.1 Equipamentos Utilizados
Neste experimento foram utilizados caixa analítica, paquímetro digital,
câmera de vídeo, computador e software Matlab®.
3.1.1 Descrição da Caixa Analítica
Foi confeccionada uma caixa analítica metálica com dimensões de 25 x 25 x
15 cm, para receber a amostra de grãos. A caixa foi equipada com iluminação
artificial de três lâmpadas eletrônicas com 15 Watts de potência, 6500K Fria, 127V,
ligadas em corrente alternada, com uma tampa de vidro transparente, posicionada
acima das lâmpadas para servir de apoio aos grãos a serem imageadas. Sob o vidro
foi fixada uma folha de papel sulfite, gramatura 75g/m2, de cor branca, para difusão
de luz e impedir que a câmera capture imagens de equipamentos no interior da caixa
(Figura 1). Em uma das extremidades da caixa foi fixado o suporte para câmera de
vídeo. A base para câmara foi construída com dispositivo regulável, para ajustar a
altura.
32
FIGURA 1. Caixa analítica com visualização do seu interior (esquerda) e foto do
equipamento (direita), utilizada para a obtenção de imagem dos grãos.
3.1.2 Medição dos Grãos
Não foram utilizados grãos de arroz nesta etapa por opção do pesquisador,
devido às pequenas dimensões da espécie.
Para medição do diâmetro maior dos grãos de soja, milho, feijão, girassol e
algodão (não foi utilizado a espécie de arroz), um paquímetro digital profissional
(Figura 2) com visor LCD e precisão de 0,01mm foi utilizado para comparar as
medições executadas manualmente e por processamento de imagem digital.
Medições do diâmetro maior dos grãos foram efetuadas para calibração do
programa de classificação de grãos.
FIGURA 2. Paquímetro digital utilizado para efetuar
medidas dos grãos, manualmente.
33
3.1.3 Câmera de Vídeo
Para a aquisição de imagem foi utilizado um dispositivo de vídeo do tipo
‘webcam’ com conexão USB, modelo YUY2 com resolução de 640 x 480 pixels,
com 307.200 Bytes e com sistema RGB de cores.
3.1.4 Computador
O processamento das imagens foi executado em computador tipo PC com
processador Intel (R) (TM) i5 core CPU 650 @ 3.2 Ghz, 1,92 GB de RAM. Monitor
LCD de 15 polegadas.
3.2 Posicionamento dos Equipamentos
Fatores como posicionamento do equipamento interferem diretamente na
escala da imagem (resolução espacial), da mesma forma que o nível de contraste da
cena que pode ser afetado pela intensidade de luz, ou presença de sombreamento no
momento do registro. Por exemplo, uma iluminação acentuada do ambiente pode
interferir na qualidade da imagem obtida por equipamentos de vídeo, ou fotográficos.
Isso se deve, sobretudo, à saturação (brilho excessivo dos pixels). Para a câmera de
vídeo, a altura dada em relação à superfície (objeto) deve ser a mesma durante as
filmagens em um experimento.
3.3 Laboratório
O laboratório Sergeo (Sensoriamento Remoto e Geoinformações) onde foram
realizados os experimentos, conta com bancadas para equipamentos e para apoio de
materiais de pesquisas. Computadores pessoais do tipo PC. Iluminação fluorescente
do tipo luz do dia. O laboratório conta, ainda, com sistema de recepção de imagens
de satélite do sistema EUMETcast.
3.4 Características do experimento
O experimento foi todo realizado no Laboratório SERGEO da UFMT. As
etapas que mais demandaram estudos foram a elaboração do algoritmo para captura e
34
processamento das imagens e a construção do equipamento para iluminação e
posicionamento das amostras de grãos. A decisão de construir um equipamento para
o posicionamento das lâmpadas e da ‘webcam’ e a colocação da amostra, foi tomada
após experimentos preliminares apontarem problemas, produzidos pela iluminação
ambiente, tais como a produção de sombras sob os grãos, e as diferenças de
tonalidades apresentada pelos alvos.
Para o processamento das imagens foi feita a opção pelo uso do programa
Matlab® versão educacional, devido ao vasto material disponibilizado para a
pesquisa, porém outros programas poderiam ser utilizados, como Scilab e SPRING,
por exemplo.
O algoritmo desenvolvido possibilita que, ao acionamento de um botão, o
programa realiza a captura das imagens, as transformações de cores, correção
geométrica, filtragem da imagem, cálculo das medidas morfológicas e a classificação
dos grãos.
3.5 Transformações geométricas
Após a captura das imagens foi realizada a transformação geométrica. Nesta
fase foi realizada a alteração da posição espacial dos pixels da imagem de entrada.
Para este fim foi gerado um quadro xadrez (gabarito) no programa de processamento
de imagem, contendo 64 quadrículos pretos e brancos. Esse quadro foi armazenado
na memória do computador e feita a impressão em papel sulfite. Desse quadro xadrez
foi obtida uma imagem digital e realizado o registro das duas imagens, adicionando-
se pontos de controle sobre ambas. Foi utilizada a transformação afim (affine) dada
pelas equações 01 e 02 para a transformação geométrica.
1
'
'
jYiX
cbYaXX
01
1
'
jYiX
feYdXY
02
Em que X e Y são as coordenadas antigas e X’ e Y’ as novas. Os coeficientes
a, b, c, d, e, f, i, e j são determinados a partir de um conjunto de pontos de controle
35
que correspondem à congruência desejada entre as duas imagens ou entre a imagem
original e gabarito selecionado.
3.6 Metodologia de Trabalho
O trabalho foi conduzido no laboratório de Sensoriamento Remoto e
Geoinformação da UFMT, no período de fevereiro/2010 a junho/2011. Foram
utilizados os ‘softwares’ Windows
XP, Matlab® 2011b versão educacional, com
módulo para processamento de imagem digital ‘ImageProcessing Toolbox’.
3.6.1 Aquisição e Segmentação da Imagem
As aquisições das imagens foram feitas no formato RGB e sua posterior
transformação para níveis de cinza. Com a imagem em níveis de cinza, foi realizada
a binarização (Figura 3), para esta tarefa foi utilizado o método de Otsu. Neste
trabalho não foi utilizada a característica ‘cor’ devido ao aparato construído, em que
as lâmpadas posicionadas sob os grãos interferem na identificação correta das cores,
dando destaque à forma dos objetos, interesse maior da pesquisa. A imagem obtida
não possui clareza na definição de cores, outro fator de não utilizar cores foi o fato de
se estar usando câmera de vídeo do tipo webcam de baixa qualidade, o que interfere
na qualidade das imagens.
RGB
Cinza
Binário
FIGURA 3. Transformação de Imagens.
36
3.6.2 Calibração da Câmera de Vídeo
Para a calibração da ‘webcam’ foi gerado um quadro xadrez com quadrados
internos de dimensões 28 x 28 mm (Figura 4), utilizando-se o comando
‘checkerboard’ do programa Matlab®. Este quadro foi impresso a laser em folha de
papel tamanho A4, gramatura 75g/m2e afixado em uma base plana, feita em material
acrílico rígido.
FIGURA 4. Quadro xadrez utilizado para calibração da câmera
de vídeo.
3.6.3 Imageamento e Ajustes
A partir do quadro xadrez impresso, foram obtidas 16 imagens (Figura 5),
para cada uma, utilizou-se um grau de inclinação diferente em relação à câmera de
vídeo. Essa inclinação com ângulos aleatórios do quadro xadrez serviu para estimar
os valores dos parâmetros externos, na calibração da câmera.
37
FIGURA 5. Mosaico com as 16 imagens utilizadas na calibração da câmera.
3.6.4 Calibração da Câmara de Vídeo
Para a calibração da câmera de vídeo, foi utilizado o
‘software’‘CameraCalibration Toolbox for Matlab® ’. As 16 imagens captadas pela
câmera passaram por procedimentos de ajustes. Na calibração, foram indicados os
quatro cantos da figura xadrez que se pretendia utilizar, delimitando a área de
interesse (Figura 6). Esse procedimento iniciou com a indicação das coordenadas
(x,y) dos quatro pontos de referência. O ponto de partida foi na extremidade inferior
direita, do primeiro quadrado preto, do canto superior esquerdo do quadro xadrez. O
próximo ponto a ser assinalado foi o do canto superior direito sendo os demais
marcados em sentido horário. Assinalados os quatro cantos, o programa para
calibração apontou automaticamente todos os cruzamentos internos, permitindo um
novo ajuste, caso necessário (Figura 7). Com o ajuste sendo feito para cada uma das
16 imagens, os dados armazenados foram então processados pelo software de
calibração e feitas as alterações necessárias para a câmera de vídeo utilizada.
38
FIGURA 6. Delimitação da área para ajuste dos parâmetros externos da câmera
(esquerda), e pontos ajustáveis (direita).
FIGURA 7. Tipo de distorção de lente (esquerda). Correção efetuada (direita).
3.7 Captura e Processamento das Imagens
Uma rotina computacional (Apêndice) foi desenvolvida no programa Matlab®
para capturar e processar as imagens e obter as medidas morfológicas de grãos. Os
pixels foram convertidos para o sistema métrico por um valor de conversão (em
milímetros). O algoritmo para classificação de espécies foi desenvolvido com a
seguinte ordem: identificação do equipamento de captura de imagem, processamento
das informações referentes à calibração da câmera de vídeo, captura de imagem no
formato RGB, registro da imagem com 19 pontos de controle para transformação
espacial, transformação das imagens para níveis de cinza e ajuste no contraste e após
para imagem binária, preenchimento com valor binário igual a zero do espaço
39
ocupado pelos grãos, criação de rótulos para cada objeto binário, eliminação de
ruídos, medição das características físicas dos grãos, agrupamento do conjunto de
grãos que possuíam os mesmos valores para uma determinada característica.
FIGURA 8. Sistema de visão de máquina e principais etapas na elaboração do
programa de classificação.
3.8 Segmentação
A segmentação é uma etapa importante em praticamente todos os sistemas de
reconhecimento e processamento de imagem. Após a obtenção da imagem, foi
efetuado o recorte da região de interesse nas coordenadas espaciais (x, y) da imagem.
Com o uso da transformação do tipo ‘affine’ foi efetuada correção espacial da
imagem. Para transformar uma imagem de intensidade cinza para binária foi
utilizado o método de Otsu (Otsu, 1979), um método de limiarização global, para
escolher o melhor limiar. O método baseia-se no histograma normalizado da
imagem, como uma função de densidade de probabilidade discreta (Eq. 03). Para
retirar os ruídos da imagem (pequenos objetos de áreas inferiores a 20 pixels) foi
utilizada da função ‘bwareaopen’, que remove, a partir de uma imagem binária, todos
40
os componentes conectados (objetos) que têm menos pixel que um valor escolhido
pelo usuário, produzindo outra imagem binária. A conectividade padrão é 8 para
duas dimensões e 26 para três dimensões.(Matlab toolboxes), e para preencher os
espaços ocupados pelos grãos foi utilizada a função ‘imfill’,esta função preenche
buracos na imagem binária de entrada. Um buraco é um conjunto de pixels de fundo
que não podem ser alcançados através do preenchimento do fundo a partir da borda
da imagem.
1,...,2,1,0,)( Lqn
nrp
q
qr
(3)
em que n é o número total de pixels na imagem, qn é o número de pixels com
intensidade qr e L é o número total de possíveis níveis de intensidade na imagem (0-
255). O valor do limiar é obtido, supondo-se que os pixels da imagem podem ser
classificado em duas classes ]1,...,1,[]1,...,1,0[ 1 LkkCekCo que
maximiza a variância inter classes2
B , que é definido como:
)²()²( 1100
2
TTB (4)
em que;
1
0
0 )(k
k
qq rp (5)
1
1 )(L
kq
qq rp (6)
1
0
00 /)(k
q
qq rqp (7)
1
11 /)(L
kq
qq rqp (8)
1
0
)(L
q
qqT rqp
(9)
41
3.9 Operações Morfológicas
As operações morfológicas foram realizadas usando a segmentação de
imagem binária. Os pixels correspondentes ao espaço ocupado pelos grãos foram
detectados a partir de uma matriz segmentada e então rotulados utilizando a função
‘bwlabel’, ela basicamente encontra os componentes conectados de uma imagem
binária. Um componente é conexo se dois pixels p e q estão conectados e seus níveis
de cinza obedecem a algum critério de similaridade (GONZALEZ e WOODS,
2003). As duas formas de definir conectividade entre pixels são: vizinho de 4 e
vizinho de 8. Na conectividade de 4, considera-se os quatro vizinhos horizontais e
verticais do pixel. Na conectividade de 8, além dos quatro vizinhos horizontais e
verticais, também são considerados os quatro vizinhos diagonais do pixel. As
medidas de área, diâmetro maior e menor, perímetro e excentricidade foram
calculadas, Eq. 10, 11 e 12.
A = Diâmetro Maior escalar especificando o comprimento (em pixels), do
eixo maior da elipse que tem as mesmas normalizadas segundo momentos centrais
como a região.
B = Diâmetro menor o comprimento (em pixels) do eixo menor da elipse que
tem as mesmas normalizadas segundo momentos centrais como a região.
A
BA
*2
22
10
A= 4/** BA 11
P= 2
*22 BA
12
Em que:
e = excentricidade
42
A = área
P = perímetro
3.10 Amostras de Grãos
Amostras com 50 grãos e oito repetições foram dispostas sobre a caixa
analítica, sem conectividade entre uma semente e outra, permitindo assim uma
identificação unitária. A adoção de iluminação na porção inferior da amostra
facilitou a captura da projeção da imagem dos grãos. Os grãos utilizados neste
experimento foram das espécies: milho (Zea mays L.), soja (Glycine Max L.), arroz
(Oryza sativa L.), algodão (Gossypium hirsutum L.), girassol (Helianthus annus),
feijão carioca (Phaseolus vulgaris L.).
3.11 Aferição do Sistema
Para verificar a precisão das medidas individuais de vinte grãos de cinco
espécies (soja, milho, feijão, algodão e girassol) (para este item não foram utilizados
grãos de arroz), por processamento de imagem digital, os resultados obtidos foram
comparados com os de um paquímetro digital na característica diâmetro maior.
3.12 Amostragem e Extração das Características Morfológicas para Calibração
do Programa.
Inicialmente, as amostras foram dispostas em camada simples, com vinte grãos
por espécie, separados manualmente para obtenção das características morfológicas
de interesse em cada espécie e estabelecer valores limites de máximos e mínimos
para cara característica. Posteriormente foi criado um algoritmo para fazer a
separação das espécies com base nos valores obtidos. O algoritmo agrupou os grãos
que apresentaram valores presentes dentro do intervalo estabelecido de máximos e
mínimos, para uma ou mais características morfológicas. Em um segundo momento,
foi feita a análise das seis espécies com grãos heterogêneas. Cinco grãos de cada
espécie foram dispostos aleatoriamente perfazendo um total de 30 unidades. Esse
procedimento serviu para verificar a operacionalidade do programa na separação
automática das cinco espécies.
43
3.13 Estatística Descritiva
A estatística descritiva (média, desvio padrão, variância), referente aos dados
morfológicos das seis espécies foi utilizada para verificação da acurácia do programa
de classificação. Esses valores foram utilizados para a programação do classificador
de grãos.
A estatística Kappa foi utilizada para comparar o resultado apontado pelo
classificador digital de grãos e os observados por especialistas da área, na
identificação individual e em amostras heterogêneas das seis espécies, classificadas
pelo programa. Kappa é uma técnica de análise multivariada discreta usada para
avaliação de acurácia. A análise Kappa produz uma estatística K̂ , que é uma
estimativa de Kappa, isto é, a medida de concordância ou acurácia entre o
processamento de imagem digital e os dados observados por avaliadores.
Segundo Hudson e Ramm (1987), o coeficiente kappa pode ser estimado a
partir dos totais marginais da matriz de erros, pela equação 13.
O valor de K̂ é computado como:
Em que:
N = Total de observações
c = número total de classes
xii = valor na linha i e coluna i da matriz de erro
xi+ = total na linha i
x+i = total na coluna i
3.14 Validação
Para verificar a precisão do equipamento foram elaboradas matrizes de erros e
calculados os valores. Três pesquisadores da área agronômica do laboratório de
c
i
i
c
i
c
i
iii
xxN
xxxN
K
1
1
2
1 1
1
)(
)(
ˆ
13
44
Sensoriamento Remoto e Geoinformação (SERGEO) fizeram identificação visual
dos grãos, e realizaram o teste do programa de classificação, analisando
aleatoriamente grãos individuais das espécies. Cada pesquisador obteve cem imagens
de grãos e a partir da análise visual, comparou-as ao resultado obtido por
processamento de imagem digital, assinalando as alternativas certas ou erradas.
3.15 Guia de Interface do Usuário (GUI)
Com o auxílio de ferramentas para elaboração de guias de interface do
usuário (Figura 9) foi criada uma interface gráfica, para auxiliar no uso do programa
de análise. O ambiente gráfico dispensa o uso de linhas de comando e passa a utilizar
o ‘mouse’ do computador para selecionar o item desejado.
FIGURA 9. Ferramenta utilizada para criação de Interface Gráfica.
3.16 Programa Executável
Um programa executável foi desenvolvido para o classificador de grãos,
utilizando o recurso ‘compiler’ do Matlab® com o objetivo de disponibilizar o
‘software’ de classificação para ser instalado em computadores com sistema
operacional DOS
ou Windows
(Apêndice).
45
4 RESULTADOS E DISCUSSÃO
4.1 Radiação
Uma das etapas mais exigiu esforços neste trabalho de classificação de grãos
foi contornar os efeitos indesejados provocados pela iluminação ambiente. A
radiação eletromagnética produzida pelas lâmpadas fluorescente, presentes no
ambiente de trabalho e que são detectadas pelo sensor fotográfico, sofre os efeitos
das interações com o alvo. Dependendo da característica deste, a energia recebida
poderá ser refletida em maior ou menor intensidade, dependendo da tonalidade de
cada grão. A diferença de tonalidade dificulta a elaboração do algoritmo, nas
transformações de imagens para o formato binário, preto e branco (Figura 10,
superior).
Para Araújo et al., (2011) que fizeram a classificação de feijões, preto,
mulato e carioca, utilizando a matriz de confusão, obtiveram um acerto de 92,5% no
geral do experimento. Considerando os valores falsos positivos a precisão diminuiu
para 76,8%. Para os autores, os falsos positivos são causados, na maioria dos casos,
pelas sombras dos grãos em decorrência da iluminação ambiente e pelas diferenças
de tonalidades nos grãos de feijão na subclasse carioca. Ainda segundo os mesmos
autores, a ocorrência de falsos negativos também está relacionada às condições da
iluminação do ambiente. A incidência de luz direta sobre as amostras no momento de
aquisição das imagens provoca diferenças de intensidades em um mesmo grão,
fazendo com que ele seja interpretado pelo algoritmo como um grão mais claro, ou
mesmo como dois ou mais grãos. Para os autores o desempenho do algoritmo pode
ser melhorado a partir de um maior controle das condições de iluminação do
ambiente. Para reduzir os efeitos provocados pela luz ambiente, Igathinathane et al.
(2008), Shahim et al. (2003), colocaram um fundo escuro sobre as amostras durante
46
obtenção das imagens em escâner de mesa. Teixeira et al. (2006) optaram por deixar
o ambiente com a luz apagada. Esses procedimentos auxiliaram na obtenção de um
contraste melhor da imagem o que facilitou o processamento.
Neste experimento de classificação de grãos, o problema da interferência da
luz ambiente foi contornado, mudando-se a disposição dos equipamentos. O alvo
(grãos) ficou entre a fonte de radiação e o sensor. No sistema convencional é o
sensor quem fica entre a fonte de radiação e o alvo, recebendo a radiação direta. No
modelo criado, a radiação detectada pelo sensor foi a radiação indireta da área
ocupada pelos grãos. A imagem mostrou os alvos com os contornos bem definidos,
sem a presença de sombras e a diferença de tonalidades dos grãos não interferindo no
processamento, mesmo com a luz ambiente permanecendo ligada.
FIGURA 10. Efeitos da iluminação. À direita imagem binarizada; superior
com iluminação sobre e inferior iluminação sob os grãos.
47
4.2 Algoritmo para Reconhecimento e Classificação
4.2.1 Reconhecimento
O resultado do reconhecimento das espécies feitas pelo programa de
classificação (TABELA 1), e por avaliadores agronômicos utilizando a matriz de
confusão apontaram um índice K̂ de 97,5%.
4.2.2 Classificação
O algoritmo desenvolvido para a classificação das espécies de culturas
agrícolas anuais, por processamento de imagem digital, utilizou os dados
apresentados nas Tabelas 06 a 11. Foram utilizados os valores máximos e mínimos,
estabelecendo um intervalo para todas as espécies. A partir desses valores o
programa formou conjuntos de objetos com valores semelhantes. Esses conjuntos
foram formados para as quatro características avaliadas individualmente (área,
excentricidade, diâmetro maior e menor) e as quatro características agrupadas. Os
dados obtidos possibilitaram identificar quais os melhores parâmetros poderiam ser
utilizados na diferenciação das espécies. Quando os valores das características
avaliadas nos grãos foram similares, foi necessário incluir mais características para a
classificação.
4.3 Calibração da Câmera
A Figura 11 mostra o impacto do modelo de distorção radial em cada pixel da
imagem. Cada seta apresenta o deslocamento eficaz de um pixel induzido pela
distorção da lente. O centro da imagem é indicado pela cruz e o ponto principal pelo
círculo. O centro da imagem apresentou deslocamento de 24,96 pixels no eixo X e
30,66 pixels no eixo Y (Tabela 2).
48
FIGURA 11. Visualização do modelo de distorção apresentado pela
webcam. Imagem com resolução de 640 X 480 pixels
TABELA 1. Resultado da calibração da ‘webcam’ com as incertezas.
Parâmetros Valor Incertezas (+-) (pixel)
Distância focal na direção x 749,02026 2,399380
Distância focal na direção y 746,55464 2,576200
Ponto principal eixo x 344,96066 4,653680
Ponto principal eixo y 270,66296 5,039010
Coeficiente distorção radial -0,30329 0,020000
Coeficiente distorção radial 1,04018 0,150000
Coeficiente distorção tangencial 0,00044 0,001330
Coeficiente distorção tangencial 0 0
Erro de pixel 0,19188 0,222080
4.4 Validação dos Dados
A validação dos dados foi feita por meio da análise de correlação de Pearson(r),
entre os dados obtidos por um paquímetro digital e os por processamento de imagem
digital para o diâmetro maior (Tabela 2). Para os grãos de milho, girassol, feijão,
soja, e algodão foram obtidos um r = 0,98; 0,98; 0,99; 0,99; 0,97; respectivamente,
49
indicando uma forte correlação entre as medidas efetuadas por imagem e paquímetro.
Não foram efetuadas medidas para os grãos de arroz. Analisando grãos de feijão,
Kiliç et al. (2007) obtiveram correlação de 0,984 para diâmetro maior, comparando
as medidas produzidas pelas imagens e por paquímetro digital. No experimento os
autores também fizeram uso de webcam e o software Matlab® para o processamento
das imagens.
TABELA 2. Medidas do diâmetro maior obtidos com paquímetro e imagem digital
para 20 grãos de milho, feijão, soja, algodão e girassol.
Espécie Média (mm) Mínimo (mm) Máximo (mm)
1 CV%1
P1
I1
P I P I P I P I
Milho 11,1 11,04 10,45 10,3 12,16 12,3 0,45 0,52 4,09 4,73
Feijão 11,6 11,83 9,49 9,7 13,5 13,2 0,91 0,81 7,83 6,86
Soja 6,74 6,78 6,15 6,2 7,31 7,4 0,36 0,37 5,38 5,50
Algodão 8,8 8,75 7,47 9,5 9,61 9,7 0,57 0,59 6,34 6,73
Girassol 12,82 12,75 10,11 9,9 13,98 14,0 0,93 0,97 7,22 7,64
1P - Paquímetro, I - Imagem Digital, CV - Coeficiente de Variação, - Desvio
padrão
Na identificação das espécies a partir de imagens de grãos unitariamente, e
comparando o resultado apresentado pelo programa e os observados por três pesquisadores
da área agronômica, a matriz de confusão apontou uma acurácia geral de 98,0%. O maior
erro de omissão (3,92%) foi para os grãos de feijão. Para erro de comissão as espécies de
feijão e milho apresentaram erro de 2,97%.
Tabela 03. Matriz de confusão utilizada para avaliar o índice de reconhecimento de
grãos, entre os observados por avaliadores e o verificado pelo programa
de classificação.
Milho Feijão Soja Algodão Girassol Total
Milho 98 2 0 1 0 101
Feijão 2 98 0 1 0 101
Soja 0 0 100 0 0 100
Algodão 0 2 0 96 2 100
Girassol 0 0 0 0 100 100
Total 100 102 100 98 102 502
Acurácia total: 492/502 = 98,0%
50
Em que: N= 502
k
i
iix1
= (98+98+100+96+100) =492
k
i
i xx1
1)( = (101 x 100) +(101 x 102) + (100 x100) + (100 x 98) + (100 x 102) =
50.402
Portanto: K̂ = %5,97402.50502
402.50)492(5022
Tabela 04. Matriz de confusão e erro de omissão apresentados
pelo Programa de classificação de grãos.
Espécie Acurácia (%) Erro (%)
Milho 98 2,00
Feijão 96,08 3,92
Soja 100,00 0
Algodão 97,96 2,04
Girassol 98,04 1,96
Tabela 05. Matriz de confusão e erro de comissão apresentados
pelo Programa de classificação de grãos.
Espécie Acurácia (%) Erro (%)
Milho 97,03 2,97
Feijão 97,03 2,97
Soja 100,00 0
Algodão 96 4
Girassol 100 0
TABELA 06. Medidas de grãos de Soja.
Índices
Estatísticos
Excentricidade Área
mm²
Diâmetro
Maior (mm)
Diâmetro
Menor (mm)
Mínimo 0,09 13,73 4,81 4,46
Média 0,36 21,08 5,94 5,51
Máximo 0,59 29,24 7,19 6,39
Desvio padrão 0,08 2,58 0,37 0,36
CV% 24,20 12,24 6,26 6,54
51
TABELA 07. Medidas de grãos de Milho.
Índices
Estatísticos
Excentricidade Área
mm²
Diâmetro
Maior (mm)
Diâmetro
Menor (mm)
Mínimo 0,39 45,01 8,92 7,17
Média 0,65 56,54 10,95 8,16
Máximo 0,78 66,92 12,53 9,21
Desvio padrão 0,07 4,60 0,71 0,36
CV% 11,32 8,14 6,55 4,47
TABELA 08. Medidas de grãos de Arroz.
Índices
Estatísticos
Excentricidade Área
mm²
Diâmetro
Maior (mm)
Diâmetro
Menor (mm)
Mínimo 0,94 7,06 6,6 1,48
Média 0,97 12,87 9,61 2,16
Máximo 0,98 21,45 11,71 3,07
Desvio padrão 0,007 2,27 0,9 0,25
CV% 0,74 17,64 9,42 11,93
TABELA 09. Medidas de grãos de Girassol.
Índices
Estatísticos
Excentricidade Área
mm²
Diâmetro
Maior (mm)
Diâmetro
Menor (mm)
Mínimo 0,86 14,75 8,50 2,78
Média 0,91 44,80 13,52 5,27
Máximo 0,97 60,65 15,91 9,04
Desvio padrão 0,01 7,82 0,94 0,68
CV% 1,93 17,45 6,95 13,04
TABELA 10. Medidas de grãos de Algodão.
Índices
Estatísticos
Excentricidade Área
mm²
Diâmetro
Maior (mm)
Diâmetro
Menor
(mm)
Mínimo 0,76 16,96 4,83 3,70
Média 0,85 25,33 8,72 4,56
Máximo 0,91 32,60 9,98 5,52
Desvio padrão 0,02 2,50 0,57 0,30
CV% 3,10 9,88 6,60 6,63
52
TABELA 11. Medidas de grãos de Feijão.
Índices
Estatísticos
Excentricidade Área
mm²
Diâmetro
Maior (mm)
Diâmetro
Menor (mm)
Mínimo 0,60 33,73 8,92 5,49
Média 0,74 49,39 10,81 7,12
Máximo 0,82 68,38 13,61 8,69
Desvio padrão 0,03 6,74 0,81 0,54
CV% 5,14 13,65 7,49 7,60
Em uma amostra heterogênea, para diferenciar uma espécie da outra, no
processamento de imagem digital utilizando características morfológicas, uma ou
mais propriedades foram utilizadas. Pelos dados apresentados nas Tabelas 12 a 16,
para identificar grãos de soja, a melhor escolha foi utilizar a propriedade diâmetro
maior (Tabela 21), identificando corretamente 95,24% dos grãos. Para a identificação
de grãos de milho a opção diâmetro menor (Tabela 12), teve acerto de 69,69%. Em
grãos de arroz a características, excentricidade (Tabela 14) apresentou um maior
acerto, 99,01%. Para girassol, observou-se 75,47% de conformidade com o uso do
diâmetro maior. O feijão e algodão foram as espécies que tiveram os menores índices
de acerto com 51,55% e 61,35% utilizando apenas uma característica, diâmetro
menor e diâmetro maior, respectivamente. Para melhorar a porcentagem de acerto do
programa de classificação, foram estabelecidas condições na elaboração do
algoritmo: a condição de que fosse cumprido o somatório de duas ou mais
características morfológicas, por exemplo, para os grãos de algodão, o maior erro
ocorreu quando comparado aos grãos de arroz para a característica ‘área’, onde a
identificação correta foi de apenas 4%, mas aumentou para 100% de acerto quando
se utilizou ‘excentricidade’. No caso do algodão não foi possível usar somente a
característica excentricidade, pois ao utilizá-la tivemos um acerto de apenas 39,5%
na separação dos grãos de girassol e 44% dos grãos de feijão (Tabela 18). Desta
maneira, combinando duas ou mais características, as de excentricidade, diâmetro
menor e área a identificação correta foi de 92,59% (Tabela 23). Para o feijão, o uso
de três características morfológicas, propiciou um acerto de 70,67% (Tabela 24).
A classificação das seis espécies de grãos em uma imagem com amostra
heterogênea, utilizando processamento de imagem digital dos dados morfológicos
53
apresentou precisão geral de 86% (Tabela 23). O erro de omissão e comissão para
milho e feijão, influenciou na acurácia do programa. Ao retirarmos da análise a
espécie de feijão o índice K̂ passa a ser de 96,5%. Isso se deve às dimensões dos
grãos de feijão serem semelhantes aos grãos de milho propiciando um erro de
comissão em 42% das leituras realizadas para diâmetro menor, que foi a
característica que melhor distinguiu as duas espécies. Resultado semelhante (97,3%)
foi observado por Granitto et al. (2002), utilizando características morfológicas e o
classificador NaïveBayes para identificação de grãos de 57 espécies. Para Paliwal et
al. (2003) as características de forma, cor e textura devem ser avaliadas
conjuntamente para obter um melhor acerto na classificação dos produtos, embora
características morfológicas possam identificar, corretamente, quase 100% das
sementes de canola e grãos de trigo quebrados e trigo mourisco. Para classificação de
cinco variedades de sementes de lentilha, Shahin e Symons (2003) utilizaram cor e
forma, e os recursos de dilatação e erosão dos pixels da borda dos objetos presentes
na cena. Com isso conseguiram identificar corretamente mais de 98% das cinco
variedades de sementes. Liu et al. (2005) classificaram cinco variedades de arroz,
utilizando quatorze características morfológicas e sete características de cores. Os
pesquisadores utilizaram 2040 imagens para treinamento da rede neural, para
classificação.
Utilizando apenas uma característica morfológica, observou-se que a
excentricidade do grão foi a que melhor diferenciou as espécies, com uma acurácia
total de 60%. Individualmente a espécie de arroz foi a que melhor resultado
apresentou com uma diferenciação de 99,1% com o uso do diâmetro menor e
excentricidade 92,17%, em relação às demais espécies. A espécie soja foi melhor
identificada utilizando-se o diâmetro maior, com acerto de 95,24% dos grãos.
Para diâmetro maior, o melhor índice de acerto foi para a espécie de arroz,
com uma acurácia de 99,01%. O pior resultado foi para a espécie de soja com erro de
comissão de 61,39%.
54
TABELA 12. Matriz de confusão, empregada para verificar a acurácia do programa
de classificação de grãos utilizando diâmetro menor.
Espécies Soja Milho Arroz Feijão Girassol Algodão Total
Soja 200 0 0 28 154 136 518
Milho 0 200 0 84 4 0 288
Arroz 0 0 200 0 2 0 202
Feijão 23 84 0 200 76 0 383
Girassol 145 3 2 76 200 130 556
Algodão 139 0 0 0 143 200 482
Total 507 287 202 388 579 466 2429
Acurácia total = 1200/2.429 = 49,4%
TABELA 13. Erro de omissão a partir de dados da
Tabela 12 para diâmetro maior.
Espécie Acurácia (%) Erro (%)
TABELA 14. Erro de comissão a partir de dados da
Tabela 12 para diâmetro menor.
Soja 39,45 60,55
Milho 69,69 30,31
Arroz 99,01 0,99
Feijão 51,55 48,45
Girassol 34,54 65,46
Algodão 42,92 57,08
Espécie Acurácia (%) Erro (%)
Soja 38,61 61,39
Milho 69,44 30,56
Arroz 99,01 0,99
Feijão 52,22 47,78
Girassol 35,97 64,03
Algodão 41,49 58,51
55
Para área (Tabela 15), a melhor e a pior acurácia foram para as espécies de
arroz e feijão respectivamente.
TABELA 15. Matriz de confusão, empregada para verificar a acurácia do programa
de classificação de grãos utilizando área.
Espécies Soja Milho Arroz Feijão Girassol Algodão Total
Soja 200 0 74 0 0 179 453
Milho 0 200 0 150 63 1 414
Arroz 74 0 200 0 0 8 282
Feijão 0 150 0 200 192 0 542
Girassol 0 63 0 186 200 16 465
Algodão 171 3 8 0 13 200 395
Total 445 416 282 536 468 404 2551
Acurácia total: 1200/2551 =45%
TABELA 16. Erro de omissão a partir de dados da
Tabela 15 para área.
TABELA 17. Erro de comissão a partir de dados da
Tabela 15 para área.
Espécie Acurácia (%) Erro (%)
Soja 44,15 55,85
Milho 48,31 51,69
Arroz 70,92 29,08
Feijão 36,90 63,10
Girassol 43,01 56,99
Algodão 50,63 49,37
Espécie Acurácia (%) Erro (%)
Soja 44,94 55,06
Milho 48,08 51,92
Arroz 70,92 29,08
Feijão 37,31 62,69
Girassol 42,74 57,26
Algodão 49,50 50,50
56
Excentricidade foi a característica que teve um melhor desempenho entre as
quatro características avaliadas, com uma acurácia total de 60% (Tabela 18).
TABELA 18. Matriz de confusão, empregada para verificar a acurácia do programa
de classificação de grãos utilizando excentricidade.
Espécies Soja Milho Arroz Feijão Girassol Algodão Geral
Soja 200 38 0 0 0 0 238
Milho 29 200 0 160 0 10 399
Arroz 0 0 200 0 16 0 216
Feijão 0 165 0 200 0 82 447
Girassol 0 0 17 0 200 84 301
Algodão 0 10 0 88 79 200 377
Total 229 413 217 448 295 376 1978
Acurácia total: 1200/1978 = 60%
TABELA 19. Erro de omissão a partir de dados da
Tabela 18 para excentricidade.
Espécie Acurácia (%) Erro (%)
Soja 87,34 12,66
Milho 48,43 51,57
Arroz 92,17 7,83
Feijão 44,64 55,36
Girassol 67,80 32,20
Algodão 53,19 46,81
TABELA 20. Erro de comissão a partir de dados da
Tabela 18 para excentricidade.
Espécie Acurácia (%) Erro (%)
Soja 84,03 15,97
Milho 50,13 49,87
Arroz 92,59 7,41
Feijão 44,74 55,26
Girassol 66,45 33,55
Algodão 53,05 46,95
57
Para diâmetro maior, a espécie de soja apresentou a maior acurácia, com
acerto de 95,24%. Porém, a acurácia total foi baixa 46,5% (Tabela 21).
TABELA 21. Matriz de confusão, empregada para verificar a acurácia do programa
de classificação de grãos utilizando diâmetro maior.
Espécies Soja Milho Arroz Feijão Girassol Algodão Geral
Soja 200 0 0 0 0 10 210
Milho 0 200 60 185 18 10 473
Arroz 0 60 200 184 22 27 493
Feijão 0 196 184 200 15 69 664
Girassol 0 20 20 20 200 10 270
Algodão 10 10 140 76 10 200 446
TOTAL 210 486 604 665 265 326 2556
Acurácia Total: 1200/2556 = 46,5%
TABELA 22. Erro de omissão a partir de dados da
Tabela 21 para diâmetro maior.
Espécie Acurácia (%) Erro (%)
Soja 95,24 4,76
Milho 41,15 58,85
Arroz 33,11 66,89
Feijão 30,08 69,92
Girassol 75,47 24,53
Algodão 61,35 38,65
TABELA 23. Erro de comissão a partir de dados da
Tabela 21 para diâmetro maior.
.
Espécie Acurácia (%) Erro (%)
Soja 95,24 4,76
Milho 42,28 57,72
Arroz 40,57 59,43
Feijão 30,12 69,88
Girassol 74,07 25,93
Algodão 44,84 55,16
58
Ao fazermos uso de duas ou mais características, a acurácia total do programa
de classificação foi de 86% (Tabela 24). Influenciaram negativamente nos resultados
os erros de omissão e comissão das espécies de milho e feijão (Tabelas 25 e 26).
TABELA 24. Matriz de confusão, empregada para verificar a acurácia do programa
de classificação de grãos, utilizando diversas características.
Espécies Soja Milho Arroz Feijão Girassol Algodão Geral
Soja 200ab
0a 0
b 0
b 0
b 0
b 200
Milho 0a
200abc
0b
83c
0b
16b
299
Arroz 0b
0b
200bd
0b
0d
0b
200
Feijão 0b
79c
0c
200bcd
0b
0d
279
Girassol 0b
0b
0b
0b
200ab
0a
200
Algodão 0b
12b
0b
0d
0a
200abd
212
Total 200 291 200 283 200 216 1390
a diâmetro maior,
b excentricidade,
c diâmetro menor,
d área
Acurácia total: 1200/1390 = 86%
Em que: N= 1200
k
i
iix1
= (200+200+200+200+200+200) =1200
k
i
i xx1
1)( = (200 x 200) + (299 x 299) + (200 x200) + (283 x 279) + (200 x 200) +
(212x216) = 331758
Portanto: K̂ = %4,833317581390
331758)1200(13902
59
TABELA 25. Erro de omissão a partir dos dados da Tabela
24 avaliando diversas características.
Espécie Acurácia (%) Erro (%)
Soja 100 0
Milho 68,73 31,27
Arroz 100,00 0
Feijão 70,67 29,33
Girassol 100,00 0
Algodão 92,59 7,41
TABELA 26. Erro de omissão a partir dos dados da Tabela
24 avaliando diversas características.
Espécie Acurácia (%) Erro (%)
Soja 100,00 0,00
Milho 66,89 33,11
Arroz 100,00 0,00
Feijão 71,68 28,32
Girassol 100,00 0,00
Algodão 94,34 5,66
4.5 Guia de Interface do Usuário (GUI)
Para evitar o uso de linhas de comando ao utilizar o programa classificador de
espécies, foi criada uma interface gráfica ‘tela’ com ícones que permitiram ao
usuário ter um ambiente amigável a sua disposição. A interface aceitou a interação
do usuário com dispositivos digitais por meio de elementos gráficos. A interface
apresentou ícones que podem ser utilizados em ambiente Windows facilitando a
operacionalidade do programa.
60
A seguir, a interface gráfica criada e com alguns exemplos de leituras
possíveis do programa. Uma ‘tela’ com sete botões do tipo ‘pushbutton’(Figura 12)
nos deram a opção de identificar diretamente a espécie desejada (Figura 13) e a
opção de apresentar todas as espécies em uma ‘tela’, (Figura 14), com suas medidas
de área, diâmetro maior e perímetro (Figura 15).
Para auxiliar o usuário, foi criado um tópico de ajuda que possibilita obter
informações mais detalhadas da operacionalidade de programa.
4.6 Fluxograma
4.6.1 Fluxograma do Programa para Realizar Medições.
No fluxograma a seguir, observa-se a sequência dos comados para obter as
medidas morfológicas dos grãos. O processo é automático desde a obtenção das
imagens, até fornecimento dos resultados (Figura 13).
FIGURA 12. Tela da interface gráfica do classificador
Abrir o Programa
Selecionar o botão da Espécie desejada
Obter as Medidas
61
FIGURA 13. Interface gráfica com grão de milho e os valores calculados.
4.6.2 Fluxograma para Classificar as Espécies.
Para a classificação das espécies, procede-se tal como no fluxograma a seguir.
O programa de classificação obterá as imagens e processará os resultados,
fornecendo a classificação dos grãos de cada espécie (Figura 14).
Abrir o Programa
Acionar o botão 'classificação'
Visualizar o resultado
62
FIGURA 14. Interface gráfica com janelas identificando seis espécies.
63
5 CONSIDERAÇÕES FINAIS
O uso de técnica de imagens digitais, obtidas por meio de câmera de vídeo,
mostrou-se bastante útil para a quantificação e avaliação dos diferentes grãos de
culturas anuais.
Desde o registro das imagens até o processamento e classificação, todas as
etapas foram executadas com considerável facilidade. Em relação ao Matlab®, o
programa foi útil nos procedimentos adotados e possibilita que sejam criados
programas executáveis reproduzíveis em qualquer computador com sistema
operacional DOS, Windows ou Linux.
A estatística Kappa possibilitou verificar a precisão do programa,
comparando o resultado do programa com a avaliação feita por classificadores.
Além de área, diâmetro e excentricidade, outras características morfológicas
podem ser acrescentadas, como o índice de circularidade e concavidade.
A utilização de câmera de vídeo do tipo ‘webcam’ permitiu algumas
conclusões: Seu uso foi possível enfatizando a correta calibração do sensor, pois cada
câmera apresenta algum tipo de distorção e a distância até a amostra deve ser
avaliada para cada equipamento, devido à qualidade do produto.
O sistema desenvolvido pode ser uma alternativa ao uso do paquímetro como
equipamento de medição. O cálculo de área é uma tarefa trabalhosa quando feita
manualmente e pode ser feita de forma automática por processamento de imagem
digital.
64
A utilização de valores máximos e mínimos para características morfológicas
foi eficiente na identificação de espécies. O conhecimento desses valores limites foi
fundamental para o ajuste do programa.
O ‘software’ de classificação pode ser operado em qualquer computador que
disponham de ambiente Windows ou DOS.
Neste trabalho, o objetivo foi verificar a possibilidade de automação do
processo de classificação utilizando somente grãos íntegros, portanto em uma rotina
laboratorial, as amostras não possuem apenas grãos inteiros, também grãos
danificados e até mesmo parte de grãos, além de matérias estranhas como partes
vegetativas da planta, insetos e grânulos de terra. Esses componentes apresentam
características próprias, detalhes que precisam ser mensurados e quantificados. Outra
dificuldade apresentada foi quanto à necessidade de dispor manualmente os grãos
sobre a plataforma de análise.
5.1 Sugestões Para Trabalhos Futuros
Desenvolver um equipamento para a separação mecânica, em substituição ao
trabalho manual de colocação dos grãos sobre a plataforma de análise, talvez um
gabarito ou matriz em acrílico transparente ou linhas de ‘nylon’.
Desenvolver um algoritmo que utilize um banco de dados, com características
morfológicas de cada espécie e que, a cada leitura, busque automaticamente
informações para poder classificar o produto.
Associar à classificação morfológica, dados de umidade da amostra, usando
sensores elétricos de leitura.
Verificar o uso de câmeras com melhor qualidade de imagem e utilizar cor e
textura para classificação.
Avaliar o uso de redes neurais ou outras técnicas de inteligência artificial
como método de classificação morfológica de grãos semelhantes.
As empresas produtoras de sementes poderiam utilizar o equipamento para
obter as medias de diâmetro maior e menor. Essas medidas podem melhor identificar
o produto disponível ao comprador.
65
6 CONCLUSÃO
Foi possível identificar grãos de espécies de culturas agrícolas anuais por
meio do processamento de imagem digital de características morfológicas dos grãos.
As características morfológicas de diâmetro maior e menor, excentricidade e
área derivadas de processamento de imagem digital podem ser utilizadas como
alternativa ao paquímetro digital para medição de grãos.
Imagem com resolução de 640 x 480 pixels, obtidas com ‘webcam’, foram
satisfatórias para obter medidas de precisão de área, perímetro, excentricidade e
diâmetro maior e menor.
66
7 REFERÊNCIAS BIBLIOGRÁFICAS
ARAUJO, S. A.; PIRES, A. C.; SANTANA, J. C. C.; Classificação automática de
sementes de feijão usando técnicas de visão computacional. IN: XXXI ENCON-
TRO NACIONAL DE ENGENHARIA DE PRODUCÃO Inovação Tecnológica e
Propriedade Intelectual: Desafios da Engenharia de Produção na Consolidação do
Brasil no Cenário Econômico Mundial, Belo Horizonte, MG, Outubro de 2011.
BAESSO, M. M.; PINTO, F. A., QUEIROZ, D. M.; VIEIRA, L. B.; ALVES, E A.;
Determinação do ‘Status” nutricional de nitrogênio do feijoeiro utilizando imagens
digitais coloridas. Engenharia Agrícola, Jaboticabal, v.27, n.2, p.520-528, 2007.
BARBOSA, I. S.; ANDRADE, L. A.; ALMEIDA, J. A. P.; Evolução da cobertura
vegetal e uso agrícola do solo no município de Lagoa Seca, PB
Revista Brasileira de Engenharia Agrícola e Ambiental, v.13, n.5, p.614–622,
2009.
BENNEDSEN, B.S.; PETERSON, D.L.; TABB, A.; Identifying defects in images of
rotating apples. Computers and Electronics in Agriculture, v. 48, p. 92-102, 2005.
BOTHONA, C.R.A. Critérios para avaliação da morfologia do grão de aveia para o
melhoramento genético da qualidade física. Ciência Rural, v .29, n.4, 1999.
BURGOS-ARTIZZU. X. P.; RIBEIRO, A.; GUIJARRO, M.; PAJARES G. Real-
time image processing for crop/weed discrimination in maize fields, Computers and
Electronics in Agriculture, v. 75, p. 337-346, 2011.
CAMARGO, A.; SMITH, J.S. Image pattern classification for the identification of
disease causing agents in plants. Computers and Electronics in Agriculture, v. 66
p. 121-125, 2009.
‘CAMERA calibration toolbox for Matlab® ’. Disponível em:
<http://www.vision.caltech.edu/bouguetj/calib_doc/htmls/parameters.html>. Acesso
em: 10 de jun. 2010.
67
CHEN, Y.-R. Machine vision technology for agricultural applications Computers
and Electronics in Agriculture, v. 36, p. 173-191, 2002.
CHENG, F.; YING, Y.B. Machine vision inspection of rice seed based on Hough
transform. J. Zhejiang Univ. Science, v. 5, p. 663-667, 2004.
CHUANG, C.-L.; OUYANG, C.-S.; LIN, T.-T.; YANG, M.-M.; YANG, E.-C.;
HUANG, T.-H.; KUEI, C.-F.; LUKE, A.; JIANG, J.-A. Automatic X-ray quarantine
scanner and pest infestation detector for agricultural products. Computers and
Electronics in Agriculture, v. 77, p. 41-59, 2011.
COSTA, C. M.; YANG, S. Counting pollen grains using readily available, free
image processing and analysis software. Annals of Botany, v.104, p. 1005-1010,
2009.
DAL POZ, A. P.; AGOURIS, P.; Um algoritmo de otimização global para a extração
de rodovias em imagens digitais. Revista Brasileira de Cartografia, v.3, p.65-72,
2001.
DUCOURNAU, S.; FEUTRY, A.; PLAICHAULT, P.; REVOLLON, P. An image
acquisition system for automated monitoring of the germination rate of sunflower
seeds. Computers and Electronics in Agriculture, v. 44, p.189-202, 2004.
FAWCET, T., An introduction to ROC analysis. Pattern Recognition Letters, v.
27, p. 861–874, 2006.
FERREIRA, M. E.; ANDRADE, L. R. M.; SANO, E. E.; CARVALHO, A. M.;
JUNQUEIRA, N. T. V.; Uso de imagens digitais na avaliação da cobertura do solo.
Boletim de Pesquisa e Desenvolvimento, Embrapa Cerrados, n. 21, p1-50, 2001
GEBBERS R.; ADAMCHUK, V.I. Precision Agriculture and Food Security, Science
v. 327, p. 828-830, 2010.
GONZALEZ, R. C.; WOODS, R. E. Processamento de Imagens Digitais, 2nd
Edição, ed. Edgard Blücher Ltda, 2003. 653 p.
GRANITTO, P. M.; NAVONE, H. D.; VERDES, P. F.; Weed seeds identification by
machine vision. Computers and Electronics in Agriculture, v. 33 p. 91-103, 2002.
GUEDES; M. A.; MATA, M. E. R. M.; DUARTE, M. E. M.; FARIAS, P. A.;
Caracterização física de grãos de soja utilizando processamento digital de imagens
Revista Brasileira de Produtos Agroindustriais, v.13, n.3, p.277-292, 2011.
HAGUE, T.; MARCHANAT, J.A.; TILLETT, D. A system for plant scale
husbandry. Precision Agriculture, p. 635-642, 1997.
68
HUDSON, W.D.; RAMM, C.W. Correct formulation of the kappa coefficient of
agreement. Photogrammetric Engineering & Remote Sensing, v.53 n.4 p.421-
422, 1987.
IGATHINATHANE, C.; PORDESIMO, L.OCOLUMBUS, ; E.P.; BATCHELOR,
W.D.; METHUKU S.R; Shape identification and particles size distribution
from basic shape parameters using ImageJ. computers and electronics in
agriculture, v.63, p.168-182, 2008.
JENSEN, J. R., Sensoriamento Remoto do Ambiente – uma perspectiva em recursos
terrestres, Parentese Ed.598pp. 2009.
JONES, G.; GÉE, C.; TRUCHETET F. Assessment of an inter-row weed infestation
rate on simulated agronomic images. Computers and Electronics in Agriculture, v.
67, p. 43-50, 2009.
KILIÇ, K.; BOYACI, I. H.; KÖKSEL,H.; ISMAIL KÜSMENOGLU, I. A
classification system for beans using computer vision system and artificial neural
networks. Journal of Food Engineering, v. 78, p. 897-904, 2007.
LANDIS, J. R.; KOCH, G.G.; The measurement of observer agreement for
categorical data. Biometrics. v. 33, n.1, p.189-196, 1977.
LIU, Z.; CHENG, F.; YING, Y.; XIU-QIN. R. Identification of rice seed varieties
using neural network. Journal of Zhejiang University Science, v. 6B, n. 11, p.
1095-1100, 2005.
LOPEZ-GRANADOS, F. Weed detection for site-specific weed management:
mapping and real-time approaches. Weed Research, v. 51, p. 1-11, 2010.
HOLZ, R. K.. Remote Sensing of the Environment, The Surveillant Science 2nd
Edition. 413 pp. 1985.
MANICKAVASAGAN, A.; SATHYA, J.; JAYAS, D.S.G. Comparison of
illuminations to identify wheat classes using monochrome images. Computers and
Electronics in Agriculture, v. 63 p. 237-244, 2008.
MATHANKER , S.K.; WECKLER , P.R.; BOWSER , T.J.; WANG , N.; MANESS
N.O. AdaBoost classifiers for pecan defect classification. Computers and
Electronics in Agriculture, v. 77, p. 60-68, 2011.
MONDO, V. H.; CICERO, S. M.; Análise de imagens na avaliação da qualidade de
sementes de milho localizadas em diferentes posições na espiga. Revista Brasileira
de Sementes, v. 27, nº 1, p.09-18, 2005.
OTSU, N., A threshold selection method from gray-level histograms. IEEE
Transactions on SMC, v.1, p. 62-66, 1979.
69
PALIWAL, J.; VISEN, N.S.; JAYAS, D.S. Cereal Grain and Dockage Identification
using Machine Vision. White Biosystems Engineering, v. 85, p. 51-57, 2003.
ROCHA, A.; C. HAUAGGE, C. D.; WAINER, J.; GOLDENSTEIN, S.; Automatic
fruit and vegetable classification from images. Computers and Electronics in
Agriculture, v. 70, p. 96-104, 2010.
SHAHIN, M.A.; SYMONS, S. J. Lentil type identification using machine vision.
Canadian Biosystems Engineering, v. 45, p. 3.5-3.11, 2003.
SHOUCE, S.P.; RASTOGI, R.; BHAGWAT, S.G.; SAINIS, J. K. Shape analysis of
grains of Indian wheat varieties. Computers and Electronics in Agriculture,v.33 p.
55-76, 2001.
SINGH ,C. B.; JAYASA, S.J.; PALIWAL, J.; WHITE, N. D.G. Identification of
insect-damaged wheat kernels using short-wavenear-infrared hyperspectral and
digital colour imaging. Computers and Electronics in Agriculture, v. 73 p. 118-
125, 2010.
SOLIS-SÁNCHEZ, L.O.; CASTAÑEDA-MIRANDA, R.; GARCÍA-ESCALANTE,
J. J.; TORRES-PACHECO, I.; GUEVARA-GONZÁLEZ, R. G.; CASTAÑEDA-
MIRANDA, C.; ALANIZ-LUMBRERAS, P. D.; Scale invariant feature approach
for insect monitoring. Computers and Electronics in Agriculture, v. 75, p. 92-99,
2011.
STORY, D.; KACIRA, M.; KUBOTA, C.; AKOGLU, A.; AN, L.; Lettuce calcium
deficiency detection with machine vision computed plant features in controlled
environments, Computers and Electronics in Agriculture, v. 74, p. 238-243, 2010.
SYMONS, S.J.; FULCHER, R.G. Determination of wheat kernel morphological
variation by digital image analysis, I Variation in eastern Canadian milling quality
wheats. Journal Cereal Science, v.8, p. 211-218. 1988.
TEIXEIRA, E. F.; CICERO, S. M.; DOURADO NETO, D.; Análise de imagens
digitais de plântulas para avaliação do vigor de grãos de milho. Revista Brasileira
de Grãos, v. 28, n.2, p.159-167, 2006.
TEIXEIRA, E. F.; DOURADO NETO, D.; CÍCERO, S. M.; MARTIN, T. N.;
Análise da uniformidade de sementes de milho via processamento de imagens
digitais. Revista da FZVA, v.14, n.1, p. 14-24. 2007.
THORP K.R.; DIERIG D.A.; Color image segmentation approach to monitor
flowering in lesquerella. Industrial Crops and Products, v.34, p.1150-159, 2011.
TIAN, L.; REID, J.F.; HUMMEL, J.W. Development of a precision sprayer for
site-specific weed management. Trans. ASAE 42, v. 23, n. 4, p. 847-864, 2009.
70
WENZHU, Y.; DAOLIANG, I.; LIANG, Z.; YUGUO, K.; FUTANG. L.A. New
approach for image processing in foreign fiber detection. Computers and
Electronics in Agriculture, v. 68, p. 68-77, 2009.
WERNER, S. S.; COELHO, S. R.; PONCIO, A. P.; FERREIRA, L. Utilização de imagens digitais para avaliação da coloração de banana prata
submetida a diferentes tratamentos pós-colheita. Ciências Agrárias, Londrina, v. 30,
n. 2, p. 381-388, 2009.
XIAO-BO, Z.; JIE-WEN, Z.; YANXIAO, LI.; HOLMES M. In-line detection of
apple defects using three color cameras system. Computers and Electronics in
Agriculture, v. 70 p. 129-134, 2010.
YANG, C.; KIM, S.M.; KANG, S.; CHO, B.; CHAO, K.; LEFCOURT, M. A.;
CHAN, E. D.; Red to far-red multispectral fluorescence image fusion for detection of
fecal contamination on apples. Journal of Food Engineering, v. 108, p. 312-319,
2012.
YANG, W.; Li, D.; ZHU, L.; KANG, Y.; Li, F. A. New approach for image
processing in foreign fiber detection. Computers and Electronics in Agriculture, v.
68, p. 68-77, 2009.
71
8 APÊNDICE
Algoritmo do programa de classificação de grãos
function varargout = SERGEOUFMT(varargin)
gui_Singleton = 1;
gui_State = struct('gui_Name', mfilename, ...
'gui_Singleton', gui_Singleton, ...
'gui_OpeningFcn', @RAGANALYSISGUI_OpeningFcn, ...
'gui_OutputFcn', @RAGANALYSISGUI_OutputFcn, ...
'gui_LayoutFcn', [], ...
'gui_Callback', []);
ifnargin&&ischar(varargin{1})
gui_State.gui_Callback = str2func(varargin{1});
end
ifnargout
[varargout{1:nargout}] = gui_mainfcn(gui_State, varargin{:});
else
gui_mainfcn(gui_State, varargin{:});
end
functionRAGANALYSISGUI_OpeningFcn(hObject, eventdata, handles, varargin)
handles.output = hObject;
guidata(hObject, handles);
functionvarargout = RAGANALYSISGUI_OutputFcn(hObject, eventdata, handles)
varargout{1} = handles.output;
function pushbutton2_Callback(hObject, eventdata, handles)
load('C:\Documents and Settings\SERGEO 3\Meusdocumentos\MATLAB®
\TOOLBOX_calib\Calib_Results.mat')
vid=videoinput('winvideo',1,'YUY2_640x480','ReturnedColorSpace','rgb');
start(vid);
72
Y = getsnapshot(vid);
rgb = imcrop(Y,[113,31,480,454]);
base_points =
[62.0000000000001,541;120.000000000000,480;181.000000000000,420;237.00000000000
0,361;300.000000000000,302;360.000000000000,240;
420.000000000000,181;481.000000000000,122;541.000000000000,61;31.0000000000001,5
9;91.0000000000001,121;151.000000000000,181.000000000000;
212.000000000000,242;270.000000000000,299;
332.000000000000,360;389.000000000000,420;450.000000000000,480;510.000000000000,
540];
input_points =
[514.075615474795,30.0427901524033;465.306565064478,79.5621336459554;
416.537514654162,129.081477139508;367.018171160610,178.600820633060;316.7485345
83822,228.870457209848;266.478898007034,279.140093786635;
216.209261430246,329.409730363423;166.689917936694,378.178780773740;117.9208675
26378,427.698124267292;543.337045720985,429.949003516999;
493.067409144197,380.429660023447;441.297186400938,329.409730363423;392.5281359
90621,279.140093786635;341.508206330598,228.870457209848;
291.238569753810,178.600820633060;241.719226260258,130.582063305979;193.7004689
33177,81.8130128956624;144.931418522861,33.7942555685815];
tform = cp2tform(input_points,base_points,'affine');
udata = [0 1]; vdata = [0 1];
gp = imtransform(rgb,tform,'udata', udata,'vdata', vdata,'size', size(rgb),'fill',200);
delete(vid);
I = rgb2gray(gp);
subplot(3, 3, 1); imagesc(I); colormap(gray(256));
background = imclose(I,strel('disk',30I2 = imsubtract(background,I);
BW = im2bw(I2,graythresh(I2));
BW = bwareaopen(BW, 20);
fill = imfill(BW,'holes');
caption = sprintf('foto de grãos de diversas espécies.');
title(caption);
axissquare;
labeledImage = BWLABEL(fill, 8);
coloredLabels = label2rgb (labeledImage, 'hsv', 'k', 'shuffle');´
blobMeasurements = regionprops(labeledImage, I, 'all');
numberOfBlobs = size(blobMeasurements, 1);
fprintf(1,'Blob # Eccen Area Per Diâm>Diam< ED\n');
for k = 1 : numberOfBlobs
thisBlobsPixels = blobMeasurements(k).PixelIdxList;
blobArea = blobMeasurements(k).Area*0.066;.
blobPerimeter = blobMeasurements(k).Perimeter*0.284.
blobMajorAxisLength = blobMeasurements(k).MajorAxisLength*0.284
blobEccentricity = blobMeasurements(k).Eccentricity;
blobMinorAxisLength = blobMeasurements(k).MinorAxisLength*0.284;
73
blobEquivDiameter = blobMeasurements(k).EquivDiameter*0.284;
fprintf(1,'#%d %18.3f %11.2f %8.2f %8.2f %5.2f % 3.2f \n', k, blobEccentricity , blobArea,
blobPerimeter, blobMajorAxisLength, blobMinorAxisLength,blobEquivDiameter*0.284);
end
L = bwlabel(fill);
s = regionprops(L, 'EquivDiameter', 'BoundingBox');
s(1)
EquivDiameter_values = [s.EquivDiameter]*0.284;
L = bwlabel(fill);
s = regionprops(L, 'Area', 'BoundingBox');
s(1)
area_values = [s.Area]*0.066;
L = bwlabel(fill);
s = regionprops(L, 'Perimeter', 'BoundingBox');
s(1)
perimeter_values = [s.Perimeter]*0.284;
L = bwlabel(fill);
s = regionprops(L, 'MajorAxisLength', 'BoundingBox');
s(1)
Diamaior_values = [s.MajorAxisLength]*0.284;
L = bwlabel(fill);
s = regionprops(L, 'Eccentricity', 'BoundingBox');
s(1)
Eccentricity_values = [s.Eccentricity];
L = bwlabel(fill);
s = regionprops(L, 'MinorAxisLength', 'BoundingBox');
s(1)
Diamenor_values = [s.MinorAxisLength]*0.284;
idx = find((9<= area_values) & (area_values<= 18)&(8<=
Diamaior_values)&(Diamaior_values<=12)&(16<= perimeter_values) &
(perimeter_values<= 25));
bw2 = ismember(L, idx);
subplot(4, 3, [1 4]);colormap (summer); imagesc(bw2); title('ARROZ'); axis off;
idx = find((15<= area_values) & (area_values<= 25)&(4<=
Diamaior_values)&(Diamaior_values<=7)&(.10 <= Eccentricity_values) &
(Eccentricity_values<= .6)...
&(15<= perimeter_values) & (perimeter_values<= 20) );
bw2 = ismember(L, idx);
subplot(4, 3, [2 5]);colormap (summer);imagesc(bw2); title('SOJA'); axis off;
idx = find((.80<= Eccentricity_values) & (Eccentricity_values<= .93)&(35<= area_values)
& (area_values<= 65)&(10.3<= Diamaior_values)&(Diamaior_values<=15)...
74
&(3.5<= Diamenor_values)&(Diamenor_values<=7) &(28<= perimeter_values) &
(perimeter_values<= 36) &(EquivDiameter_values>= 1.6));
bw2 = ismember(L, idx);
subplot(4, 3, [3 6]); colormap (summer);imagesc(bw2); title('GIRASSOL'); axis off;
idx = find((30<= area_values) & (area_values<= 42)&((8<=
Diamaior_values)&(Diamaior_values<=10)&(.68<= Eccentricity_values) &
(Eccentricity_values<= .80)...
& (5.5<= Diamenor_values)&(Diamenor_values<=11)&(22<= perimeter_values) &
(perimeter_values<= 28)));
bw2 = ismember(L, idx);
subplot(4, 3, [7 10]); colormap (summer);imagesc(bw2); title('FEIJAO'); axis off;
idx = find((50<= area_values) & (area_values<= 80)& ((10<=
Diamaior_values)&(Diamaior_values<=15)&(.2<= Eccentricity_values) &
(Eccentricity_values<= .7)...
&(6<= Diamenor_values)&(Diamenor_values<=11.5)&(30<= perimeter_values) &
(perimeter_values<= 40)));
bw2 = ismember(L, idx);
subplot(4, 3, [8 11]); colormap (summer);imagesc(bw2); title('MILHO'); axis off;
idx = find((18<= area_values) & (area_values<= 30)& ((7.5<=
Diamaior_values)&(Diamaior_values<=11)&(.84<= Eccentricity_values) &
(Eccentricity_values<= .89)...
&(18<= perimeter_values) & (perimeter_values<= 27)& (3.5<=
Diamenor_values)&(Diamenor_values<=5.0)));
bw2 = ismember(L, idx);
subplot(4,3,[9 12]); colormap (summer);imagesc(bw2); title('ALGODÃO'); axis off ;
function pushbutton6_Callback(hObject, eventdata, handles)
function pushbutton7_Callback(hObject, eventdata, handles)
function pushbutton8_Callback(hObject, eventdata, handles)
function pushbutton9_Callback(hObject, eventdata, handles)
function pushbutton10_Callback(hObject, eventdata, handles)
function pushbutton13_Callback(hObject, eventdata, handles)
function pushbutton12_Callback(hObject, eventdata, handles)
function pushbutton14_Callback(hObject, eventdata, handles)
function pushbutton15_Callback(hObject, eventdata, handles)
function pushbutton16_Callback(hObject, eventdata, handles)
function pushbutton17_Callback(hObject, eventdata, handles)
function pushbutton18_Callback(hObject, eventdata, handles)