sensoriameno remoto com sensores de aeronaves …
TRANSCRIPT
UNIVERSIDADE FEDERAL DE MATO GROSSO
CAMPUS UNIVERSITÁRIO DE RONDONÓPOLIS
PROGRAMA DE PÓS-GRADUAÇÃO EM GESTÃO E TECNOLOGIA AMBIENTAL
Sensoriameno Remoto com Sensores de Aeronaves Remotamente Pilotadas
para Aplicações de Agricultura de Precisão e Gestão Ambiental
Dhonatan Diego Pessi
Dissertação de Mestrado
Rondonópolis-MT: Setembro / 2019
UNIVERSIDADE FEDERAL DE MATO GROSSO
CAMPUS UNIVERSITÁRIO DE RONDONÓPOLIS
PROGRAMA DE PÓS-GRADUAÇÃO EM GESTÃO E TECNOLOGIA AMBIENTAL
Sensoriameno Remoto com Sensores de Aeronaves Remotamente Pilotadas
para Aplicações de Agricultura de Precisão e Gestão Ambiental
Dhonatan Diego Pessi
Orientador: Normandes Matos da Silva
Dissertação de Mestrado
Rondonópolis-MT: Setembro / 2019
Dados Internacionais de Catalogação na Fonte.
Ficha catalográfica elaborada automaticamente de acordo com os dados fornecidos pelo(a) autor(a).
Permitida a reprodução parcial ou total, desde que citada a fonte.
P475s Pessi, Dhonatan Diego.Sensoriamento Remoto com Sensores de Aeronaves Remotamente Pilotadas para
Aplicações de Agricultura de Precisão e Gestão Ambiental / Dhonatan Diego Pessi. --2019
101 f. : il. color. ; 30 cm.
Orientador: Normandes Matos da Silva.Dissertação (mestrado) – Universidade Federal de Mato Grosso, Instituto de
Ciências Agrárias e Tecnológicas, Programa de Pós-Graduação em Gestão eTecnologia Ambiental, Rondonópolis, 2019.
Inclui bibliografia.
1. Plantas invasoras. 2. Gestão ambiental. 3. Drone. 4. Sensoriamento remoto. I.Título.
v
DEDICATÓRIA
Dedico este trabalho aos que trabalham arduamente na educação, e insistem em vê-la como
prática da liberdade e ato de realização humana. Em especial ao professor Olavo de Carvalho,
o qual trouxe-me de volta à realidade das coisas, à prática do verdadeiro conhecimento, à
consciência dos meus atos e à integridade da minha pessoa.
vi
AGRADECIMENTOS
Este trabalho é o resultado de uma jornada persistente e vitoriosa que contou com a
participação de pessoas que me enriqueceram, tanto em relação ao conteúdo da pesquisa,
como em forma de incentivo para a sua realização.
Agradeço:
Ao Prof. Assoc. Dr. Normandes Matos da Silva, muito mais do que um orientador, que
acreditou em mim e na minha pesquisa, além de me ensinar a arte de pesquisar e de saber
trabalhar em grupo;
Aos professores Dr. Jefferson Vieira José e Dra. Camila L. Mioto, os quais fizeram parte da
minha banca de qualificação;
Aos meus amigos e colegas de pesquisa, Ricardo Nepomuceno, Ademir Júnior Sousa Amaral
e Paulo Henrique, a cada momento ao meu lado dispostos a incentivar e a ouvir minhas
dúvidas e desabafos;
Aos professores: Dr. Luís Otávio Bau Macedo, Dr. Jefferson Vieira José, Dr. Renato Bassini,
Dr. Domingos Sávio Barbosa, Dra. Camila L. Mioto, Dra. Anny K. A. A. Candido, Dr. Hilton
Morbeck de Oliveira, ao professor visitante, Dr. Ricardo Olinda, e aos professores da
Universidad de San Carlos de Guatemala, Dr. Walter Bardales e Dr. Ezequiel Lopes pelas
importantes contribuições que vão muito além deste trabalho;
A todo o corpo docente e técnicos do Programa de Pós-Graduação em Gestão e Tecnologia
Ambiental, pela ajuda quando precisei, seja nas dúvidas que tive, quanto nas oportunidades de
crescimento pessoal;
À Universidade Federal de Rondonópolis pela oportunidade de aprimoramento de meus
conhecimentos;
Ao Conselho Nacional de Desenvolvimento Científico e Tecnológico, pela bolsa de mestrado
concedida que foi fundamental para o desenvolvimento deste trabalho;
vii
EPÍGRAFE
“Conservadorismo significa fidelidade, constância, firmeza. Não é coisa para homens de
geléia.”
Olavo de Carvalho
viii
APOIO FINANCEIRO
O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de
Pessoal de Nível Superior - Brasil (CAPES) - Código de Financiamento 001.
This study was financed in part by the Coordenação de Aperfeiçoamento de Pessoal de
Nível Superior - Brasil (CAPES) - Finance Code 001.
ix
RESUMO
O objetivo dessa pesquisa foi analisar se a mensuração da altura de dossel de espécies
invasoras (CHIS) por meio de imagens obtidas por aeronave remotamente pilotada (drone),
era capaz de classificar com boa assertividade as áreas com presença de plantas invasoras
diferenciando das demais áreas com vegetação remanescente do Cerrado. O texto foi dividido
em dois capítulos, sendo que no capítulo primero destaca um primeiro teste do modelo
CHIS+GPS/GLONASS comparando com outras duas técnicas comumente utilizadas na
classificação de espécies invasoras: a classificação não supervisionada k-means e o índice de
vegetação NGRDI. Foi realizada a produção dos modelos de elevação MDS e MDT a partir
das imagens coletadas em campo com drone e posteriormente processadas no software
PhotoScan. A produção do CHIS+ GPS/GLONASS foi a partir da subtração dos modelos
MDS e MDT. A comparação entre os modelos se deu em duas áreas amostrais escolhidas de
forma não aleatória. Alguns testes estatísticos não paramétricos foram utilizados, tais como:
teste de acurácia, taxa de erro geral, especificidade, sensibilidade, correlação de Spearman e
Cohen’s Kappa. No capítulo segundo, para aferir a precisão do modelo CHIS+
GPS/GLONASS foi gerado o modelo CHIS+RTK como variável observada. A comparação
entre os modelos se deu nas mesmas duas áreas amostrais usadas no capítulo primeiro, pelas
quais se fez comparação visual a partir de gráficos e testes estatísticos. Os testes estatísticos
aplicados foram: coeficientes de correlação de Spearman (SCC), erro quadrático médio da
raiz da altura de dossel (RMSEz), erro absoluto médio da altura de dossel (MAEz) e teste de
Wilcoxon. Os resultados do capítulo primeiro demonstram que o modelo CHIS+
GPS/GLONASS obteve os melhores resultados na identificação de espécies invasoras quando
comparado com os modelos k-means e NGRDI. Os testes de acurácia para o modelo
CHIS+GPS/GLONASS na área amostral 1 e 2 foi de 0.973 e 0.9 respectivamente; k-means
0.209 e 0.6; NGRDI 0.795 e 0.518. Os resultados do capítulo segundo demonstram que o
modelo CHIS+ GPS/GLONASS apresentou falhas na identificação de espécies invasoras
quando comparado ao modelo CHIS+RTK, sendo menos preciso na classificação das alturas
de dossel das espécies invasoras. O teste de correlação de Spearman para a área amostral 1 foi
de 0.56 e 0.55 para a área amostral 2. O RMSEz para a área amostral 1 foi de 0.17 cm e 0.12
cm para o MAEz. Na área amostral 2 o RMSEz foi de 0.24 cm e 0.19 cm para o MAEz. O
teste de Wilcoxon foi significativo para ambas as áreas amostrais. O modelo CHIS
demonstrou ser uma técnica promissora na identificação de espécies invasoras comparado
com outros modelos convencionais, além de que, sua precisão foi considerada boa, uma vez
que a maior diferença de erros na altura foi de 0.24 cm, sendo possível de ser aplicado em
pesquisas que não exijam grande precisão, como exemplo pesquisas que tenham como objeto
de pesquisa vegetação de porte arbóreo, onde as pequenas diferenças de precisão não serão de
grande impacto.
Palavras-chave: plantas invasoras, gestão ambiental, drone, sensoriamento remoto.
x
ABSTRACT
The objective of this research was to analyze whether the measurement of invasive species
height (CHIS) through images captured by remotely piloted aircraft (drone) could classify
with good assertiveness the areas with presence of invasive plants differenting from other
areas with vegetation remnant of cerrado. The text was divided in two chapters, the first
chapter highlights a first test of CHIS+GPS/GLONASS model, comparing to two other
common techniques used in the classification of invasive species: the unsupervised
classification k-means and vegetation index NGRDI. MDS and MDT elevation models were
produced from the drone images collected in field and posteriorly then processed in
PhotoScan software. The CHIS+GPS/GLONASS production was through the subtracting the
MDS and MDT models. The comparison between the models occurred in two sample áreas.
Some nonparametric statistical tests were used, such as: precision test, general error rate,
specificity, sensitivity, Spearman correlation and Cohen's Kappa. In the second chapter, to
measure the precision of CHIS+GPS/GLONASS model, the CHIS+RTK model was
generated as the observed variable. The comparison between the models took place in the two
sampled areas used in the first chapter, by which they were visually compared from graphs
and statistical tests. The statistical tests used were: Spearman correlation coefficients (SCC),
mean square root canopy height error (RMSEz), mean absolute canopy height error (MAEz)
and Wilcoxon test. The results of the first chapter demonstrate that CHIS+GPS/GLONASS
model has the best results in identifying invasive species when compared to the k-means and
NGRDI models. Precision tests for the CHIS+GPS/GLONASS model in sample area 1 and 2
were 0.973 and 0.9, respectively; k-means 0.209 and 0.6; NGRDI 0.795 and 0.518. The
results of the second chapter demonstrate that CHIS+GPS/GLONASS model presents faults
in the identification of invasive species when compared to the CHIS+RTK model, being less
accurate in the classification of invasive species selection heights. Spearman's correlation test
for sample area 1 was 0.56 and 0.55 for sample area 2. RMSEz for sample area 1 was 0.17 cm
and 0.12 cm for MAEz. A sample area 2 or RMSEz was 0.24 cm and 0.19 cm for the MAEz.
The Wilcoxon test was significant for areas such as sample areas. The CHIS model proved to
be a promising technique for identification of invasive species. It was exhibited with other
accessory models, and its accuracy was considered good, since the largest difference in height
errors was 0.24 cm and could be It is used in research that does not require great precision, as
examples of research that has as object research, arboreal vegetation, where small differences
in accuracy are not large.
Keywords: invasive plants, environmental management, drone, remote sensing.
xi
LISTA DE FIGURAS
FIGURA 1 – Um exemplo do modelo Hewitt-Sperry Automatic Airplane em 1918................6
FIGURA 2 – Um Aéreo Liberty Eagle de Charles Kettering não tripulado pousado em um par
de trilhos......................................................................................................................................6
FIGURA 3 – UAV modelo MQM-57 Falconer, conhecido como SD1.....................................7
FIGURA 4 – Um exemplar do MQ-9 Reaper sobrevoando o sul do Afeganistão.....................8
FIGURA 5 – Valor de mercado dos UAV nas principais indústrias em bilhões......................10
FIGURA 6 – UAV multirotor modelo X800 da empresa brasileira XFLY..............................12
FIGURA 7 - RPA multirotor modelo Phantom 4 Pro da empresa DJI. Fonte: (POLAR PRO
FILTERS, em https://www.polarprofilters.com/products/dji-phantom4-pro-filters)...............12
FIGURA 8 – eBee Plus, UAV de asa-fixa................................................................................13
FIGURA 9 – Camera modificada com os filtros NIR, GREEN, RED (NGR), modelo S110 da
Canon........................................................................................................................................15
FIGURA 10 – As cores das linhas correspondem aos canais da câmera padrão RGB
mostrando diferença na captura de comprimento de onda. No comprimento de onda a partir de
750nm (NIR) as bandas da câmera modificada sem o filtro NIR, não há captura, com o filtro
haveria captura da banda NIR que neste caso é a refletância próxima da linha cinza, que
corresponde um dossel de vegetação verde..............................................................................15
FIGURA 11 – Exemplo da atuação de três câmeras nas diferentes comprimentos de onda da
luz. Uma câmera multiespectral atual com todas estas bandas (RGB, NIR, Red-Edge)..........16
FIGURA 12 – Câmera multiespectral Parrot Sequoia com as bandas red, green, red-edge, NIR
e RGB........................................................................................................................................17
FIGURA 13 – Câmera multiespectral RedEdge-MX com as bandas red, green, blue, red-edge,
e NIR.........................................................................................................................................17
FIGURA 14 – Sensor hiperespectral modelo UHD 185 acoplado em um UAV
multirotor..................................................................................................................................18
FIGURA 15 – (A) Exemplo multiespectral, com 5 bandas largas; (B) Exemplo hiperespectral
que consiste em várias bandas estreitas que, geralmente, se estendem a centenas ou milhares
delas..........................................................................................................................................19
FIGURA 16 – Alguns exemplos de câmaras de imagem TIR não refrigeradas (a) ICI 320x, (b)
Thermal-Eye 4500AS, (c) Photon 320......................................................................................19
xii
FIGURA 17 - Contexto e fotos detalhadas do campo de arroz objeto deste estudo: (a)
condições gerais, com arbustos de colza distribuídos sobre a área do campo; (b) espécies
invasoras de capim; (c) zoom sobre a planta de colza; d) planta invasora comum. Fonte:
Stroppiana et al. (2018).............................................................................................................24
FIGURA 18 - Visão geral das três culturas de flores de girassol estudadas em estágio inicial:
(a) S1–16; (b) S1-17; (c) S1–17. Fonte: Castro et al. (2018)....................................................25
FIGURA 19 - Visão geral das duas culturas de algodão estudadas no estágio inicial: (a) C1-
16, (b) C2–16. Fonte: Castro et al. (2018)................................................................................25
FIGURA 20 - Espécies invasoras do gênero gramínea. A) Panicum maximum; B)
Hyparrhenia rufa; C) Urochloa spp. Fonte: figura A (Tropicalforages, em
http://www.tropicalforages.info/key/forages/Media/Html/entities/panicum_maximum.htm);
figura B (Wikipedia, em https://en.wikipedia.org/wiki/Hyparrhenia_rufa); figura C
(Feedipedia, em https://www.feedipedia.org/node/489)...........................................................28
FIGURA 21 – A localização geral da área de estudo, a) sítio experimental com o ortomosaico
de imagens obtidas pelo RPA...................................................................................................33
FIGURA 22 - Multirotor DJI Phantom 4 Pro usado para fotografias no campo de estudo (a).
Central controle remoto (b). Sensor câmera GoPro (c)............................................................34
FIGURA 23 - Plano de voo no programa DroneDeploy com as rotas de passagem da RPA
Phantom 4 Pro e mini mosaico de imagens fotografadas pela RPA.........................................36
FIGURA 24 - Ortomosaico da área de estudo em 3D a partir da nuvem de pontos.................36
FIGURA 25 - Mosaico ortoretificado da área de estudo com três camadas do RGB...............37
FIGURA 26 - Medidas da altura da Urochloa ssp. através de uma régua de medidas e coleta
dos pontos geográficos com um GPS nos locais nos quais foram recolhidas as medidas da
altura do dossel das espécies invasoras.....................................................................................37
FIGURA 27 - Conjunto de dados de referência extraído em campo. Pontos em vermelho se
referem aos locais com presença de Brachiara sp. Os valores informados para cada ponto se
referem à altura em centímetros (cm).......................................................................................38
FIGURA 28 - A metodologia inclui três etapas principais. O primeiro passo na cor azul é a
aquisição dos dados na área experimental. As caixas na cor verde constituem o processamento
particular dos dados. Finalmente, o terceiro passo é a integração dos dados de processamento
para obter o resultado principal da análise................................................................................40
xiii
FIGURA 29 - Áreas amostrais usadas para os testes de acurácia e matriz de confusão
Kappa........................................................................................................................................41
FIGURA 30 - Modelo digital de superfície (a), e modelo digital do terreno (b), gerados a
partir de mosaico de imagens aéreas derivadas de aeronave remotamente pilotada. Os valores
de altimetria são considerados a partir do nível do mar............................................................42
FIGURA 31 - Modelo 3D do modelo digital de superfície (MDS)..........................................43
FIGURA 32 - Modelo 3D do modelo digital do terreno (MDT)..............................................43
FIGURA 33 - Altura do dossel das linhas de vegetação com um histograma de densidade de
frequência..................................................................................................................................44
FIGURA 34 - Locais da câmera e sobreposição das imagens..................................................44
FIGURA 35 - CHM com escala de valores referentes à altura do dossel.................................45
FIGURA 36 - a) Histograma de distribuição de frequência para as diferentes alturas de dossel;
b) boxplot; c) corte transversal do CHM..................................................................................46
FIGURA 37 - a) Classificação k-means com 3 diferentes classes; b) índice de vegetação
NGRDI com escala de valores de -1 a 1; c) mosaico para
comparação...............................................................................................................................47
FIGURA 38 - Modelo de altura de dossel de espécies invasoras (CHIS+GPS/GLONASS)
com as alturas extraídas a partir do modelo CHM. a) plantas que estiveram entre as medidas
de 49 cm a 110 cm; b) plantas com alturas de dossel a partir de 20 cm a
140cm........................................................................................................................................48
FIGURA 39 - CHIS+GPS/GLONASS com os pontos e medidas coletadas em campo para
aferição do
modelo.......................................................................................................................................49
FIGURA 40 - Em a) área amostral 1 e em b) área amostral 2, ambas usadas para verificar a
precisão do modelo...................................................................................................................49
FIGURA 41 - Amostra 1: análise comparativa entre índice de vegetação NGRDI (a),
classificação k-means (b), e modelo CHIS. Círculos em vermelho no mosaico (Figura d)
representam fragmentos de vegetação remanescente................................................................50
FIGURA 42 - Amostra 2: análise comparativa entre classificação k-means (a), índice de
vegetação NGRDI (b), e modelo CHIS. Mosaico para observação na Figura 42d...................51
xiv
FIGURA 43 - Localizações da câmera e estimativas de erros. O erro Z é representado pela cor
da elipse. Os erros X, Y são representados pela forma de elipse. Os locais estimados da
câmera são marcados com um ponto preto...............................................................................52
FIGURA 44 - Localização geral da área de estudo. Em a) sítio experimental com o
ortomosaico de imagens obtidas pelo RPA. Sistema de Coordenadas UTM, SIRGAS 2000,
21S............................................................................................................................................62
FIGURA 45 - Localização das áreas amostrais usadas para comparação dos resultados de
ambos modelos (CHIS+GPS/GLONASS e CHIS+RTK).........................................................65
FIGURA 46 - Exemplo da grade gerada para recolher 1000 pontos amostrais. Cada quadrado
da grade equivale a um ponto amostral. Em (a) área amostral 1 com GNSS e em (b) área
amostral 1 com RTK.................................................................................................................66
FIGURA 47 - Comparação entre os modelos CHIS+GPS/GLONASS (a), e CHIS+RTK (b) na
área amostral 1..........................................................................................................................67
FIGURA 48 - Em (a) e (b) recorte da parte superior da Figura 48 (e); (a) representa o modelo
CHIS+GPS/GLONASS e (b) representa modelo CHIS+RTK. Em (c) e (d) recorte da parte
inferior da Figura 48 (e) (modelo CHIS+GPS/GLONASS); (c) representa o modelo
CHIS+GPS/GLONASS e (d) representa modelo CHIS+RTK.................................................68
FIGURA 49 - Comparação entre os modelos CHIS+GPS/GLONASS (a) e CHIS+RTK (b) na
área amostral 2..........................................................................................................................70
FIGURA 50 - Em (a) e (b) recorte da parte inferior central da Figura 50 (c); (a) representa o
modelo CHIS+GPS/GLONASS e (b) representa modelo CHIS+RTK....................................71
FIGURA 51 - Correlação de Spearman entre os modelos CHIS+GPS/GLONASS e
CHIS+RTK. Em (a) área amostral 1 e em (b) área amostral 2. Em (a) foram analisados 684
pontos e em (b) foram analisados 506 pontos. A diferença de pontos entre as duas áreas se
deve pela ausência de informação (NA) em alguns locais da área...........................................72
FIGURA 52 - Em (a) área amostal 1 com presença de Urochloa spp. Em (b) área amostral 2
com presença de Urochloa spp. misturada com fragmentos de vegetação...............................74
xv
LISTA DE TABELAS
TABELA 1 – Comparação de custos e facilidades de operação dos UAV com outras
plataformas aéreas e satélites tripuladas.....................................................................................9
TABELA 2 – Índices de vegetação derivados de imagens com bandas do comprimento de
onda visível RGB......................................................................................................................21
TABELA 3 – Índices de vegetação derivados dos espectros do infravermelho próximo (NIR)
e do vermelho de borda (RedEdge)...........................................................................................22
TABELA 4 – Dados de latitude, longitude, tipo de solo, precipitação e temperatura média
anual, clima e altitude da área de estudo...................................................................................34
TABELA 5 - Especificação da plataforma RPA usada neste estudo........................................34
TABELA 6 - Especificações do sensor acoplado à RPA usada na campanha de campo.........35
TABELA 7 - Detalhes gerais no voo para aquisição das imagens de campo...........................35
TABELA 8 - Índices de vegetação testados neste estudo. R, G e B são os valores de reflexão
das bandas vermelha, verde e azul, respectivamente................................................................38
TABELA 9 - Classe e respectivo valor de referência para o classificador k-means e o índice
de vegetação NGRDI................................................................................................................46
TABELA 10 - Erro médio para os eixos X, Y e Z. X – Longitude, Y – Latitude, Z –
Altitude......................................................................................................................................52
TABELA 11 - Valores de precisão obtidos para os modelos CHIS+GPS/GLONASS, K-means
e NGRDI para cada uma das áreas amostrais do local de estudo. Coeficiente de correlação de
Pearson (Spearman Correlation Coefficiente, SCC), Taxa de erro geral (Overall Error Rate,
OER), especificidade (Specificity, SP), sensibilidade (Sensitivity, SN), acurácia geral (Overall
Accuracy Rate, OAR)...............................................................................................................53
TABELA 12 - Dados de latitude, longitude, tipo de solo, precipitação e temperatura média
anual, clima e altitude da área de estudo...................................................................................63
TABELA 13 - Interpretação do coeficientes de correlação de Spearman segundo Akoglu
(2018) e Fowler (2009).............................................................................................................67
TABELA 14 - Erro nos eixos espaciais a partir dos dados da GNSS e dos dados a partir do
RTK...........................................................................................................................................72
TABELA 15 - Testes estatísticos entre a variável estimada (CHIS+GPS/GLONASS) e a
variável observada (CHIS+RTK). ............................................................................................73
xvi
LISTA DE ABREVIATURAS E SIGLAS
VANT - Veículo Aéreo Não Tripulado
RPA - Remotely Piloted Aircraft
UAV - Unmanned Aerial Vehicles
UAS - Unmanned Aircraft Systems
VIs - Vegetation Index
IAF - Índice de Área Foliar
IR - Infrared Radiation
LIDAR - Light Detection And Ranging
N - Nitrogênio
NIR - Near-infrared
RGB - Red-Green-Blue
NGR - NIR-Green-Red
FAA - Federal Aviation Administration
RPV - Remotely Piloted Vehicle
RPAS - Remotely Piloted Aircraft Systems Services
AUVSI - Association for Unmanned Vehicle Systems International
VTOL - Vertical Take-Off and Landing
LAI - Leaf Area Index
NDVI - Normalized Difference Vegetation Index
PRI - Photochemical Reflectance Index
TIR - Thermal Infrared
SGD - Submarine Groundwater Discharge
RVI - Relative Vigor Index
OSAVI - Soil-Adjusted Vegetation Index Optimized
SAVI - Soil-Adjusted Vegetation Index
TSAVI - Transformed Soil-Adjusted Vegetation Index
CWA - Clima subtropical de inverno seco
UTM - Universal Transversa de Mercator
GPS - Global Positioning System
MP - Megapixel
xvii
NGRDI - Normalized Green-Red Difference Index
CHWeed - Canopy Height Weed
MDT – Modelo Digital do Terreno
MDS – Modelo Digital da Superfície
DEM - Digital Elevation Model
CHM - Canopy Height Model
CHIS - Canopy Height Invasive Species
RTK - Real Time Kinematic
xviii
SUMÁRIO
1 INTRODUÇÃO ............................................................................................................... 1
2 REFERENCIAL TEÓRICO ......................................................................................... 5
2.1 SISTEMAS DE AERONAVES NÃO TRIPULADAS (UAS).................................. 5
2.1.1 O surgimento das RPAs e sua finalidade ................................................................... 5
2.1.2 RPA na agricultura ................................................................................................... 10
2.2 SENSORES USADOS EM RPAs .............................................................................. 13
2.2.1 Câmeras digitais padrão (RGB) e câmeras modificadas .......................................... 13
2.2.2 Sensores multiespectrais e hiperespectrais .............................................................. 16
2.2.3 Sensores térmicos ..................................................................................................... 19
2.3 INDICES DE VEGETAÇÃO (IV)....................................... ..................................... 20
2.3.1 Categorias dos índices de vegetação ........................................................................ 21
2.4 CLASSIFICADORES NÃO SUPERVISIONADO K-MEANS E ISODATA.......22
2.5 ESPÉCIES INVASORAS....................................... ................................................... 24
2.5.1 Espécies invasoras na agricultura ............................................................................ 24
2.5.2 Espécies invasoras em áreas com vegetação remanescente ..................................... 27
3 CAPÍTULO 1: AERONAVE REMOTAMENTE PILOTADA (DRONE) DE
BAIXO CUSTO NO ESTUDO DE PLANTAS INVASORAS EM ÁREAS DE
CERRADO .................................................................................................................... 30
3.1 INTRODUÇÃO....................................... ................................................................... 31
3.2 METODOLOGIA....................................... ................................................................ 33
3.2.1 Área de estudo .......................................................................................................... 33
3.2.2 RPA e sensor ............................................................................................................ 34
3.2.3 Aquisição e processamento das imagens RGB ........................................................ 35
3.2.4 Conferência de dados em campo ............................................................................. 37
3.2.5 Índices de vegetação (IV) ........................................................................................ 38
3.2.6 Classificação não supervisionada ............................................................................. 39
3.2.7 Altura da copa de espécies invasoras CHIS+GPS/GLONASS ................................ 39
3.2.8 Avaliação da precisão: teste de acurácia, correlação e Cohen’s Kappa ................... 40
3.3 RESULTADOS....................................... .................................................................... 42
3.3.1 Modelo de altura do dossel (CHM) .......................................................................... 42
3.3.2 Classificador k-means e índice de vegetação NGRDI ............................................. 46
3.3.3 Análise do modelo de dossel de espécies invasoras (CHIS+GPS/GLONASS) ....... 48
xix
3.3.4 Avaliação da precisão do modelo CHIS+GPS/GLONASS em relação à
classificação k-means e índice NGRDI ............................................................................ 49
3.3.5 Testes de acurácia e índice Kappa ........................................................................... 52
3.4 DISCUSSÃO....................................... ........................................................................ 53
3.5 CONSIDERAÇÕES FINAIS....................................... .............................................. 56
4 CAPÍTULO 2: PROCESSAMENTO DIGITAL DE IMAGENS DERIVADAS DE
AERONAVES REMOTAMENTE PILOTADAS PARA DETECÇÃO DE
ESPÉCIES INVASORAS............................................................................................. 58
4.1 INTRODUÇÃO....................................... ................................................................... 60
4.2 METODOLOGIA....................................... ................................................................ 62
4.2.1 Descrição da área de estudo ..................................................................................... 62
4.2.2 Aquisição dos dados em campo ............................................................................... 63
4.2.3 Coleta de pontos de controle com RTK ................................................................... 63
4.2.4 Processamento dos dados ......................................................................................... 64
4.2.4.1 Imagens ................................................................................................................ 64
4.2.4.2 Espécies invasoras (CHIS+RTK) ........................................................................ 64
4.2.5 Validação ................................................................................................................. 64
4.2.5.1 Comparação visual dos resultados ....................................................................... 64
4.2.5.2 Análise estatística ................................................................................................ 65
4.3 RESULTADOS....................................... .................................................................... 68
4.3.1 Avaliação da precisão do modelo CHIS+GPS/GLONASS em relação ao modelo
CHIS+RTK ....................................................................................................................... 68
4.3.2 Resultados da análise estatística .............................................................................. 71
4.2 DISCUSSÃO....................................... ........................................................................ 74
4.2 CONSIDERAÇÕES FINAIS....................................... .............................................. 76
5 REFERÊNCIAS ............................................................................................................ 78
1
1 INTRODUÇÃO
O sensoriamento remoto por meio de aeronaves tripuladas e plataformas de satélite no
manejo agrícola e monitoramento ambiental, tem sido objeto de pesquisa há mais de 60 anos
(COLWELL, 1956; JACKSON, 1984; PINTER et al., 2003). Agências governamentais
utilizam-se de dados remotamente detectados de satélites no monitoramento ambiental e na
produção agrícola (DORAISWAMY et al., 2003; ATZBERGER, 2013). No entanto, algumas
demandas, em termos de mapeamento da agricultura de precisão, não foram adotadas tão
amplamente no agronegócio devido à carência de resolução espacial das imagens mais
refinada, especialmente para aplicações que exigem escala centimétricas de análise. Outra
limitação é a presença de nuvens e a entrega lenta de informações aos usuários finais, para
situações que exigiram tomadas de decisão ágeis (JACKSON, 1984; PINTER, et al., 2003;
MULLA, 2013).
Embora o desenvolvimento recente de plataformas de satélites como Landsat, SPOT5 e
Quickbird, em termos de sofisticação de sensores, tenha gradualmente melhorado a resolução
espacial de imagens para 30 m, 10 m e até 3 m, ainda é difícil e dispendioso de se obter essas
informações, ainda mais quando a necessidade é para pequenas áreas, como, por exemplo,
áreas de cultivo agrícola que geralmente são divididas em pequenos talhões com dezenas ou
centenas de hectares (ZHOU et al., 2017).
Recentemente, tem ocorrido um avanço tecnológico nos sistemas baseados em
Aeronaves Remotamente Pilotadas (RPAs), preenchendo uma lacuna em termos de imagens
aéreas com alta resolução espacial e temporal, complementando assim os dados
disponibilizados por plataformas de satélite e terrestres (WAN et al., 2018). As RPAs podem
realizar voos com frequência onde e quando necessário, o que permite observação de padrões
espaciais mais definidos devido à sua escala ser menor, permitindo coletar imagens
multitemporais para o monitoramento de culturas agrícolas e também no monitoramento de
áreas naturais. As vantagens de seu relativo baixo custo financeiro e alta flexibilidade tornam
as RPAs populares para estudos de campo (VERGER et al., 2014; GAO et al., 2018).
As RPAs nos últimos anos, principalmente a partir de 2013 (BAENA et al., 2017),
aumentaram seu destaque devido às suas vantagens, fornecendo um novo meio técnico para
extrair informação na agricultura e na área ambiental. Os sistemas de aeronaves não
tripuladas, que compõem duas nomenclaturas usuais, chamados de aeronave remotamente
2
pilotada (RPA) ou de veículo aéreo não tripulado (VANT), fornecem uma plataforma de
sensoriamento remoto com as características de aquisição de dados melhores quando
comparado aos satélites convencionais, tais como: alta flexibilidade, facilidade de operação,
alta resolução espacial, alta resolução temporal, relativo baixo custo de aquisição e
manutenção e rápida aquisição de dados (ZHANG; KOVACS, 2012; MULLA, 2013;
ZHANG et al., 2014, DENG et al., 2018).
O uso de aeronaves remotamente pilotadas em ecologia e conservação dos recursos
naturais tem experimentado um grande crescimento na última década (SANDBROOK, 2015)
e conta com uma quantidade crescente de literatura publicada, a qual apoia amplamente o seu
uso (BAENA et al., 2017). Entre 2013 e 2016, houve duplicação do número de artigos
relacionados ao uso de RPA na área da conservação da biodiversidade (BAENA et al., 2017).
A maioria dos trabalhos publicados sugere que o principal uso de RPA na conservação da
biodiversidade seja na contagem e monitoramento de animais (MARRIS, 2013;
SCHIFFMAN, 2014). Entretanto, existem trabalhos de levantamento da composição de
espécies vegetais, as quais desempenham um papel crítico na conservação ambiental e no
funcionamento do ecossistema (LU; HE, 2017; REICH et al., 2012; VAN et al., 2018,
BAENA et al., 2017).
No contexto da agricultura, o sensoriamento remoto tem sido usado amplamente em
trabalhos que envolvem medições sem contato direto com o alvo, através da radiação refletida
ou emitida de campos agrícolas, cuja intensidade depende de padrões climáticos e das
propriedades das plantas que estão sendo investigadas (MOZGERIS et al., 2018). Os
parâmetros mais comumente estudados são a refletância de luz da superfície das folhas,
transmitância de luz através de folhas e fluorescência de clorofila e polifenóis (DEMOTES-
MAINARD et al., 2008). Técnicas como o sensoriamento remoto na agricultura são
compreendidas como uma estratégia que usa a tecnologia da informação para trazer dados de
múltiplas fontes para influenciar as decisões associadas à produção agrícola, sendo por isso
denominada de agricultura de precisão (CANDIAGO et al., 2015).
Existe uma razão pela qual as RPAs estão sendo amplamente utilizadas na agricultura, a
qual deve-se pelo fato delas desempenharem um papel importante na superação de alguns dos
desafios da agricultura moderna (JU; SON, 2018). Por exemplo, as informações produzidas a
partir de dados de RPA ajudam os agricultores nos processos de tomada de decisão,
melhorando a produção agrícola e a otimização dos recursos (CANDIAGO et al., 2015).
3
Outro desafio da agricultura moderna é garantir a sustentabilidade da produtividade agrícola
devido às mudanças climáticas e ainda atender à crescente demanda por produtos agrícolas à
medida que a população mundial aumenta (JU; SON, 2018). As RPAs buscam atender a
demanda da sustentabilidade agrícola, sendo uma das principais ferramentas usadas na
agricultura digital (KEOGH; HENRY, 2016). A agricultura digital combina a tecnologia
agrícola, a moderna tecnologia da informática, a comunicação em rede e a tecnologia da
informação espacial (OZDOGAN et al., 2017). Além disso, a agricultura digital realiza a
digitalização do processo em todos os aspectos da agricultura (incluindo a produção agrícola,
pecuária, indústria de produtos aquáticos e silvicultura), buscando incluir a informatização
digital de fatores agrícolas (administração agrícola, gestão de produção agrícola, ciência
agrícola e gerenciamento de tecnologia e gestão de empresas agrícolas), que visam buscar a
eficiencia nos processos de produção agrícola e no manejo agrícola (KEOGH; HENRY, 2016;
YANE, 2010). O conceito de agricultura sustentável significa uma agricultura com economia
de água, agricultura inteligente, alta qualidade, alta eficiência, agricultura não poluente. A
agricultura digital é a abordagem mais eficaz e necessária para realizar todas essas
transformações e as RPAs compõem um meio tecnológico eficiente na busca de mais
produção com menos danos ao meio (YANE, 2010; OZDOGAN et al., 2017).
Realizar a detecção de espécies invasoras é um problema significativo na restauração de
áreas ecológicas degradadas. Este problema se deve principalmente por conta das técnicas que
podem não atender plenamente algumas demandas de manejo, como por exemplo, o uso de
índices de vegetação extraídos de imagens de satélites, além de rotinas de classificação
supervisionadas e não supervisionadas.
O modelo CHIS (Canopy Height Invasive Species) é um método capaz de detectar e
realizar a discriminação precisa de espécies invasoras com baixo custo e sem problemas
ambientais e efeitos colaterais. Utiliza imagens da banda do visível (RGB) que podem ser
adquiridas por uma RPA simples e de baixo custo. O critério de análise seria por altura do
dossel, caracterizando a vegetação por diferença de porte arbóreo, sendo uma alternativa à
classificação convencional mencionada anteriormente.
O objetivo geral deste estudo foi analisar se a técnica CHIS pode apresentar resultado
superior, na identificação de plantas invasoras, em comparação a rotinas convencionais de
classificação (supervisionada e não supervisionada) e índices de vegetação. O trabalho foi
dividido em dois capítulos, cada um com seu objetivo específico: o primeiro capítulo visou:
4
analisar se o método CHIS+GPS/GLONASS, a partir da GNSS da ARP, é a rotina de
classificação mais assertiva na identificação de espécies invasoras a partir de imagens RGB
obtidas com um RPA de baixo custo comparado a outros dois modelos usados na
identificação de espécies invasoras. O segundo capítulo comparou a acurácia dos resultados
do modelo CHIS+GPS/GLONASS do capítulo 1 (sem o uso da ferramenta RTK), com os
resultados do modelo CHIS+RTK, corrigidos por pontos de controle obtidos por meio de
RTK (Real-time Kinematic), para responder a seguinte pergunta: diante dos resultados
expostos é necessário o uso do RTK na identificação mais assertiva de espécies invasoras
através do modelo CHIS ou os resultados a partir do sistema GPS/GLONASS da RPA
fornecem dados precisos quanto ao levantamento das plantas invasoras?
5
2 REFERENCIAL TEÓRICO
2.1 SISTEMAS DE AERONAVES NÃO TRIPULADAS (UAS)
Os sistemas aéreos não tripulados (UAS) são sistemas de aeronaves motorizadas que
não possuem um piloto humano embarcado, sendo operados de forma autônoma ou remota
por um operador, podendo ser dispensável ou recuperável e ainda podem transportar uma
variedade de cargas dependendo do tipo, funcionalidade, características operacionais e
objetivos da missão (VALAVANIS; VACHTSEVANOS, 2015).
A Administração da Aviação Federal dos Estados Unidos (FAA) define que um UAS é
um dispositivo destinado a ser usado em voo sem possuir um piloto a bordo. Inclui todas as
classes de aviões, helicópteros, dirigíveis e aeronaves de sustentação translacional que não
tenham piloto a bordo. Aeronaves não tripuladas são entendidas como incluindo apenas as
aeronaves controláveis em três eixos e, portanto, excluem os balões tradicionais (FAA, 2008).
Existem várias nomenclaturas que já foram usadas para descrever aeronaves não
tripuladas. Os UAV (Veículos Aéreos não Tripulados) se tornaram UAS (Sistemas Aéreos
não Tripulados), termo preferencialmente usado pela Administração da Aviação Federal dos
Estados Unidos (FAA, 2008). Outros nomes incluíam o RPV (Veículos Remotamente
Pilotados), um termo que foi usado na Guerra do Vietnã. Hoje a Força Aérea dos Estados
Unidos substituiu principalmente o RPV por Aeronave Remotamente Pilotada ou RPA, um
termo usado para incluir tanto a aeronave quanto o piloto (USAF, 1998), enquanto que o
Reino Unido designou como Sistema Aéreo Remotamente Pilotado (RPAS), para demonstrar
a presença do homem no circuito para controlá-los (DALAMAGKIDIS, 2015).
2.1.1 O surgimento das RPAs e sua finalidade
O surgimento das modernas aeronaves não tripuladas denota aos primeiros anos da
Primeira Guerra Mundial, precisamente no ano de 1916. O primeiro veículo aéreo não
tripulado foi o Hewitt-Sperry Automatic Airplane (Figura 1), em homenagem aos dois
inventores que o projetaram (DALAMAGKIDIS, 2015). Esse primeiro projeto de aeronave
não tripulada, foi desenvolver um torpedo aéreo, capaz de transportar explosivos até o alvo. É
considerado por alguns como um precursor do míssil de cruzeiro (NEWCOME, 2004).
Devido ao projeto da aeronave Hewitt-Sperry Automatic Airplane, seus criadores
conseguiram atrair o interesse da Marinha dos EUA, resultando no desenvolvimento do
6
Torpedo Aéreo Curtiss-Sperry (Figura 1), enquanto ao mesmo tempo a Força Aérea do
Exército dos EUA patrocinou o Torpedo Aéreo Liberty Eagle de Charles Kettering
(ZALOGA, 2008) ilustrado na Figura 2. Devido a problemas técnicos e falta de precisão para
a época, o interesse em aviões não tripulados foi menor, mas o potencial de uso de RPAs
operados remotamente para a prática de alvo foi logo percebido (NEWCOME, 2004;
DALAMAGKIDIS, 2015).
Figura 1. Modelo Hewitt-Sperry Automatic Airplane em 1918. Fonte: domínio público.
Figura 2. Veículo aéreo não tripulado Liberty Eagle de Charles Kettering pousado em um par de trilhos. Fonte:
domínio público.
7
Após o término da Segunda Guerra Mundial, o interesse por missões de reconhecimento
através de veículos aéreos não tripulados aumentou. Os descendentes dos drones de Reginald
Denny se tornaram a base do primeiro drone de reconhecimento o SD-1 (NEWCOME, 2004).
O MQM-57 Falconer (Figura 3), também conhecido por SD-1, foi desenvolvido em meados
da década de 1950 e, no final de sua carreira, foram construídos um número de 1.455 réplicas
(MUSEU NACIONAL DA FORÇA AÉREA DOS ESTADOS UNIDOS, 2009). O SD-1 foi a
primeira aeronave remotamente pilotada, com uma câmera embarcada para obtenção de
fotografias aéreas de reconhecimento e o seu voo durava em torno de 30 minutos, retornando
à base e recuperado com o auxílio de um paraquedas (ZALOGA, 2008; NEWCOME, 2004).
Figura 3. RPA modelo MQM-57 Falconer, conhecido como SD-1. Fonte: (Museu Nacional da USAF, em
https://www.nationalmuseum.af.mil).
Até meados do final do século XX, muitas nações estavam envolvidas em projetos de
construção de RPA para o exercício militar, como, por exemplo, a antiga União Soviética,
Israel, Canadá, Reino Unido, Alemanha e França (ZAGOLA, 2008). Muitos modelos foram
construídos durante o período da Guerra Fria (ZAGOLA, 2008), modelos como o BGM-34C,
AQM-34Q, D-21B Tagboard e o primeiro helicóptero não tripulado o QH-50 (NEWCOME,
2004). Os sistemas modernos de RPA para uso militar tiveram um grande avanço nos últimos
anos, sendo muito mais diversos e complexos que seus precursores. As RPAs militares atuais
estão se movendo para sistemas de maior resistência, mais capazes e mais avançados e que
podem ter múltiplos papéis, como os que estão disponíveis no MQ-9 Reaper (Figura 4), que
8
além do reconhecimento, também pode ser usado como um caçador-assassino
(DALAMAGKIDIS, 2015).
Figura 4. MQ-9 Reaper sobrevoando o sul do Afeganistão. Fonte: (U.S. Air Force/Staff Sgt. Brian Ferguson, em
https://pt.wikipedia.org/wiki/Ficheiro:MQ-9_Reaper_in_flight_(2007).jpg).
No início dos anos 90, as RPAs passaram por várias implementações de plataformas
com sensores para finalidade de uso civil, inicialmente para pesquisas de instituições federais
(ALKAABI; ABUELGASIM, 2017). Desde os trabalhos precursores de Smith et al. (1990),
ocorreram várias implementações demonstradas em outros trabalhos (BOSSE et al., 2003;
GUTMANN; KONONIGE, 1999; DISSANAYAKE et al., 2001; GUIVANT; NEOB, 2001;
THRUN; LUI, 2003). Essas modificações contam com uma série de adaptações de sensores
com diferentes variedades de formas e tamanhos, como o RADIO Detecção e Ranging
(RADAR), Detecção de Luz e Alcance (LIDAR) e sensores eletro-ópticos, como câmeras.
Tais sensores fornecem uma variedade de observações diferentes do terreno, incluindo
alcance e rumo (BRYSON; SUKKARIEH, 2015).
Com o passar dos anos, as RPAs tornaram-se cada vez mais acessíveis ao mercado e às
pesquisas desenvolvidas por diversas instituições (BRYSON; SUKKARIEH, 2015;
ALKAABI; ABUELGASIM, 2017), pois as aplicações das RPAs oferecem grandes
oportunidades e fornecem soluções de baixo custo em diversas aplicações (Tabela 1) que
geralmente exigem recursos diferentes nas várias tarefas envolvidas (IDRIES et al., 2015).
Existe uma demanda crescente do uso de RPA no mercado para as diversas finalidades civis e
em conjunto com esse crescimento, o mercado de RPA também está crescendo (IDRIES et al.,
2015). No setor comercial, o Relatório Anual de Previsão Aeroespacial divulgado pela
9
Administração Federal de Aviação dos Estados Unidos (FAA) estima que mais de sete
milhões de RPAs serão comprados até 2020 (LIEW et al., 2017). A partir do ano de 2017,
calcula-se que a produção atinja, em média, cerca de 960 RPA anualmente nos sete anos
restantes dos períodos previstos para 2014-2023 (DWFI, 2014).
Tabela 1. Comparação de custos e facilidades de operação das RPAs com outras plataformas aéreas e satélites
tripuladas. Fonte: Candiago et al. (2015).
Além disso, espera-se um crescimento na produção de RPA entre 2012 e 2021,
especialmente as RPAs menores, e o crescimento das vendas para RPAs maiores deve chegar
a US$ 43 bilhões (IDRIES et al., 2015). Muito do crescimento pode ser atribuído aos grandes
RPAs. Até esse ponto, muitos países ao redor do mundo carecem de recursos e financiamento
para adquirir ou fabricar esses sistemas grandes e complexos. O Brasil e a Índia estão
formando parcerias para ajudar a construir RPAs, para que, em um futuro próximo, possam
fabricar sistemas mais caros de forma autônoma (IDRIES et al., 2015).
As RPAs podem ser utilizadas em muitas aplicações civis devido à sua facilidade de
implantação, baixo custo de manutenção, alta mobilidade e capacidade de pairar, nesse caso,
considerando multirotores ou hídricos do tipo VTOL (HAYAT et al., 2016). Várias são as
finalidades pelas quais estão sendo usados as RPAs, como, por exemplo, o monitoramento em
tempo real do tráfego rodoviário, sensoriamento remoto, operações de busca e salvamento,
entrega de mercadorias, segurança e vigilância, agricultura de precisão e inspeção de
infraestrutura civil (HAYAT et al., 2016; SHAKHATREH et al., 2018). As RPAs oferecem
uma grande oportunidade de mercado para fabricantes de equipamentos, investidores e
provedores de serviços de negócios. De acordo com Shakhatreh et al. (2018), o mercado das
RPAs gera um valor superior a US$ 127 bilhões anualmente, conforme mostrado na Figura 5.
Um dos mercados que mais vem crescendo nos últimos anos e que se utiliza dessa tecnologia
é a agricultura de precisão, que hoje representa um valor de mercado em torno de US$ 32.4
bilhões (SHAKHATREH et al., 2018).
RPA 0.5 - 10 cm 50 - 500 m Muito bom/fácil Pode ser limitado
Helicóptero 5 - 50 cm 0.2 - 2 km Piloto obrigatório Quase ilimitado
Avião convencional 0.1 - 2 m 0.5 - 5 km Piloto obrigatório Ilimitado
Satélite 1 - 25 m 10 - 50 km - -
Muito baixo
Médio
Alto
Muito alto
Resolução
Espacial
Campo de
VisãoUsabilidade
Capacidade de
Carga
Custo para aquisição
de dados
10
Figura 5. Valor de mercado das RPAs nas principais indústrias em bilhões de dólares. Fonte: Shakhatreh et al.
(2018).
2.1.2 RPA na agricultura
Os primeiros trabalhos desenvolvidos na agricultura com o uso de RPA remete aos
primeiros anos da década de 80, onde alguns autores publicaram suas pesquisas sobre
fotografias a partir de veículos remotamente pilotados em periódicos de sensoriamento remoto
(HUNT; DOUGHTRY, 2017), como, por exemplo, Wester-Ebbinghaus (1980) e Tomlins e
Lee (1983). Em decorrência de problemas na análise de dados para o manejo de culturas
através dos satélites Landsat 1, 2 e 3, Jackson e Youngblood (1983) e Youngblood e Jackson
(1983) propuseram a construção de uma plataforma dedicada não tripulada de alta altitude
(HAPP) para sensoriamento remoto agrícola (HUNT; DOUGHTRY, 2017).
Após as primeiras pesquisas acerca do uso de RPA na agricultura, vários outros estudos
examinaram uma ampla variedade de plataformas possíveis de serem aplicadas na agricultura,
como, por exemplo, dirigíveis cheios de hélio (INOUE et al., 2000), um modelo de asa-fixa
(QUILTER; ANDERSON, 2000), pequenos helicópteros controlados por rádio (HONGOH et
al., 2001) e paraquedas motorizados (MORAN et al. 2001). Em resumo, os cientistas
reconheceram há muito tempo as possíveis contribuições que a RPA poderia dar ao
sensoriamento remoto agrícola (HUNT; DOUGHTRY, 2017).
11
A Associação de Sistemas de Veículos Não Tripulados Internacional (AUVSI) prevê
que 80% das RPAs concedidos pela FAA (Federal Aviation Administration) nos EUA serão
usados na agricultura. Em comparação com outras plataformas de sensoriamento remoto,
como satélites e aeronaves tripuladas, as RPAs podem ser implantados facilmente e têm
menor custo operacional, tornando-se uma ferramenta promissora para monitoramento
frequente de locais de pesquisa agrícola e campos dos agricultores (SHAFIAN et al., 2018).
As principais áreas de pesquisa na agricultura de precisão são sensoriamento remoto
(ALLRED et al., 2018; SANTESTEBAN et al., 2017; TOKEKAR et al., 2016; ALSALAM et
al., 2017; TORRES-SANCHEZ et al., 2013; ZARCO-TEJADA et al., 2013; XIANG; TIAN,
2011; ARROYO et al., 2017), mapeamento (ALLRED et al., 2018; SANTESTEBAN et al.,
2017; TORRES-SANCHEZ et al., 2015; CHRISTIANSEN et al., 2017) e monitoramento
(VEGA et al., 2015; NORIEGA; ANDERSON, 2016; JANNOURA et al., 2015; DOERING
et al., 2014; LONG et al., 2016) e ainda não é usado em várias áreas, como a semeadura e a
colheita. Além disso, a pesquisa para irrigação e controle de pragas está aumentando
atualmente (FAIÇAL et al., 2017; ALBORNOZ; GIRALDO, 2017; ROMERO et al., 2018).
Em particular, o sensoriamento remoto é a tarefa de pesquisa mais amplamente utilizada
através das RPAs agrícolas e é uma tarefa básica obtida anexando hardwares (sensores) ou
controladores adicionais conforme a necessidade que se é exigida.
As RPAs mais usadas na agricultura são principalmente do tipo de asa-fixa (ALLRED
et al., 2018; ZARCO-TEJADA et al., 2013) ou rotorcraft conhecido também por multi-
helicóptero ou ainda multirotor (SHI et al., 2016). Ambas as classes de veículos possuem
características únicas que as tornam úteis para aplicações agrícolas (SHI et al., 2016). Os
multirotores podem decolar e pousar verticalmente (VTOL) de modo que os requisitos de
espaço para decolagem e pouso sejam pequenos. No entanto, há o problema de baixo tempo
de voo, devido às características das baterias utilizadas (JU; SON, 2018). Uma das maneiras
de se resolver esse problema é usar vários RPAs ou várias baterias (FRANCHI et al., 2012;
LEE et al., 2013). Na Figura 6 é demonstrado um modelo de RPA multirotor X800 da
empresa brasileira XFLY de custo médio no mercado dos RPAs, que varia em torno de
U$4.000 a U$6.000 mil dólares. Na Figura 7 é apresentado o Phantom 4 Pro da empresa DJI,
muito usado por conta do seu baixo custo (uma variação entre U$800,00 a U$1.500 dólares)
de mercado e versatilidade e que também é classificado como multirotor.
12
Figura 6. RPA multirotor modelo X800 da empresa brasileira XFLY. Fonte: (REVISTA GLOBO RURAL, em
https://revistagloborural.globo.com/gallery/juicebox/2851/config.xml).
Figura 7. RPA multirotor modelo Phantom 4 Pro da empresa DJI. Fonte: (POLAR PRO FILTERS, em
https://www.polRPArofilters.com/products/dji-phantom4-pro-filters).
Em contraste às RPAs multirotores, as RPAs de asa-fixa são equipadas com asas,
tornando o equipamento capaz de mapear áreas maiores cobrindo longas distâncias (JU; SON,
2018). Existe uma desvantagem dos equipamentos de asa-fixa, que é a necessidade de uma
pista ou lançador para decolagem e aterrissagem. Outra limitação dos equipamentos de asa-
13
fixa é que estes requerem que o ar se mova sobre suas asas para gerar sustentação,
permanecendo em um movimento de avanço constante e não podem permanecer estacionários
da mesma maneira que um multirotor pode (JU; SON, 2018). Pode ser visualizado na Figura
8 um modelo de asa-fixa o eBee Plus da empresa americana senseFly, muito usado em
pesquisas de campo e na agricultura.
Figura 8. eBee Plus, RPA de asa-fixa. Fonte: (GEOTRONICS, em http://geotronics.cz).
Independentemente da classe de RPA usada, uma gama de sensores personalizáveis
estão disponíveis no mercado para ser integrado/acoplado às RPAs multirotores e ou asa-fixa
nos estudos agrícolas. Estes sensores podem ser câmeras digitais comuns de prateleira,
conhecidas por câmeras de banda curta RGB (XIANG; TIAN, 2011), câmeras multiespectrais
de banda larga personalizadas (LELONG et al., 2008; VALASEK et al., 2016), sistemas de
imagens hiperespectrais (UTO et al., 2013) e câmeras térmicas (GONZALEZ-DUGO et al.,
2013). Na agricultura de precisão estes sensores são utilizados para desempenharem as mais
variadas funções e capazes de fornecerem os mais variados resultados ao produtor agrícola.
2.2 SENSORES USADOS EM RPAs
2.2.1 Câmeras digitais padrão (RGB) e câmeras modificadas
As câmeras digitais de banda curta, ou câmeras de espectro visível, funcionam com as
três bandas do espectro da luz visível à visão humana, conhecidas como RGB, que significa:
vermelho, verde e azul (BORRA-SERRANO et al., 2015). Elas funcionam a cerca de 390 nm
(3,9e-7 m) a 750 nm (7,5 e-7 m) de comprimento do espectro da luz (MEJIAS et al., 2015;
14
BORRA-SERRANO et al., 2015). Essas categorias de câmeras fotográficas digitais oferecem
alta resolução, mas não fornecem fluxo contínuo de imagens (limitação do espaço de
memória). A quantidade de imagens que elas podem fornecer vai depender da quantidade de
memória de seus cartões, podendo ser desde pequena capacidade até alta capacidade de
armazenamento. Este tipo de câmera pode ser aplicado em sensoriamento remoto, fotografia
panorâmica aérea e fotofilmagem. Porém, as informações extraídas através delas são limitadas
quando comparadas com câmeras que possuem sensores de comprimento de onda do não
visível, como por exemplo, o NIR e o RedEdge (MEJIAS et al., 2015).
Além disso, as câmeras digitais de banda curta usadas no sensoriamento remoto podem
variar substancialmente quanto ao preço, que vai depender da qualidade das lentes e recursos
disponíveis (LELONG et al., 2008; NGUY-ROBERTON et al., 2016; O'CONNOR et al.,
2017; CRUSIOL et al., 2017). Por exemplo, o modelo Canon PowerShot S110 de 12MP,
muito usada em RPAs, tem um preço a partir de $180 dólares. Já o modelo Sony WX de
18MP custa a partir de $500,00 dólares. A qualidade da lente afeta a capacidade de resolver
diferenças entre os pixels, assim, a quantidade total de pixels em uma câmera é uma boa
indicação de que uma imagem terá um bom resultado quanto as diferenças de pixels de uma
área amostral qualquer, porém pode variar muito quanto ao preço do equipamento
(CANDIAGO et al., 2015).
O uso de câmeras simples RGB pode ter múltiplas aplicações agrícolas, como, por
exemplo, caracterizar as propriedades físicas das plantas e usar as medidas para prever futuros
problemas (RIBERA et al., 2016), calcular a biomassa de cultivos agrícolas (KHUN et al.,
2018), estimar a acumulação de nitrogênio em cultivos de arroz (ZHENG et al., 2018),
mapeamento ou representação de objetos 3D (MEJIAS et al., 2015) e alguns índices de
vegetação (VIs) para estimativa de biomassa ou índice de área foliar (JORDAN, 1969;
HUETE, 1988).
Existe uma diferença entre as câmeras digitais simples e as câmeras modificadas que é
principalmente como as bandas espectrais são criadas. As câmeras digitais têm uma matriz de
filtros coloridos (como um padrão Bayer) cobrindo um único chip de silício, cada pixel é
encaixado pelas outras duas cores do array de filtros (NEBIKER, et al., 2016). Para formação
da imagem, o arquivo de imagem bruto tem que ser desmembrado para obter as três bandas
espectrais. Um exemplo de câmera modificada é a popular câmera compacta Canon S110
(Figura 9), com os filtros de cores Bayer modificados. Em vez dos filtros comuns azul, verde
15
e vermelho, o modelo S110 modificada possui os filtros para as faixas espectrais verde,
vermelho e infravermelho próximo (NIR, 780 nm). Como a separação de cores ocorre
diretamente no sensor através dos filtros da Bayer, a câmera modificada ao invés de ser RGB,
torna-se NGR (NIR, Green, Red), com um único sistema de lente (NEBIKER, et al., 2016;
BORRA-SERRANO et al., 2015; MAHAJAN; BUNDEL, 2016). Na Figura 10 pode ser
visualizado a diferença na captura de comprimento de onda com uma câmera padrão RGB e
uma câmera sem o filtro NIR.
Figura 9. Camera modificada com os filtros NIR, GREEN, RED (NGR), modelo S110 da Canon. Fonte:
Nebiker et al. (2016).
Figura 10. As cores das linhas correspondem aos canais da câmera padrão RGB mostrando diferença na captura
de comprimento de onda. No comprimento de onda a partir de 750nm (NIR) as bandas da câmera modificada
sem o filtro NIR, não há captura, com o filtro haveria captura da banda NIR que neste caso é a refletância
próxima da linha cinza, que corresponde um dossel de vegetação verde. Fonte: Lebourgeois et al. (2008).
A grande vantagem de uma câmera modificada é principalmente o que ela pode oferecer
com um baixo custo (MONTES et al., 2018) de investimento, tendo mais versatilidade e
capaz de oferecer diferentes dados que uma câmera padrão RGB, como, por exemplo,
registrar dados no comprimento da onda do infravermelho próximo (NIR) e da borda do
16
vermelho (RedEdge), que através destas faixas do espectro da luz invisível, pode ser aplicado
índices de vegetação capazes de indicar a saúde da vegetação. O índice de vegetação por
diferença normalizada (NDVI) é muito usado a partir de sensores com a banda NIR, pois
reflete fortemente a luz infravermelha próxima (NIR, em torno de 750nm), enquanto o
vermelho e o azul são absorvidos (MONTES et al., 2018; LEBOURGEOIS et al., 2008).
Índices de vegetação e suas aplicações assim como quais sensores são capazes de calcular
serão melhores discutidos no capítulo de índices de vegetação.
2.2.2 Sensores multiespectrais e hiperespectrais
Os sensores multiespectrais normalmente possuem quatro ou mais bandas espectrais,
que cobrem grandes faixas de comprimento de onda. Essas câmeras são capazes de capturar
além da radiação vermelha, verde e azul, os comprimentos de onda mais intermediários e
ainda mais curtos e longos, pertencentes aos espectros ultravioleta e infravermelho (MONTES
et al., 2018). Como resultado, esse tipo de câmera produz imagens de múltiplas bandas, com
faixas de comprimentos de onda estreitos, capazes de estimar mais precisamente a quantidade
de vegetação (ELVIDGE; CHEN, 1995).
Os sensores multiespectrais possuem bandas nas extremidades dos espectros do vermelho, a
RedEdge, de 710 nm a 740 nm, e a NIR, de 700 nm a 1.100 nm (JOS et al., 2014; MONTES
et al., 2018). Essas bandas são ótimas para detectar o teor de clorofila-a (HORLER et al.,
1983). A refletância de superfície na borda vermelha (Red-Edge) são combinadas com
refletores vermelhos e NIR para formarem índices fortemente correlacionados ao conteúdo de
clorofila (DAUGHTRY et al., 2000; GITELSON et al., 2005; HABOUDANE et al., 2008;
FITZGERALD et al., 2010, LI et al., 2014). Na Figura 11 pode ser verificado onde cada uma
das bandas (RGB, NIR, RedEdge) atuam no espectro da luz.
Figura 11. Exemplo da atuação de três câmeras nos diferentes comprimentos de onda da luz. Uma câmera
multiespectral atual com todas estas bandas (RGB, NIR, RDG-RedEdge) Fonte: Lebourgeois et al. (2008).
17
Existe no mercado diversas câmeras multiespectrais usadas em RPAs. A Parrot Sequoia
da empresa SenseFly, conta com cinco bandas: green, red, red-edge, NIR e RGB (Figura 12).
Esse sensor já vem incluso na RPA eBee Plus (Figura 8). Outra câmera multiespectral muito
usada é a RedEdge-MX da MicaSense (Figura 13), que também conta com cinco bandas:
blue, green, red, red-edge e NIR. A RedEdge-MX difere da Sequoia, pois não possui a RGB,
mas apenas as bandas de forma separadas. Há também a empresa Tetracam, que produz
diversos sensores, entre eles câmeras desde 4 bandas até câmeras com até 12 bandas.
Figura 12. Câmera multiespectral Parrot Sequoia com as bandas red, green, red-edge, NIR e RGB. Fonte:
(PARROT, em https://www.parrot.com).
Figura 13. Câmera multiespectral RedEdge-MX com as bandas red, green, blue, red-edge, e NIR. Fonte:
(MICASENSE, em https://www.micasense.com).
18
Os modelos de sensores hiperespectrais (Figura 14) possuem bandas contínuas que
cobrem intervalos de comprimentos de onda estreitos, com 10 nm a 20 nm de largura (ADÃO
et al., 2017). Esses sensores são usados cada vez mais para medir processos fisiológicos,
como a fotossíntese (FREITAS et al., 2018). O índice de refletância fotoquímica (PRI) utiliza
bandas estreitas em dois comprimentos de onda verdes (531 nm e 570 nm) para rastrear
mudanças nos pigmentos de xantofila foliar em resposta direta a mudanças na taxa
fotossintética (ADÃO et al., 2017; ZARCO-TEJADA et al., 2012; MAGNEY et al. 2016;
ZHANG et al. 2016; PROCTOR; HE, 2015).
Figura 14. Sensor hiperespectral modelo UHD 185 acoplado em um RPA multirotor. Fonte: Yue et al. (2017).
Portanto, os dados hiperespectrais possuem um melhor desempenho de perfil de
materiais finais devido aos seus espectros quase contínuos (Figura 15). Por um lado, abrange
detalhes espectrais que podem passar despercebidos em dados multiespectrais devido à sua
natureza discreta e esparsa (ADÃO et al., 2017). Um dos campos de aplicação mais
promissores é a agricultura de precisão, onde imagens hiperespectrais são usadas para coletar
dados de sementes e determinar a germinação de sementes de plantas (NANSEN et al., 2015).
Essa tecnologia também pode ser usada para detectar defeitos internos em produtos
alimentícios (ZHANG et al., 2015). Outra aplicação é em biotecnologia, para estudos de coral
(BAROTT et al., 2009) e células (POLERECKY et al., 2008). É também amplamente
utilizado para análise de bactérias (BACHAR et al., 2008; KUHL; POLERECKY, 2008) e em
19
aplicações de monitoramento ambiental que permitem medir as emissões de CO2 na
superfície, mapear formações hidrológicas e rastrear os níveis de poluição (KEITH, et al.,
2009; SPANGLER et al., 2009).
Figura 15. (A) Exemplo multiespectral, com 5 bandas largas; (B) Exemplo hiperespectral que consiste em várias
bandas estreitas que, geralmente, se estendem a centenas ou milhares delas. Fonte: Adão et al. (2017).
2.2.3 Sensores térmicos
O uso de sensores térmicos (Figura 16) em RPA ainda não é comum devido
principalmente ao seu alto custo e ao peso e tamanho destes sensores, precisando de RPAs
capazes de suportá-los (SHENG et al., 2010; HUNT; DAUGHTRY, 2017). Há
consideravelmente poucos artigos na literatura sobre usos de senores térmicos na agricultura,
comparado com outros sensores utilizados nesta área (HUNT; DAUGHTRY, 2017). A
radiação TIR (Thermal InfraRed) refere-se a ondas eletromagnéticas com comprimento de
onda entre 3,5 micrômetros a 20 micrômetros. O infravermelho de onda média (3 a 8
micrômetros) e o infravermelho de onda longa (8 a 15 micrômetros) estão dentro da região do
TIR (SHENG et al., 2010).
Figura 16. Alguns exemplos de câmaras de imagem TIR não refrigeradas (a) ICI 320x, (b) Thermal-Eye
4500AS, (c) Photon 320. Fonte: Sheng (2010).
20
Os sensores térmicos podem ser usados em várias aplicações de sensoriamento remoto
(SHENG et al., 2010), que incluem a captura de imagens da refletância e temperatura da
vegetação (BERNI et al., 2009), parametrização das condições de umidade da superfície
terrestre (SOER, 1980), mapeamento da descarga de águas subterrâneas submarinas (SGD)
em zonas costeiras (LEE et al., 2016), monitoramento da saúde florestal (SMIGAJ et al.,
2015), simulações de troca de energia da paisagem ao longo do espaço e escalas de tempo
(QUATTROCHI; LUVALL, 1999), inferência do teor superficial de água no solo e cobertura
vegetal fracionada (CARLSON et al., 1994), determinação da evapotranspiração em áreas
com vegetação (CASELLES et al., 1992) e a avaliação do efeito de ilhas de calor urbana (LO
et al., 1997).
2.3 INDICES DE VEGETAÇÃO (IV)
Um índice pode ser definido como sendo um número pelo qual se quantifica a
intensidade de um fenômeno qualquer, que muitas das vezes pode ser complexo demais para
ser decomposto em parâmetros conhecidos (BANNARI et al., 1995). O advento do
sensoriamento remoto fez com que fosse possível determinar a porção de influência de muitos
fatores e elementos quando em um ambiente bem documentado e bem controlado. Exemplo
disso é o imageamento de áreas degradadas ou áreas sob influência de desmatamentos,
entretanto é difícil de fazer essa decomposição de informações com grande precisão apenas
por meio da observação visual. Neste sentido, a noção de índice de vegetação está bem
adaptada para quantificar a vegetação em grandes ou pequenas áreas, diferenciado-a de outros
elementos que não sejam a vegetação, como, por exemplo, solo exposto, edificações e leitos
de rios (BANNARI et al., 1995).
O índice de vegetação pode ser entendido como uma técnica quantitativa que indica o
vigor da vegetação (CAMPBELL, 1987). Os índices de vegetação são mais sensíveis e mais
capazes de detectar a biomassa do que bandas espectrais individuais (ASRAR et al., 1984). O
interesse nesses índices reside principalmente na sua utilidade e na interpretação de imagens
de sensoriamento remoto, constituindo, notavelmente, um método para a detecção de
mudanças no uso da terra (BANNARI et al., 1995). Eles têm sido usados em uma variedade
de contextos para avaliar a biomassa verde e também como substitutos para avaliar mudanças
ambientais, especialmente no contexto da avaliação de risco de seca e degradação da terra
(KOGAN, 1990; TRIPATHY et al., 1996; LIU; KOGAN, 1996), além disso a avaliação da
21
densidade de cobertura vegetal, a discriminação de culturas e a predição de cultivos (BARET;
GUYOT, 1991). Portanto, os IVs são usados na classificação de imagens, principalmente para
separar áreas com vegetação de áreas não vegetadas (BASSO et al., 2004).
2.3.1 Categorias dos índices de vegetação
Os autores Daughtry et al. (2000) classificaram os IVs em duas categorias: índices
intrínsecos, que incluem razões de duas ou mais bandas nos comprimentos de onda do visível
(RGB), do infravermelho próximo (NIR) e do vermelho de borda (RedEdge). Alguns
exemplos destes índices são o NDVI (Índice de Vegetação por Diferença Normalizada) e RVI
(Índice de Vegetação por Razão). Estes índices são sensíveis às propriedades de refletância de
fundo e são frequentemente difíceis de interpretar com baixo IAF (DAUGHTRY et al., 2000;
RONDEAUX et al., 1996). Os índices de vegetação na linha do solo usam a informação da
linha do solo na refletância do NIR-Red para reduzir o efeito do solo na refletância da copa
(DAUGHTRY et al., 2000). Exemplos de índices que reduzem o efeito do solo são o SAVI
(Índice de Vegetação Ajustado ao Solo), OSAVI (Índice Vegetativo Ajustado pelo Solo
Optimizado) e TSAVI (Índice Vegetativo Ajustado do Solo Transformado).
Há um grande número de índices de vegetação, usados nas mais variadas funções,
alguns capazes de oferecer resultados usando apenas as bandas do espectro visível da luz
(RGB) (WAN et al., 2018) e outros se utilizam das bandas de refletância NIR e RedEdge
(VIÑA et al., 2011). Atualmente há mais de 100 índices de vegetação com as mais diferentes
finalidades (XUE; SU, 2017). Na Tabela 2 estão relacionados alguns índices de vegetação que
utilizam apenas as bandas nos comprimentos de onda visível (RGB), e na Tabela 3 estão
relacionados alguns índices que utilizam os comprimentos de onda do NIR e RedEdge.
Tabela 2. Índices de vegetação derivados de imagens com bandas do comprimento de onda visível RGB. Fonte:
Wan et al. (2018).
Vegetation Indices Formula References
Visible-band Difference Vegetation Index (VDVI) (2*G − R − B)/(2*G + R +B) (WANG, et al. 2015)
Visible Atmospherically Resistant Index (VARI) (G − R)/(G + R − B) (GITELSON et al., 2002)
Normalized Green-Red Difference Index (NGRDI) (G − R)/(G +R) (GITELSON et al., 2002)
Red-Green Ratio Index (RGRI) R/G (VERRELST et al., 2008)
Modified Green Red Vegetation Index (MGRVI) (G2 − R
2 )/(G
2 + R
2 ) (BENDIG et al., 2015)
Excess Green Index (ExG) 2*G − R − B (WOEBBECKE et al., 1995)
Color Index of Vegetation (CIVE) 0.441*R 0.881*G + 0.385*B + 18.787 (KATAOKA et al., 2003)
Vegetativen (VEG) G/(Ra *B
(1 − a) ) a = 0.667 (HAGUE et al., 2006)
VIs Calculated from RGB Images
22
Tabela 3. Índices de vegetação derivados dos espectros do infravermelho próximo (NIR) e do vermelho de
borda (RedEdge). Fonte: Viña et al. (2011).
2.4 CLASSIFICADORES NÃO SUPERVISIONADO K-MEANS E ISODATA
Existem métodos de agrupamento cluster para classificação não superficionada, o tipo
mais comum e aplicado a dados detectados remotamente é o partitional. A maioria dos
softwares ou sistemas computacionais destinados ao processamento digital de imagens de
sensoriamento remoto contém especificamente dois algoritmos de agrupamento particinal
para executar classificações não supervisionadas: o algoritmo K-means e uma variação dele, o
ISODATA (BALL; HALL, 1967). O classificador K-means convencional é baseado na
decomposição, sendo uma técnica popular no campo de mineração de dados. O conceito de
algoritmo K-means usa K como um parâmetro, divide n objetos em clusters K, para criar
semelhança relativamente alta no cluster e relativamente baixa similaridade entre clusters. Ele
minimiza a distância total entre os valores em cada cluster para o centro do cluster. O centro
do cluster de cada cluster é o valor médio do cluster. O cálculo da similaridade é feito pelo
valor médio dos objetos do cluster. A medida da similaridade para a seleção do algoritmo é
feita pela recíproca da distância euclidiana, ou seja, quanto mais próxima a distância, maior a
similaridade de dois objetos e vice-versa (YADAV; SHARMA, 2012)
Apesar de serem amplamente utilizados, esses métodos de clustering tradicionais
possuem algumas limitações. As funções objetivas que eles usam começam com a suposição
de que o número de classes K é conhecido a priori. Seguindo a hipótese de que um valor K
inadequado tenha sido escolhido, o método irá impor clusters K para os dados através do uso
de técnicas de otimização. O usuário também deve especificar manualmente vários
parâmetros para controlar o processo de cluster, por exemplo, os centróides iniciais de cada
Vegetation Indices Formula References
Simple Ratio (SR) NIR / R (JORDAN, 1969)
Normalized Difference Vegetation Index (NDVI) (NIR − R) / (NIR + R) (ROUSE et al., 1974)
MERIS Terrestrial Chlorophyll Index (MTCI) (DASH; CURRAN, 2004)
(GITELSON et al., 2003a; 2003b; 2005)Green Chlorophyll Index (CIGreen)
Red-edge Chlorophyll Index (CIRed-edge) (GITELSON et al., 2003a; 2003b; 2005)
VIs Calculated from RGB Images
Enhanced Vegetation Index (EVI) (HUETE et al., 1996; 1997)
(GITELSON, 2004)Wide-Dynamic Range Vegetation Index (WDRVI)
-1
-1
23
cluster, o número máximo de interações, os limites para executar a divisão, a fusão ou a
exclusão de clusters. K-means e ISODATA são muito sensíveis a esses parâmetros, que
podem gerar partições diferentes quando várias simulações são realizadas para o mesmo
conjunto de dados (SHAH et al., 2004, GONÇALVES et al., 2005; GONÇALVES et al.,
2008). Há outras limitações não menos importantes dos algoritmos particionais, que é o alto
custo computacional quando os dados a serem analisados são muito grandes (a cada iteração,
todos os pixels da imagem são comparados com todos os dados, centróides) e a existência de
suposições sobre as formas de cluster. Geralmente apenas um protótipo (centróide) é usado
para representar um cluster, portanto, esses métodos tornam-se adequados apenas para a
análise de clusters que possuem formatos hiperesféricos (SHAH et al., 2004, GONÇALVES
et al., 2005).
Claramente, a literatura contém outras propostas para métodos não supervisionados para
classificar dados de sensoriamento remoto que não fazem uso apenas de abordagens
convencionais de clustering. Em Huang (2002), por exemplo, um método hierárquico divisivo
baseado em conceitos de hiperplanos e árvores binárias foi proposto para servir como uma
alternativa ao ISODATA. Embora a precisão geral do algoritmo hierárquico proposto tenha
sido um pouco menor, ele foi muito mais rápido do que o ISODATA em todos os testes
experimentais que foram apresentados. Shah et al. (2004) propuseram um algoritmo não
supervisionado, derivado da análise de componentes independentes, que modela distribuições
de classes com densidades não gaussianas e emprega estatísticas de ordem superior, ao
contrário dos algoritmos convencionais. Enquanto os algoritmos são altamente complexos e o
processamento de dados é demorado, técnicas de classificação não supervisionadas baseadas
em campos aleatórios de Markov que combinam informações espectrais e espaciais também
foram investigadas (BARALDI et al., 2000, TSO; OLSEN, 2005). Além disso, os
pesquisadores projetaram várias abordagens não supervisionadas para classificar imagens de
sensoriamento remoto baseadas em métodos de inteligência computacional como redes
neurais, sistemas difusos e algoritmos evolutivos (JI, 2003; LIU et al., 2005, XIANG et al.,
2005).
24
2.5 ESPÉCIES INVASORAS
2.5.1 Espécies invasoras na agricultura
A detecção e o manejo de espécies invasoras é um problema significativo na agricultura
atualmente (LIAKOS et al., 2018). Muitos produtores indicam que as espécies invasoras são
uma das ameaça mais importante à produção agrícola. A detecção precisa das espécies
invasoras é de grande importância para a agricultura sustentável, porque elas são difíceis de
detectar e de discriminar nas culturas agrícolas (LIAKOS et al., 2018). O modelo CHweed é um
método capaz de detectar e realizar a discriminação precisa de espécies invasoras com baixo
custo e sem problemas ambientais e efeitos colaterais. O modelo CHweed utiliza imagens da
banda do visível (RGB) que podem ser adqueridas por uma RPA simples de baixo custo. A
aplicação desse modelo na detecção de espécies invasoras pode permitir o desenvolvimento
de ferramentas e robôs para destruir espécies invasoras, fazendo com que minimize a
necessidade de herbicidas. Existem alguns exemplos de estudos utilizando o método CHweed
com o uso de RPA, como, por exemplo, o trabalho desenvolvido por Stroppiana et al. (2018)
onde foi realizado o levantamento de espécies invasoras em um cultivo de arroz, em especial
a grama de capoeira (Echinochloa spp.) e beldroega comum (Portulaca oleracea L.)
conforme ilustrado na Figura 17.
Figura 17. Contexto e fotos detalhadas do campo de arroz objeto deste estudo: (a) condições gerais, com
arbustos de colza distribuídos sobre a área do campo; (b) espécies invasoras de capim; (c) zoom sobre a planta de
colza; d) planta invasora comum. Fonte: Stroppiana et al. (2018).
25
Outro exemplo de estudo que utilizou o modelo CHweed através de imagens de RPA, foi
o trabalho desenvolvido por Castro et al. (2018) no qual os autores identificaram as espécies
invasoras das culturas de girassol (Figura 18) e de algodão (Figura 19) através do método de
altura do dossel de espécies invasoras (CHweed).
Figura 18. Visão geral das três culturas de flores de girassol estudadas em estágio inicial: (a) S1–16; (b) S1-17;
(c) S1–17. Fonte: Castro et al. (2018).
Figura 19. Visão geral das duas culturas de algodão estudadas no estágio inicial: (a) C1-16, (b) C2–16. Fonte:
Castro et al. (2018).
Existem outros métodos usados na identificação de espécies invasoras em cultivos
agrícolas com o uso de RPA, por exemplo, cita-se o Machine Learning (ML) que entre outras
definições, é definido como o campo científico que dá às máquinas a capacidade de aprender
sem ser estritamente programado (LIAKOS et al., 2018). Dois estudos sobre aplicações do
ML para problemas na detecção de espécies invasoras na agricultura foram apresentados. No
primeiro estudo realizado por Pantazi et al. (2017), os autores apresentaram um novo método
26
baseado em contra-propagação (CP) -ANN e imagens multiespectrais capturadas por RPAs na
identificação de Silybum marianum, uma planta invasoras que é difícil de erradicar e causa
grande perda no rendimento da cultura. No segundo estudo por Pantazi et al. (2016), os
autores desenvolveram um novo método baseado em técnicas ML e imagens hiperespectrais,
para reconhecimento de espécies de espécies invasoras. Mais especificamente, os autores
criaram um sistema ativo de aprendizagem para o reconhecimento do milho (Zea mayas),
como espécies de plantas cultivadas e Ranunculus repens, Cirsium arvense, Sinapis arvensis,
Stellaria media, Tarraxacum officinale, Poa annua, Polygonum persicaria, Urtica dioica,
Oxalis europaea e Medicago lupulina como espécies de espécies invasoras. O objetivo
principal era o reconhecimento e discriminação precisos dessas espécies para fins econômicos
e ambientais. No estudo desenvolvido por Binch e Fox (2017), os autores desenvolveram um
método de detecção de espécies invasoras baseado no SVM (Support Vector Machines) em
culturas de gramíneas.
Nos últimos anos, aeronaves remotamente pilotadas (RPA) e sensoriamento remoto por
satélite, têm sido empregados para detecção e mapeamento de espécies invasoras,
principalmente o uso de RPAs (RICHARDSON et al., 2016; WILDENHAIN et al., 2015). No
entanto, é difícil obter um resultado satisfatório por causa da resolução espacial insuficiente
das imagens de sensoriamento remoto por satélites. Hoje, a insuficiência da resolução espacial
pode ser resolvida apropriadamente usando a tecnologia de sensoriamento remoto baseada em
RPAs. As RPAs podem voar em baixa altitude e capturar imagens de alta de resolução
espacial, o que pode melhorar significativamente a precisão geral do mapeamento das
espécies invasoras (LIAKOS et al., 2018). Peñrez-Ortiz et al. (2015) utilizaram as imagens de
RPA para o mapeamento de espécies invasoras na agricultura, com um excelente desempenho
obtido através de uma abordagem semissupervisionada. Castaldi et al. (2017) aplicaram
imagens multiespectrais de RPA para classificação de milho/espécies invasoras. Os resultados
de classificação utilizados no manejo de espécies invasoras do campo de milho levaram a uma
diminuição no uso de herbicida sem conseqüências negativas em termos de produtividade das
culturas (LIAKOS et al., 2018; HUANG et al., 2018).
A detecção de espécies invasoras nos campos de cultivo é uma tarefa difícil. Esta tarefa
é ainda complexa em campos de arroz, devido ao fato de que o arroz e as ervas daninhas
compartilham semelhanças nas características espectrais e aparência geral, e devido à
variabilidade e mudanças nas condições nos campos de arroz (STROPPIANA et al., 2018).
27
Mesmo usando o método OBIA (Object-based Image Analysis), o mapeamento preciso de
espécies invasoras ainda é uma tarefa desafiadora. Nos últimos anos, os métodos de
aprendizado de máquina foram aplicados com sucesso no mapeamento baseado em imagens
de RPA. Alexandridis et al. (2017) aplicaram quatro classificadores de detecção de novidade
para detecção de espécies invasoras e mapeamento de Silybum marianum com base em
imagens multiespectrais de RPA, e a precisão de identificação usando a Máquina de Vetor de
Suporte de Uma Classe (OC-SVM) alcançou uma precisão geral de 96%. Tamouridou et al.
(2017) usaram o Perceptron Multicamada com Determinação de Relevância Automática
(MLP-ARD) para identificar o S. marianum entre outras vegetações com base no
sensoriamento remoto com RPA, e a taxa de identificação do S. marianum foi de até 99,54%
(HUANG et al., 2018).
2.5.2 Espécies invasoras em áreas com vegetação remanescente
Espécies invasoras são consideradas espécies não nativas que se estabelecem e se
dispersam em sua nova localização, gerando um impacto negativo nos serviços
ecossistêmicos, na economia e no bem-estar social, representando a segunda causa mais
importante na extinção de espécies nativas em áreas protegidas (MORAIS et al., 2017), que
visam salvaguardar a biodiversidade e garantir a persistência do patrimônio natural (LÓPEZ;
PÁZMÁNY, 2019). No caso de árvores e arbustos invasores, freqüentemente formam
coberturas densas que reduzem os recursos hídricos superficiais, diminuem a diversidade
biológica e aumentam os riscos de incêndio (RICHARDSON et al., 1987).
Na Europa, são listadas mais de 12.000 espécies exóticas, das quais 10% a 15% são
invasivas, com um custo estimado de 12 bilhões de euros por ano. Estes números levaram o
Parlamento Europeu a adoptar nova legislação para prevenir e gerir esta ameaça. Em Portugal,
mais de 600 espécies exóticas foram catalogadas, o que corresponde a 18% do total da flora
portuguesa continental. Oito por cento dessas espécies exóticas são consideradas invasoras e
ameaçam a flora e a biodiversidade nativas (ALVAREZ-TABOADA et al., 2017). No Brasil
as características biológicas que levaram com que as gramíneas se comportassem como
espécies invasoras se devem por elas serem heliófilas, possuirem metabolismo C4 e serem
adaptadas a colonizar áreas abertas e ensolaras. Além disso, também possuem alta eficiência
fotossintética e na utilização dos nutrientes, sobrevivendo em solos menos férteis. Apresentam
altas taxas de crescimento, rebrotamento e regeneração, além de alta tolerância ao
28
desfolhamento e à herbivoria. Essas características fazem com que sua eficiência reprodutiva
seja alta, com ciclo reprodutivo rápido, com intensa produção de sementes com alta
viabilidade, que formam um banco de sementes denso, com alta capacidade de dispersão por
sementes anemocóricas e por reprodução vegetativa e alta capacidade de germinação
(COUTINHO 1982; BARUCH et al., 1985; D’ANTONIO; VITOUSEK 1992; FREITAS
1999; PIVELLO et al., 1999a).
As gramíneas introduzidas no Brasil que se tornaram as principais espécies invasoras
deste gênero são: capim-jaraguá (Hyparrhenia rufa), o gênero das braquiárias (Urochloa
spp.), o capim-colonião (Panicum maximum) (Figura 20). Estas espécies são originárias da
África do Sul e da África Ocidental. Elas foram introduzidas acidentalmente ou para fins
comerciais e se espalharam por grandes extensões de ecossistemas antropizados, deslocando
espécies nativas graças à sua agressividade e ao seu grande poder competitivo hoje se
comportando como espécies exóticas invasoras (PIVELLO et al., 1999a; MATOS; PIVELLO,
2009).
Figura 20. Espécies invasoras do gênero gramínea. A) Panicum maximum; B) Hyparrhenia rufa; C) Urochloa
spp. Fonte: figura A (Tropicalforages, em
http://www.tropicalforages.info/key/forages/Media/Html/entities/panicum_maximum.htm); figura B (Wikipedia,
em https://en.wikipedia.org/wiki/Hyparrhenia_rufa); figura C (Feedipedia, em
https://www.feedipedia.org/node/489).
29
Pivello et al. (1999b) e Pivello (2011) desenvolveram alguns trabalhos no Cerrado onde
Melinis minutiflora e Urochloa ssp. foram associadas negativamente e exercem uma forte
concorrência com a comunidade nativa herbácea. A abundância destas espécies é maior nas
fronteiras da reserva, trilhas e onde a terra foi remexida, mas sempre em áreas abertas ou com
pouca vegetação arbórea. Há evidências que Melinis minutiflora se estabelece primeiro nas
áreas, sendo seguida por Urochloa ssp. que é mais agressiva e ao se estabelecer é capaz de
alcançar o interior dos fragmentos de vegetação remanescente.
30
3 CAPÍTULO 1: AERONAVE REMOTAMENTE PILOTADA
(DRONE) DE BAIXO CUSTO NO ESTUDO DE PLANTAS
INVASORAS EM ÁREAS DE CERRADO
RESUMO: O objetivo desse capítulo foi analisar se o método CHIS+GPS/GLONASS (Canopy Height Invasive
Species) representa uma rotina de classificação assertiva na identificação de espécies invasoras a partir de
imagens RGB em área de Cerrado com evidência de perturbação. A metodologia empregada foi a produção dos
modelos de elevação MDS e MDT a partir das imagens coletadas em campo com drone e posteriormente
processadas no software PhotoScan. A produção do CHIS+GPS/GLONASS foi a partir da subtração dos
modelos MDS e MDT. Para aferir a precisão do modelo CHIS+GPS/GLONASS foi gerado dois modelos
convencionais para comparação: classificação não supervisionada K-means e índice de vegetação NGRDI. A
comparação entre os modelos se deu em duas áreas amostrais escolhidas de forma não aleatória. Ao final foi
aplicado teste de acurácia, correlação de Spearman, taxa de erro geral, overall error rate, especificidade,
sensibilidade e Cohen’s Kappa. Os resultados demonstram que o modelo CHIS+GPS/GLONASS obteve os
melhores resultados na identificação de espécies invasoras quando comparado com os modelos K-means e
NGRDI. Os testes de acurácia para o modelo CHIS+GPS/GLONASS na área amostral 1 e 2 foi de 0.973 e 0.9
respectivamente; K-means 0.209 e 0.6; NGRDI 0.795 e 0.518. O modelo CHIS+GPS/GLONASS demonstrou
ser promissor na identificação de espécies invasoras em áreas perturbadas quando comparado com modelos
convencionalmente usados.
Palavras-chave: ARP; gestão ambiental; sensoriamento remoto; CHIS
REMOTELY PILOTED AIRCRAFT (DRONE) OF LOW COST IN THE
INVASIVE SPECIES STUDY IN CERRADO AREAS
ABSTRACT: The objective of this chapter was to analyze if the CHIS+GPS/GLONASS (Canopy Height
Invasive Species) method represents an assertive classification routine in the identification of invasive species
from RGB images in Cerrado area with evidence of disturbance. The methodology used was the production of
the MDS and MDT elevation models from the images collected in the drone field and later processed in the
PhotoScan software. The production of the CHIS+GPS/GLONASS was based on the subtraction of the MDS
and MDT models. To verify the accuracy of the CHIS+GPS/GLONASS model two conventional models were
generated for comparison: unsupervised K-means classification and NGRDI vegetation index. The comparison
between the models occurred in two sample areas chosen in a non-random manner. At the end was applied
accuracy test, Spearman correlation, specificity, sensitivity and Cohen's Kappa. The results demonstrate that the
CHIS+GPS/GLONASS model obtained the best results in the identification of invasive species when compared
with the K-means and NGRDI models. The accuracy tests for the CHIS+GPS/GLONASS model in sample area
1 and 2 were 0.973 and 0.9 respectively; K-means 0.209 and 0.6; NGRDI 0.795 and 0.518. The
CHIS+GPS/GLONASS model has been shown to be promising in the identification of invasive species in
disturbed areas when compared to conventionally used models.
Keywords: RPA; environmental management; remote sensing; CHIS
31
3.1 INTRODUÇÃO
As aeronaves remotamente pilotadas (RPA), popularmente conhecidas como drones,
tiveram uma evolução rápida na última década, tanto para fins militares como para uso civil
(IVOSEVIC et al., 2015). O processamento de dados derivados de RPA está em rápida
evolução e é utilizado em uma ampla gama de pesquisas geoespaciais, incluindo a gestão de
recursos naturais (GINI et al., 2018). As RPAs de baixo curso apresentam boa relação custo
versus benefício, para a pesquisa e monitoramento ambiental devido à sua facilidade de uso,
versatilidade e sua capacidade de coletar dados de áreas, que de outra forma são de difícil
acesso (EVANS et al., 2015; GINI et al., 2018; STARK et al., 2018). Por conta da baixa
altitude operacional de voo realizada em missões com RPA, as imagens aéreas capturadas são
de altíssima resolução espacial (PENG et al., 2015; STARK et al., 2018). Além disso, o baixo
custo dessas plataformas, juntamente com a variedade de sensores disponíveis, torna a RPA
adequada para ser utilizada em muitas situações em que um meio tradicional (satélites e
aviões tripulados) seria de alto custo financeiro (STARK et al., 2018).
Os sensores mais comuns acoplados às RPAs são câmeras digitais convencionais que
registram dados na faixa do espectro visível (RGB), oferecendo vantagens sobre outras
plataformas de sensoriamento remoto. Estes sensores possuem capacidade de gerar imagens
de alta resolução em escalas temporais flexíveis, tornando as RPAs adequadas para preencher
a lacuna entre os dados contidos em amostras de campo de pequena escala e a necessidade de
compreensão de padrões da paisagem em áreas extensas (ZHANG et al., 2015; STARK et al.,
2018).
Em particular, os Sistemas de Aeronaves Remotamente Pilotadas (SRPA) já deram
provas de serem plataformas apropriadas para o planejamento urbano, agrícola e ambiental,
dentre outras finalidades (KANEKO; NOHARA, 2014). Configurações compostas por
câmeras digitais padrão e multiespectrais propiciaram resultados promissores em estudos de
florestas do Mediterrâneo (PENG et al., 2015), áreas de pastagens áridas (RANGO et al.,
2009; LALIBERTE et al., 2011), leitos de musgo antártico (LUCIEER et al., 2012; TURNER
et al., 2014) e plantas daninhas aquáticas (GOKTOGAN et al., 2010). As RPAs têm potencial
para mapear e monitorar ecossistemas ameaçados e espécies de espécies invasoras ou
dominantes (HARDIN et al., 2007; BAENA et al., 2017), e também podem ser usadas na
coleta de informações durante desastres ambientais, no gerenciamento e monitoramento de
rios e aterros, e na medição e levantamento topográfico (KANEKO; NOHARA, 2014). Além
32
disso, existe o potencial deste sistema para aplicações ambientais e de conservação, que
incluem mapeamento quase em tempo real da cobertura da terra local, monitoramento de
atividades florestais ilegais, como por exemplo, extração de madeira e incêndios (KOH;
WICH, 2012).
Devido ao baixo custo e ao aumento da capacidade das RPAs, em termos de produção
de ortomosaicos e de modelos digitais da superfície, pesquisadores começaram a explorar essa
tecnologia para mapeamento de espécies invasoras (MICHEZ et al., 2016; DVORÁK et al.,
2015; HUNG et al., 2014; WAN et al., 2014; KNOTH et al., 2013; PEÑA et al., 2013;
ZAMAN et al., 2011). Trabalhos anteriores sobre o mapeamento de espécies invasoras com
RPA exploraram produtos baseados na classificação de pixels (WAN et al., 2014; ZAMAN et
al., 2011), detecção de objetos (MICHEZ et al., 2016; HUNG et al., 2014; KNOTH et al.,
2013; PEÑA et al., 2013) e métodos de classificação através da altura do dossel (MATESE et
al., 2017; STROPPIANA et al., 2018; ZILIANI et al., 2018; VILJANEN et al., 2018; DE SÁ
et al., 2018; MARTIN et al., 2018) para identificar as espécies de interesse das imagens
adquiridas.
O objetivo deste capítulo é analisar se o método CHIS (Canopy Height Invasive
Species) alinhado ao GPS/GLONASS da RPA é a rotina de classificação mais assertiva na
identificação de espécies invasoras a partir de imagens RGB obtidas com um RPA de baixo
custo. Em particular, os principais objetivos são: i) classificar mosaico de imagens aéreas da
área com vegetação remanescente de Cerrado a partir de modelos convencionais de
identificação das diferentes classes de uso da terra (solo exposto, vegetação remanescente e
espécie invasora), na tentativa de identificar as espécies invasoras específicas do local
(Urochloa ssp), através da classificação não supervisionada K-means e do índice de vegetação
NGRDI como um parâmetro comparativo com o modelo CHIS+GPS/GLONASS; ii) gerar o
modelo CHIS+GPS/GLONASS a partir dos modelos MDS (Modelo Digital da Superfície) e
MDT (Modelo Digital do Terreno), e caracterizar os padrões espaciais da altura da planta
invasora Urochloa ssp a partir de dados coletados em campo visando apoiar a estratégia de
identificação e validação dos resultados do modelo CHIS+GPS/GLONASS; iii) relacionar os
resultados dos diferentes métodos de parâmetro comparativo e fornecer informações de alto
nível que demonstrem qual a precisão do modelo CHIS+GPS/GLONASS na identificação de
espécies invasoras.
33
3.2 METODOLOGIA
3.2.1 Área de estudo
A área de estudo localiza-se na Universidade Federal de Rondonópolis (Figura 21), em
Rondonópolis, Mato Grosso, Brasil. O local estudado apresenta elementos de vegetação
remanescente de Cerrado stricto sensu, locais com solo exposto e áreas com avançada
presença de espécies invasoras, predominantemente a espécie Urochloa ssp. A área estudada
abrangeu três hectares.
Figura 21. Localização geral da área de estudo. Em a) sítio experimental com o ortomosaico de imagens obtidas
pelo RPA. Sistema de Coordenadas UTM, SIRGAS 2000, 21S.
As demais características, como classe de solo, clima, temperatura e a precipitação
média anual, longitude e latitude, bioma e altitude do local de estudo são apresentadas na
Tabela 4.
34
Tabela 4. Dados de latitude, longitude, tipo de solo, precipitação e temperatura média anual, clima e altitude da
área de estudo.
Fonte: dados de Temperatura e Precipitação (SOUZA et al., 2013); dados de clima (PEEL et al., 2007);
dados de solo (EMBRAPA, 2006). Legenda: CWA (Clima Subtropical Úmido).
3.2.2 RPA e sensor
A plataforma de Aeronave Remotamente Pilotada (RPA) usada neste estudo foi um
multirotor DJI Phantom 4 Pro (Figura 22). A RPA Phantom 4 Pro pode ser conectada via
datalink a um controle remoto, pelo qual é possível monitorar o status do voo da RPA e
enviar instruções da missão do trajeto de voo via aplicativo, que neste caso foi o DroneDeploy
(disponível em: https://support.dronedeploy.com/lang-pt-BR). Os detalhes das especificações
da plataforma RPA usada neste estudo estão descritos na Tabela 5.
Tabela 5. Especificação da plataforma RPA usada neste estudo. Fonte: informações coletadas no manual do
usuário.
Figura 22. Multirotor DJI Phantom 4 Pro usado para fotografias no campo de estudo (a). Central controle
remoto (b). Sensor câmera GoPro (c).
Precipitação Temperatura
Cerrado 293 m 16°27'40'' 54°34'52'' CwaLatossolo Vermelho
Distrófico1500 mm 25°C
Média AnualBioma Altitude Latitude Longitude Classe de SoloClima
US$1.499,00
Itens
Preço aproximado de mercado
DJI Phantom 4 Pro
VTOL
-
6000 m
72 km/h
2 km - 7 km
2.4 GHz
1388 g
Frequência do link de rádio
Peso máximo de decolagem
Tempo máximo de vôo 30 min
Altura máxima de vôo
Velocidade máxima de vôo
Alcance do link de rádio
Especificação
RPA
Propulsor
Cobertura máxima à 2000 m
35
A câmera do Phantom 4 Pro possui 20 MP e seu sensor é denominado de CMOS. Esse
sensor capta os comprimentos de onda na faixa do vermelho (635 nm), verde (520 nm) e azul
(450 nm), conhecido por RGB. A câmera fica acoplada a um gimbal na parte inferior da
fuselagem do RPA. As especificações da câmera do Phantom 4 Pro estão descritas na Tabela
2. O sensor CMOS pode capturar e armazenar simultaneamente uma imagem RGB de 5472 x
3648 pixels. As imagens contêm dados de iluminação para calibrar a irradiância em dias
ensolarados ou nublados e dados do Global Navigation Satellite System (GNSS).
Tabela 6. Especificações do sensor acoplado à RPA usada na campanha de campo.
3.2.3 Aquisição e processamento das imagens RGB
A RPA foi configurada para voar automaticamente sobre o campo experimental usando
um controlador de voo automático enquanto rastreava waypoints de acordo com o trajeto de
voo pré-programado gerado no programa DroneDeploy (Figura 23), que disponibiliza a
ferramenta por 14 dias grátis. Uma sequência de imagens sobrepostas foi coletada em cada
missão de voo para cobrir todo o campo experimental. A trajetória de voo foi projetada para
garantir a sobreposição de imagens de pelo menos 70% de sobreposição lateral e 70% de
sobreposição frontal. As diferentes condições do ambiente durante o voo na coleta das
imagens digitais de sensoriamento remoto, assim como outras informações do voo, estão
tabuladas na Tabela 7.
Tabela 7. Detalhes gerais no voo para aquisição das imagens de campo.
Faixa espectral (nm) 400-700
Comprimento focal 24 mm
Liberação do obturador Obturador de rolamento eletrônico
Detectores de foto por sensor (MP) 20 MP
Bandas espectrais R-G-B
Sensor CMOS
Resolução (pixels) 5472 x 3648
Características Câmera
Tipo de câmera RGB
Data
Altitude
do Voo
(m)
Velocidade do
Vôo (ms-1
)
Área
Fotografada
(ha)
Quantidade
de Imagens
Sobreposição
Lateral e
Frontal
Resolução
Espacial (cm)Hora do Vôo Iluminação
Velocidade do
Vento (ms-1
)
16/02/2019 40 10 3 225 70% 1.2 09:53 Nublado 1,94
36
Figura 23. Plano de voo no programa DroneDeploy com as rotas de passagem da RPA Phantom 4 Pro emosaico
de imagens fotografadas pela RPA.
A partir das imagens RGB adquiridas em campo pela RPA, foi gerado o ortomosaico
por meio do programa Agisoft Photoscan Profissional (version 1.4.0, Agisoft, St. Petersburg,
Russia). Uma malha de polígonos foi computada a partir da nuvem densa de pontos 3D
(Figura 24) e os valores de pixel de cada imagem foram então projetados na malha para criar
um ortomosaico (Figura 25). Quando combinado com posições de GNSS, este processo
permite a criação de uma ortofoto de alta resolução no formato GeoTIFF, ortoretificada com 3
camadas (RGB).
Figura 24. Ortomosaico da área de estudo em 3D a partir da nuvem de pontos.
37
Figura 25. Mosaico ortoretificado da área de estudo com três camadas do RGB.
3.2.4 Conferência de dados em campo
Coletou-se dados de referência compostos por pontos e medidas, rotulados como
Urochloa ssp. Foi utilizada trena métrica para estabelecer a altura média das espécies
invasoras encontradas no local de estudo (Figura 26) e diferenciá-las da vegetação
remanescente para validação dos dados da altura do dossel das espécies invasoras (CHIS).
Um total de 37 pontos aleatórios com medidas das alturas da Urochloa ssp. foram coletados
em campo (Figura 27).
Figura 26. Medidas da altura da Urochloa ssp. através de uma régua de medidas e coleta dos pontos geográficos
com um GPS nos locais nos quais foram recolhidas as medidas da altura do dossel das espécies invasoras.
38
Figura 27. Conjunto de dados de referência extraído em campo. Pontos em vermelho se referem aos locais com
presença de Urochloa ssp. Os valores informados para cada ponto se referem à altura em centímetros (cm).
3.2.5 Índices de vegetação (IV)
Dadas as configurações de banda específicas da câmera, o IV utilizado deve ser aquele
que atenda as configurações de banda RGB (Tabela 3). Foram testados três índices de
vegetação: NGRDI (Normalized Green-Red Difference Index), ExG (Excess Green) e o CIVE
(Color Index of Vegetation Extraction). O índice escolhido foi o NGRDI, pois obteve melhor
resultado visualmente quanto à classificação através de imagens RGB. O índice NGRDI
fornece indicações da variabilidade espectral dos dosséis da vegetação no plano horizontal (LI
et al., 2016). Este índice de vegetação foi originalmente proposto devido ao seu potencial na
discriminação espectral de espécies invasoras em cultivos (BARRERO; PERDOMO, 2018;
DAVID; BALLADO, 2016). O cálculo do índice NGRDI assim como a plotagem do índice
foi realizado no software R (R CORE TEAM, 2018) com os pacotes raster (HIJMANS,
2017), grDevices (R CORE TEAM, 2018) e RColorBrewer (NEUWIRTH, 2014).
Tabela 8. Índices de vegetação testados neste estudo. R, G e B são os valores de reflexão das bandas vermelha,
verde e azul, respectivamente.
Índice Nome Fórmula Referência
NGRDI Índice de diferença verde-vermelho normalizado (G - R) / (G + R) Gitelson et al. (2002)
39
3.2.6 Classificação não supervisionada
Foram testados três modelos de classificação não supervisionadas: Classificação k-
means, Random Forest e Clara (Clustering for Large Applications). A classificação que
obteve a melhor resposta na diferenciação entre espécies invasoras e vegetação remanescente
foi a k-means, e por este fato optou-se por usá-la neste estudo. A variação intra-cluster é
calculada como a soma da distância euclidiana entre os pontos de dados e seus respectivos
centroides de cluster (VISHWANATH et al., 2016). O cálculo da classificação k-means foi
realizado no software R. Os pacotes utilizados foram raster (HIJMANS, 2017) e cluster
(MAECHLER et al., 2018).
3.2.7 Altura da copa de espécies invasoras CHIS+GPS/GLONASS
A altura do dossel de espécies invasoras foi estimada pela diferença matemática do
Modelo Digital de Superfície (MDS) e do Modelo Digital do Terreno (MDT). O MDS foi
gerado no software Agisoft Photoscan Profissional versão 1.4.0, a partir dos valores das
medidas do GNSS (Global Navigation Satellite System) localizadas no EXIF das imagens
capturadas pelo Phantom 4 Pro em campo.
O MDS é obtido a partir da nuvem densa de pontos. A nuvem densa de pontos é uma
função a qual a partir dos dados de coordenadas geográficas inseridas nas fotos, produz um
modelo 3D. A produção do MDT consistiu em classificar a nuvem densa de pontos no Agisoft
Photoscan, para excluir os elementos acima do solo. Feito este procedimento, o passo seguinte
consistiu em aplicar um “smoth mesh”, função do PhotoScan para corrigir erros e deixar a
malha mais refinada. Com a malha pronta, foi realizado o procedimento de “build DEM” nas
ferramentas do PhotoScan, entretanto não se utilizou da nuvem de pontos como base de
cálculos. Para este procedimento foi utilizado a malha (points of ground) como base para o
cálculo do MDS para gerar o MDT.
Ao final do processo de produção dos modelos MDS e MDT, foi gerado um relatório no
PhotoScan de erros de acurácia posicional nos eixos X, Y e Z para saber se houve muita
diferença nos valores dos eixos comparado com os dados avaliados em campo, uma vez que
esta pesquisa simulou uma rotina sem a correção de erros com RTK (GPS geodésico). Sendo
assim, a pesquisa forneceu dados de calibração do modelo apenas com o sistema GNSS.
Para calcular o modelo de altura de dossel (CHM Canopy Height Model) foi necessário
calcular a subtração do MDT e do MDS no software R. A partir do CHM foi possível
40
identificar os diferentes substratos da vegetação e selecionar apenas as informações que
estivessem no limite da altura estabelecida para as espécies invasoras (modelo
CHIS+GPS/GLONASS), que neste caso foram definidos como valores mínimos de 49 cm e
valores máximos de 110 cm para Urochloa ssp., conforme dados levantados em campo.
Entretanto, também optou em definir valores diferentes aos observados em campo, para mais
e para menos, para considerar as possíveis diferenças no modelo (erros), desta maneira, foi
informado ao programa para selecionar valores que compreendam desde 20 cm até 140 cm.
A comparação do modelo CHIS+GPS/GLONASS entre os modelos k-means e NGRDI
foi através de duas áreas amostrais que possuíam todos os elementos necessários para
comparação e que não fugiam da finalidade deste estudo.
A Figura 28 ilustra a metodologia desenvolvida até este tópico, incluindo a aquisição de
imagens de RPA e os dados em campo para aferição, como também o processamento de
dados para estimar e validar os atributos da vegetação e a integração visual dos atributos de
dados para determinar qual o melhor modelo na identificação de espécies invasoras.
Figura 28. A metodologia inclui três etapas principais. O primeiro passo, na cor azul, é a aquisição dos dados na
área experimental. As caixas na cor verde constituem o processamento particular dos dados. Finalmente, o
terceiro passo é a integração dos dados de processamento para obter o resultado principal da análise.
3.2.8 Avaliação da precisão: teste de acurácia, correlação e Cohen’s Kappa
Para calibrar e validar a classificação do modelo CHIS+GPS/GLONASS e dos modelos
comparativos k-means e NGRDI, foi necessário gerar um raster de classificação
supervisionada da área estudada. Essa rotina resultou em duas classes: ausência de espécies
41
invasoras (aqui pode ser considerado a vegetação remanescente) sendo valor 1 e a presença de
espécies invasoras como valor 2. Os demais modelos (CHIS+GPS/GLONASS, k-means e
NGRDI) foram todos reclassificados em apenas duas classes (presença ou ausência de
espécies invasoras) assim como os dados de referência. A reclassificação foi realizada através
da interpretação dos resultados dos modelos, identificando quais valores se referiam às
espécies invasoras e quais valores eram atribuídos a outras classes.
O teste visou comparar apenas duas áreas amostrais (Figura 29). A técnica consistiu em
recolher 1000 pontos amostrais, os quais foram gerados aleatoriamente (os pontos são os
mesmos para todos os modelos avaliados) para cada área amostral da área de estudo (FENG et
al., 2015; LEHMANN et al., 2017; MÜLLEROVÁ et al., 2017b; de SÁ et al., 2018). A
precisão da estimativa foi quantificada usando Coeficientes de Correlação de Spearman
(SCC), Precisão Geral (OAR) e Coeficiente Kappa de Cohen (K).
Figura 29. Áreas amostrais usadas para os testes de acurácia e matriz de confusão Kappa.
A identificação visual dos pontos de calibração/validação foi realizada usando o
software R 3.5.1. Pacotes usados para: (i) reclassificação dos dados raster, classificação
supervisionada, extração dos dados para análise de acurácia foram usados os pacotes raster
(HIJMANS; 2017), pacote rgdal (BIVAND et al., 2018) e pacote shapefiles (STABLER,
2013); (ii) testes de acurácia e índice Kappa foram usados os pacotes rcompanion
(MANGIAFICO, 2019), caret (KUHN, 2018) e forecast (HYNDMAN, 2019).
42
3.3 RESULTADOS
3.3.1 Modelo de altura do dossel (CHM)
Os valores das alturas compreendem a partir do nível do mar, que foram 281 a 298
metros no MDS e 281 a 288 metros no MDT (Figura 30).
Figura 30. Modelo digital de superfície (a), e modelo digital do terreno (b), gerados a partir de mosaico de
imagens aéreas derivadas de aeronave remotamente pilotada. Os valores de altimetria são considerados a partir
do nível do mar.
O MDT e o MDS estão ilustrados na Figura 31 e 32 respectivamente. O MDT, em uma
primeira análise, destaca-se por apresentar uma diferença anormal nas medidas de altitude,
localizada na parte superior direita, uma diferença de altitude entre 3 a 5 metros (Figura 32).
43
Figura 31. Modelo 3D do modelo digital de superfície (MDS).
Figura 32. Modelo 3D do modelo digital do terreno (MDT).
As altitudes da vegetação variaram desde valores negativos (-4 m) até valores
positivos (14 m). Considera-se vegetação apenas os valores positivos que compreendem desde
0 metros até 14 metros (Figura 33).
44
Figura 33. Altura do dossel das linhas de vegetação com um histograma de densidade de frequência.
O MDT, em uma primeira análise, destaca-se por apresentar uma diferença anormal nas
medidas de altitude, localizada na parte superior direita, uma diferença entre 3 a 5 metros.
Estes valores podem estar relacionados aos erros no algoritmo que interpola os pontos
homólogos e as imagens para produção do MDT. Além disso, pode também estar relacionada
com a menor sobreposição de fotografias (menos pontos homólogos) principalmente nas
bordas da área de estudo, onde ocorre uma menor sobreposição (Figura 34).
Figura 34. Locais da câmera e sobreposição das imagens.
45
Na Figura 35, apresenta-se o CHM com as medidas definidas e representadas com
diferentes cores. A escala de cores representa os valores referentes a escala de 0,00 m até 15
m. Estes valores se referem as diferentes alturas de dossel da vegetação presentes na área
analisada. A escala a partir do valor de 0,00 m, compreendendo a cor branca, refere-se a
classe de solo exposto. Este valor pode variar até os 15 cm, podendo ser considerado solo
exposto ou vegetação de pequenas proporções. A partir destes resultados, numa primeira
análise, não é possível separar o solo exposto de espécies invasoras de pequena altura (0,20
cm). Para tanto é necessário realizar uma seleção dos valores de interesse a partir do modelo
CHM que corresponda as espécies invasoras (CHIS+GPS/GLONASS).
Figura 35. CHM com escala de valores referentes à altura do dossel.
Na Figura 36a tem-se o histograma da distribuição da altura do dossel da vegetação do
campo de estudo. As alturas mais frequentes estão entre 0,01 m a 1,00 m, que podem ser
consideradas como sendo o solo exposto, a vegetação de pequeno porte em recuperação e a
grande parte por Urochloa ssp. O boxplot demonstrou máximas de 14,5 metros, mínima de
0,0 metros, mediana de 1,0 metro e a média de 2,0 metros. Para estes cálculos foram
desconsiderados os valores negativos. Na Figura 36c, foi realizado um corte transversal,
conforme imagem em miniatura (canto superior direito), onde foram extraídas as informações
de altura do dossel, que estão representadas no gráfico de variação de altura do dossel. O
46
gráfico demonstra que onde a linha transversal passou, existe uma grande heterogeneidade nas
alturas de dossel, demonstrando que há um ambiente com uma grande diversidade de espécies
com diferentes alturas de dossel.
Figura 36. a) Histograma de distribuição de frequência para as diferentes alturas de dossel; b) boxplot; c) corte
transversal do CHM.
3.3.2 Classificador k-means e índice de vegetação NGRDI
O modelo de classificação não supervisionada k-means gerou três diferentes classes,
que foram numeradas em ordem crescente, e o índice de vegetação NGRDI gerou os valores
na escala de 1 a -1 (Tabela 9).
Tabela 9. Classe e respectivo valor de referência para o classificador k-means e o índice de vegetação NGRDI.
O classificador k-means (Figura 37a) não demonstrou assertividade na diferenciação
entre espécies invasoras (classe 2) e outras classes mapeadas. Pode ser observado que os
pixels na cor marrom, os quais representam o solo exposto (classe 3), estão confusamente
Classificador Índice Vegetação
k-means NGRDI
Vegetação Remanescente 1 0.25 a 1
Espécie Invasora 2 0 a 0.25
Solo Exposto 3 -0.10 a -1
Classe
47
presentes nas áreas onde há presença quase que total de espécies invasoras e vegetação
remanescente. Esta (na cor verde oliva), por sua vez, ocupou locais onde a presença
majoritária era de espécies invasoras, conforme pode ser visualizado na área circundada com
linha em cor vermelha no mosaico (Figura 37c). A identificação de áreas com espécies
invasoras é incerta, pois contrasta com outras classes. A classificação NGRDI gerou valores
de -1.00 a 1.00, onde os valores negativos representam os locais onde há pouca ou quase
nenhuma vegetação (solo exposto) e os valores próximos de 1 indicam maior presença de
vegetação (maior área foliar) (Figura 37b). O índice NGRDI estima a presença de vegetação a
partir da área foliar (ELAZAB et al., 2015), quanto maior forem os valores na escala positiva
do índice NGRDI maior a presença de vegetação e de biomassa (ELAZAB et al., 2015;
MOTOHKA et al., 2010; HUNT et al., 2005).
Figura 37. a) Classificação k-means com 3 diferentes classes; b) índice de vegetação NGRDI com escala de
valores de -1 a 1; c) mosaico para comparação.
48
3.3.3 Análise do modelo de dossel de espécies invasoras (CHIS+GPS/GLONASS)
As alturas individuais das espécies invasoras estão ilustradas na Figura 38. Verifica-se
na Figura 38a, que o ajuste do modelo para valores a partir de 49 cm mínimos e 110 cm
máximos, acabam por remover muitas áreas em que há presença de espécies invasoras que
foram confirmadas no trabalho de campo. Na Figura 38b, o modelo foi ajustado para valores
mínimos de 20 cm e 140 cm para valores máximos, e finalmente obtiveram-se alturas que
coincidem com a realidade, entretanto, fica claro que ainda assim houve uma diferença de
altitude no modelo CHIS+GPS/GLONASS. A altura das espécies invasoras variou de 20 cm a
140 cm, e em algumas áreas houve valores inferiores ou superiores ao estimado em campo,
indicando falhas ou erros que podem estar relacionados principalmente a menor sobreposição
das imagens como também aos erros médios no eixo Z (altura).
Figura 38. Modelo de altura de dossel de espécies invasoras (CHIS+GPS/GLONASS) com as alturas extraídas a
partir do modelo CHM. a) plantas que estiveram entre as medidas de 49 cm a 110 cm; b) plantas com alturas de
dossel a partir de 20 cm a 140cm.
Os pontos coletados em campo, com as medidas mensuradas manualmente, foram
sobrepostos às áreas onde o modelo CHIS+GPS/GLONASS reconheceu como regiões com
presença de espécies invasoras, compreendendo valores desde 20 cm até 140 cm (Figura 39).
Nota-se que existe uma diferença (erro de estimativa) de até 60 cm em 29,7% dos pontos. Em
contrapartida, em outras regiões os valores são coincidentes com as medidas recolhidas em
campo, principalmente na área amostral 1 (Figura 40a). Na área amostral 2 foi onde ocorreu
maiores diferenças na altura do modelo (Figura 40b).
49
Figura 39. CHIS+GPS/GLONASS com os pontos e medidas coletadas em campo para aferição do modelo.
Figura 40. Em a) área amostral 1 e em b) área amostral 2, ambas usadas para verificar a precisão do modelo.
3.3.4 Avaliação da precisão do modelo CHIS+GPS/GLONASS em relação à
classificação k-means e índice NGRDI
Os resultados do índice de vegetação NGRDI (Figura 41a) da área amostral 1 indicam
que não está clara a distinção entre as classes de vegetação de porte arbóreo (vegetação
remanescente) e vegetação gramínea (espécie invasora). Existem alguns ruídos (pixels em cor
azul) na classificação NGRDI, alguns locais representados por pixel azul (0,5 a 1,0) relaciona-
se à vegetação remanescente, porém em alguns locais onde há presença de pixels azuis, são
locais onde predomina vegetação do porte gramíneo (Urochloa spp.), ou seja, locais onde
houve oscilação na coloração da imagem classificada (ortomosaico), foi interpretado como
sendo porte arbóreo, porém em campo constata-se que não há vegetação de grande porte, mas
apenas espécies invasoras. Na Figura 41d estão circundados os locais onde há algumas
espécies arbóreas misturadas com a Urochloa spp., os demais locais no índice de vegetação
50
NGRDI que considerou como pixels na escala de 0,5 a 1 e não estão circundados no mosaico,
considera-se como erro no logaritmo de classificação.
O classificador k-means (Figura 41b) obteve resposta muito similar quanto a
diferenciação dos extratos da vegetação quando comparado ao índice NGRDI, porém, assim
como esse, ocorre grande quantidade de ruídos que dificultam a detecção de espécies
invasoras em determinadas áreas de maneira precisa. As classes de solo exposto e espécies
invasoras em algumas áreas se misturam, o que torna difícil saber se de fato naqueles locais
há espécie invasora ou solo exposto (Figura 41b). Já o modelo CHIS+GPS/GLONASS
(Figura 41c) permitiu a detecção de espécies invasoras mais precisamente, que foram
classificadas a partir da altura do dossel (CHM+GNSS), facilitando a diferenciação entre as
três classes encontradas na área de estudo, que são a vegetação arbórea (vegetação
remanescente), as espécies invasoras (Urochloa spp.), e o solo exposto.
Figura 41. Amostra 1: análise comparativa entre índice de vegetação NGRDI (a), classificação k-means (b), e
modelo CHIS+GPS/GLONASS. Círculos em vermelho no mosaico (Figura d) representam fragmentos de
vegetação remanescente.
51
Os resultados da área amostral 2, mesmo que promissores, demonstram falhas de
maneira similar no classificador k-means (Figura 42b) e no índice de vegetação NGRDI
(Figura 42a) resultando no mesmo padrão de classificação que foi mencionado na área
amostral 1, com pouca precisão quanto a diferenciação de vegetação remanescente de
espécies invasoras. O modelo CHIS+GPS/GLONASS apresentou algumas falhas na
identificação de espécies invasoras, principalmente na área demarcada com linha vermelha no
mosaico (Figura 42d), local esse onde há alta presença de Urochloa spp. Em quase toda sua
extensão, o modelo CHIS+GPS/GLONASS classificou relativamente bem partindo de uma
análise visual, no entanto, na região inferior direita da área amostral 2, ocorreu ausência de
informação, sendo que nesse quadrante (Figura 42c e 42d) existe a presença de espécies
invasoras. Essa diferença no eixo Z (altura) está relacionada com os modelos MDS e MDT,
pois existem erros na acurácia posicional, uma vez que não foi trabalhado com GPS geodésico
(RTK), mas apenas com o GNSS do equipamento de voo (RPA).
Figura 42. Amostra 2: análise comparativa entre classificação k-means (a), índice de vegetação NGRDI (b), e
modelo CHIS+GPS/GLONASS. Mosaico para observação na Figura 42d.
52
No modelo CHIS+GPS/GLONASS para a área amostral 2, as informações que estão
abaixo de 10 cm foram excluídas, tendo em vista que foi aplicado no modelo apenas valores a
partir de 20 cm até 140 cm. O que ocorreu neste caso foi que houve diferença quanto a
elevação do terreno, erros no eixo Z (elevação) entre 0,4 m a 1,2 m (Figura 43). Isto se deve
principalmente pelo fato das informações de elevação (cota altimétrica) terem sido fornecidas
apenas pelo CHIS+GPS/GLONASS da RPA, equipamento que não possui grande precisão
quanto à elevação. Para tanto, seria necessário o uso de um RTK (Real Time Kinematic), que
não foi utilizado para este trabalho. O erro médio para o eixo Z (altura) foi de 0,751895 m,
valor que corrobora com as diferenças encontradas no modelo CHIS+GPS/GLONASS
comparado com os dados de campo. Os valores de erro do eixo X, Y e Z estão tabulados na
Tabela 10.
Figura 43. Localizações da câmera e estimativas de erros. O erro Z é representado pela cor da elipse. Os erros
X, Y são representados pela forma de elipse. Os locais estimados da câmera são marcados com um ponto preto.
Tabela 10. Erro médio para os eixos X, Y e Z. X – Longitude, Y – Latitude, Z – Altitude.
Erro X (m) Erro Y (m) Erro Z (m) Erro XY (m) Erro Total (m)
1,69044 0,799452 0,751895 1,86995 2,01546
53
3.3.5 Testes de acurácia e índice Kappa
O modelo CHIS+GPS/GLONASS obteve alta precisão ao detectar a presença de
espécies invasoras quando comparado com os demais modelos conforme pode ser visualizado
na Tabela 11, os resultados de acurácia, Kappa e correlação de Spearman.
Tabela 11. Valores de precisão obtidos para os modelos CHIS+GPS/GLONASS, k-means e NGRDI para cada
uma das áreas amostrais do local de estudo. Coeficiente de correlação de Spearman (Spearman Correlation
Coefficiente, SCC), Taxa de erro geral (Overall Error Rate, OER), especificidade (Specificity, SP), sensibilidade
(Sensitivity, SN), acurácia geral (Overall Accuracy Rate, OAR).
Área
amostral Modelo SCC OER SP SN OAR
Cohen's
Kappa
1
CHIS+GPS/GLONASS 0,89 0,03 0,90 0,99 0,97 0,89
k-means -0,13 0,79 0,12 0,75 0,21 -0,05
NGRDI 0,24 0,20 0,32 0,90 0,80 0,23
2
CHIS+GPS/GLONASS 0,78 0,10 0,87 1 0,90 0,75
k-means 0,12 0,40 0,72 0,40 0,60 0,12
NGRDI 0,16 0,48 0,78 0,38 0,52 0,13
A acurácia geral do modelo CHIS+GPS/GLONASS obteve valores de 0,973 na área
amostral 1 e 0,9 na área amostral 2, e os valores de Kappa foram 0,88 (área amostral 1) e
0,751 (área amostral 2), o que indica que o modelo CHIS+GPS/GLONASS foi preciso e
obteve resultados Kappa substanciais (VIEIRA; GARRETT, 2005; MCHUGH, 2012)
principalmente na área amostral 1, onde visualmente o modelo permitiu discriminar as
espécies invasoras em contraste com a vegetação remanescente. Já a área amostral 2, os
valores foram menores por conta das áreas onde houve diferenças significativas na altura do
modelo. A correlação de Spearman foi efetivamente alta (ASUERO et al., 2006) nas duas
áreas amostrais do modelo CHIS+GPS/GLONASS. Os menores valores de Kappa
corresponderam ao modelo k-means (-0,046 e 0,123) seguido do modelo NGRDI (0,233 e
0,127). O maior número de erros (OER) foi observado na classificação k-means (0,790, área
amostral 1). O fato de ocorrer um alto valor de erro nesse classificador se deve principalmente
pela grande quantidade de ruídos (grande número de pixels espalhados) observados nesse
modelo. O modelo NGRDI também apresentou um alto valor de erros na área amostral 2
(0,482), devido à grande abrangência desse classificador na identificação da vegetação sem
diferenciar as diferentes estruturas de dossel.
54
3.4 DISCUSSÃO
Nossos resultados ilustram que o sistema de sensores de RPA pode ser usado para
coletar dados espaciais de áreas protegidas e ou campos de cultivo, que podem ser pós-
processados para derivar estimativas de altura do dossel capazes de diferenciar as estruturas
da vegetação. As imagens da área amostral foram extraídas com base nos pontos de referência
conhecidos do GNSS e as alturas das culturas foram então estimados pelo PhotoScan. O
modelo proposto neste estudo (CHIS+GPS/GLONASS) mostrou ser mais eficiente para
diferenciar a altura do dossel da vegetação quando comparado aos modelos de classificação
por índice de vegetação NGRDI e classificador não superviosonado k-means. O modelo
CHIS+GPS/GLONASS mesmo apresentando limitações na estimativa da altura do dossel, por
ter sido trabalhado apenas com o GNSS da RPA, demostrou bons resultados. Ocorre que o
GNSS não possui alta precisão na estimativa dos eixos x, y e z, ocorrendo falhas ao ser
aplicado o logaritmo do PhotoScan, como aconteceu nos resultados da Figura 33, onde há
presença de valores negativos, apresentando oscilações na altura do terreno em locais onde
não deveriam ter aquelas medidas apresentadas.
A abordagem para o mapeamento de espécies invasoras baseado na classificação não
supervisionada k-means depende de observações in situ para validar se o classificador foi
coerente com a realidade da área classificada. Neste sentido, este método demandaria mais
tempo, recursos e maior imprecisão quando comparado ao método CHIS+GPS/GLONASS,
como pôde ser visualizado nos resultados da Tabela 11. Se observações in situ estiverem
disponíveis para realizar a tarefa de rotulagem automática, o procedimento proposto poderia
ser automatizado, fazendo com que o processo seja rápido. Os pontos de referência poderiam
ser coletados com os Smart Applications em dispositivos móveis (BORDOGNA et al., 2016)
ou fornecidos por voluntários como amostras de interpretação de imagens, como demonstrado
em vários projetos colaborativos abertos em vários campos da ciência (FRANZONI;
SAUERMANN, 2014). Um exemplo é o projeto Ground Truth 2.0, financiado pela Comissão
Européia, que usa ciência cidadã para a gestão de terras e recursos naturais (GROUND
TRUTH 2.0, 2017). Ainda assim, demandaria uma equipe maior no processo de coleta de
dados e custos elevados nesse processo de classificação, ainda assim podendo ser menos
preciso do que o modelo apresentado neste estudo.
55
Em relação ao desempenho do mapeamento de espécies invasoras a partir do índice
NGRDI, a maior precisão de classificação foi de OAR 79%, porém o Kappa foi baixo com
0,233 de acurácia. Isso demonstra que usar apenas a informação espectral da banda do visível
(RGB), mesmo quando resumida em um índice de vegetação que use dessas bandas (NGRDI),
não tem capacidade de diferenciar alvos de vegetação diferentes, minimizando assim a
separabilidade entre classes de vegetação (espécies invasoras, vegetação remanescente), sendo
que esse problema poderia ser minimizado com o uso de bandas multiespectrais, mas ainda
assim não garantindo grande precisão na diferenciação. O índice de vegetação por diferença
normalizada (NDVI) é amplamente utilizado na agricultura de precisão e na gestão ambiental
(KYRATZIS et al., 2017; BAENA et al., 2017; YANG et al., 2017) por sua simplicidade
(muitas vezes na ausência de uma avaliação quantitativa das alternativas), entretanto requer
equipamento mais sofisticado (sensores multiespectrais) o que acarreta em elevar o custo do
equipamento para realizar um trabalho como este. De fato, o NDVI é altamente sensível a
mudanças abruptas do solo nu para a presença de culturas, quando há um forte contraste entre
o solo e a planta em refletância do infravermelho próximo (NIR), como na fase pós-
emergência (HUETE, 1988). Porém quando se trata de diferenciar os diferentes substratos da
vegetação, o NDVI é deficiente. Em contraste, os índices que utilizam de bandas
multiespectrais (índice de vegetação ajustado ao solo SAVI, NDVI e o índice de vegetação
ajustado ao solo modificado MSAVI) forneceram resultados mais precisos do que o NGRDI
quando usado para mapeamento direto de espécies invasoras (MATESE; DI GENNARO,
2018; WAN et al., 2018).
O baixo custo e a facilidade de criar visualizações 3D com imagens derivadas de drones
(RPA) devem aumentar seu uso nos próximos anos. A possibilidade de uma rápida estimativa
da altura do dossel da vegetação durante a recuperação de áreas protegidas com presença de
espécies invasoras ou o crescimento da cultura agrícola fornecerá ao gestor ambiental e ao
agricultor uma ferramenta para decidir prontamente sobre as estratégias de manejo do dossel e
tomadas de decisão. Uma desvantagem do método CHIS+GPS/GLONASS para criar
conjuntos de dados 3D com maior precisão é a necessidade do RTK, equipamento de difícil
manuseio e de alto valor comercial, no entanto, informações coletadas a partir do GNSS do
drone é uma opção viável, já que o algoritmo possui a capacidade em identificar a altura do
dossel com precisão. Este estudo confirma a viabilidade de uma avaliação rápida preliminar
da altura do dossel da vegetação obtida por imagens de alta resolução. Os métodos
56
tradicionais de estimativa da altura do dossel usados pelos gestores ambientais e agricultores
costumam consumir muito tempo e dinheiro. Por exemplo, a análise da madeira de poda e o
comprimento e o peso da parte aérea são métodos de amostragem de solo que consomem
tempo e são destrutivos. Esses métodos também exigem procedimentos difíceis em campo e
em laboratório. Por outro lado, a avaliação da altura da copa usando imagens baseadas em
RPA permite um método não destrutivo e espacial, benéfico para o meio ambiente.
3.5 CONSIDERAÇÕES FINAIS
Para os modelos convencionais (classificação não supervisionada e índices de
vegetação) discriminarem as classes cultura, vegetação remanescente, e espécies invasoras,
torna-se muito difícil, pois todas elas têm propriedades espectrais muito semelhantes. O
sistema proposto, CHIS+GPS/GLONASS, faz uso de um algoritmo de segmentação e uma
técnica de seleção de padrões baseados em altura da copa das plantas. Embora ambas (plantas
remanescentes e espécies invasoras) apresentem propriedades espectrais muito semelhantes, o
método é capaz de distingui-las com precisão usando apenas uma seleção de dados da altura
da copa, características fáceis de calcular. A representação gráfica dos resultados mostra que o
uso da abordagem não é apenas promissor para a detecção de espécies invasoras emergentes
em áreas em recuperação ambiental, mas também entre as linhas de cultura agrícola.
Em nossa opinião, o método proposto abre um novo caminho para cenários ambientais e
agronômicos e especialmente para a Restauração Ecológica, que lida com o manejo de
espécies invasoras. Mapas que mostram a presença de plantas invasoras, particularmente
gramíneas exóticas em áreas de cerrado stricto sensu e florestas, podem ser facilmente
produzidos de forma ágil, a tempo para intervenções rápidas em áreas agrícolas, como
também em áreas de reserva legal e de preservação permanente degradadas.
Um importante tópico de pesquisa futuro será avaliar o potencial de generalização dos
métodos desenvolvidos - em outras palavras, usar os estimadores treinados em outros campos
sem dados de treinamento in situ. Esse é um tópico altamente relevante para desenvolver
ferramentas de sensoriamento remoto eficientes com o mínimo de esforços in situ.
57
4 CAPÍTULO 2: Detecção e monitoramento de gramíneas exóticas e
invasoras em áreas de cerrado por meio de Aeronaves Remotamente
Pilotadas.
RESUMO: O objetivo desse capítulo foi comparar a precisão dos resultados do modelo CHIS+GPS/GLONASS
do capítulo 1, sem correção de acurácia posicional com RTK (Real-time Kinematic), com os resultados do
modelo CHIS corrigidos. Houve a produção dos modelos de elevação MDS e MDT a partir das imagens
coletadas em campo com aeronave remotamente pilotada (RPA) conhecida popularmente como drone, que
foram processadas para geração de ortomosaico corrigido com pontos de controle, obtidos por RTK. A produção
do CHIS se deu por meio da subtração dos Modelo Digital de Superfície (MDS) e do Modelo Digital do Terreno
(MDT). Para aferir a precisão do modelo CHIS+GPS/GLONASS foi gerado o modelo CHIS+RTK como
variável observada. A comparação entre os modelos se deu em duas áreas amostrais representadas por vegetação
típica de cerrado e capim Braquiária. Os testes estatísticos adotados foram: coeficientes de correlação de
Spearman (SCC), erro quadrático médio da raiz da altura de dossel (RMSEz), erro absoluto médio da altura de
dossel (MAEz) e teste de Wilcoxon. A interpretação visual das imagens classificadas demonstrou que o modelo
CHIS+GPS/GLONASS apresentou falhas na identificação da cobertura do solo representada por gramíneas
invasoras, quando comparado ao modelo CHIS+RTK, sendo menos preciso na classificação das alturas de dossel
das espécies invasoras. Os testes estatísticos indicaram que o modelo CHIS+GPS/GLONASS demonstrou
diferenças significativas na identificação de espécies invasoras, com maior erro de altura (0.24 cm) na área
amostral. A partir desses resultados verifica-se que o modelo CHIS+RTK é mais assertivo na detecção de
cobertura do solo composta por gramíneas exóticas que o modelo CHIS+GOS/GLONASS.
Palavras-chave: drones; gestão ambiental; plantas invasoras; sensoriamento remoto
IMAGES DIGITAL PROCESSING OF REMOTELY PILOTED AIRCRAFT FOR DETECTION OF
INVASIVE SPECIES
ABSTRACT: The purpose of this chapter was to compare the accuracy of the CHIS+GPS/GLONASS model
without the positional accuracy correction by RTK (Real-time Kinematic) with that of the CHIS+RTK model
with positional correction. DSM and DTM elevation models were produced from images collected in the field by
remotely piloted aircraft (RPA), popularly known as drone, and these images were processed in order to produce
orthomosaic corrected by control points obtained using RTK. The production of CHIS occurred through the
subtraction of the Digital Surface Model (DSM) and the Digital Terrain Model (DTM). In order to assess the
accuracy of the CHIS+GPS/GLONASS model, the CHIS+RTK model was generated as the observed variable.
The comparison between the models took place in two sample areas represented by typical vegetation of Cerrado
and Brachiaria grass. The statistical tests adopted were: Spearman correlation coefficients (SCC), root-mean-
square error of the canopy height (RMSEz), mean absolute error of the canopy height (MAEz) and Wilcoxon
test. The visual interpretation of the selected images showed that the CHIS+GPS/GLONASS model presented
58
errors in the identification of the ground cover represented by invasive grasses when compared to the
CHIS+RTK model, being less accurate in the classification of the canopy heights of the invasive species.
Statistical tests indicated that the CHIS+GPS/GLONASS model showed significant differences in the
identification of invasive species, with greater height error (0.24 cm) in the sample area. From these results it can
be seen that the CHIS+RTK model is more assertive in detecting ground cover composed by exotic grasses than
the CHIS+GOS/GLONASS model.
Keywords: drones, environmental management, invasive plants, remote sensing.
59
4.1 INTRODUÇÃO
Áreas protegidas são espaços naturais de elevado valor ecológico, que visam
salvaguardar a biodiversidade, preservar serviços ecossistêmicos e garantir a integridade do
patrimônio natural. A conservação desses ecossistemas requer rotinas de monitoramento
ambiental. Porém, a obtenção de recursos financeiros para lidar com uma variedade crescente
de atividades relacionadas ao manejo de seus recursos ambientais, geralmente é insuficiente
(WATSON et al., 2014), afetando seriamente a eficácia dos resultados finais dos projetos
(JUFFE-BIGNOLI et al., 2014).
As áreas protegidas sujeitas a acordos internacionais e nacionais devem resolver suas
responsabilidades adquiridas para manter seu status legal (GONÇALVES et al., 2016), ou
seja, os projetos de conservação desses espaços devem ser efetivos e perenes. Existe uma
demanda por iniciativas econômicas, versáteis e práticas para atender uma disparidade de
requisitos para garantir a conservação, incluindo uma ampla gama de soluções
(LOPOUKHINE et al., 2012), avanços tecnológicos e métodos ou aplicações inovadoras de
tecnologias existentes (LÓPEZ; MULERO-PÁZMÁNY, 2019).
Na última década, as aeronaves remotamente pilotadas (RPAs) também conhecidas
popularmente como drones, têm sido objeto de um crescente interesse na esfera civil e
científica, sendo consideradas uma tecnologia disruptiva dentro do sensoriamento remoto
(MELESSE et al., 2007; LÓPEZ; MULERO-PÁZMÁNY, 2019), inclusive para os estudos
ambientais (WHITEHEAD; HUGENHOLTZ, 2014).
Os drones representam uma estratégia com relativo baixo risco de acidentes e reduzido
custo financeiro, para observar de forma rápida e sistemática os fenômenos naturais em alta
resolução espaço-temporal (RODRÍGUEZ et al., 2012; LÓPEZ; MULERO-PÁZMÁNY,
2019). Por estas razões, os drones se tornaram recentemente uma grande tendência nas
pesquisas sobre a vida selvagem (LINCHANT et al., 2015; CHRISTIE et al., 2016) e no
manejo ambiental (MULERO-PÁZMÁNY et al., 2014; CHABO; BIRD, 2015).
Considerando a ampla gama de possibilidades, não é de surpreender que algumas áreas
protegidas estejam adotando drones para várias aplicações. Por exemplo, no monitoramento
de espécies de plantas invasoras (MICHEZ et al., 2016; DVORÁK et al., 2015; HUNG et al.,
2014; WAN et al., 2014; KNOTH et al., 2013; PEÑA et al., 2013; ZAMAN et al., 2011); para
documentar a extração ilegal de madeira e mineração (KOH; WICH, 2012); nos métodos de
60
classificação através da altura do dossel (MATESE et al., 2017; STROPPIANA et al., 2018;
ZILIANI et al., 2018; VILJANEN et al., 2018; DE SÁ et al., 2018; MARTIN et al., 2018),
inclusive para identificar espécies de interesse por meio de imagens suborbitais.
Recentemente, uma equipe de cientistas descobriu um hotspot de biodiversidade usando
drones (LÓPEZ; MULERO-PÁZMÁNY, 2019), o que poderia ser discutido como um
procedimento conveniente para expandir adequadamente as áreas protegidas, conforme
estabelecido pelo Aichi Target 11 (JUFFE-BIGNOLI et al., 2014).
Estamos testemunhando um desenvolvimento contínuo de drones sofisticados e
métodos engenhosos que visam ações específicas de conservação, como o combate a
incêndios florestais (KRULL et al., 2012; MERINO et al., 2012; ZHANG et al., 2015) e o
plantio de sementes para reflorestamento (FORTES, 2017). O ritmo acelerado dos avanços
tecnológicos e das novas aplicações provavelmente excedeu as expectativas anteriores, mas
também dá origem a circunstâncias singulares que devem ser colocadas no contexto da
administração (LÓPEZ; MULERO-PÁZMÁNY, 2019).
O objetivo deste capítulo é comparar a diferença dos resultados do modelo
CHIS+GPS/GLONASS do capítulo 1, sem a correção do mosaico de imagens realizada com
sistema de posicionamente global de precisão centimétrica, com os resultados do modelo
CHIS corrigido com pontos de controle obtidos com RTK (Real-time Kinematic). Com essa
comparação pretende-se responder a seguinte pergunta: diante dos resultados expostos é
necessário o uso de RTK para uma identificação mais assertiva de gramíneas invasoras em
área de cerrado, a partir do processamento de imagens aéreas de alta resolução espacial?
Os principais objetivos são: i) estratificar no modelo CHIS faixas de altura em relação
ao solo, que indique a localização de manchas de gramíneas exóticas (Urochloa ssp); ii)
relacionar os resultados do modelo CHIS+GPS/GLONASS com o modelo CHIS+RTK e
fornecer informações de alto nível que demonstrem qual a precisão entre os dois modelos na
identificação de espécies invasoras.
61
4.2 METODOLOGIA
4.2.1 Descrição da área de estudo
A área de estudo localiza-se na Universidade Federal de Rondonópolis (Figura 44), em
Rondonópolis, Mato Grosso, Brasil. O local estudado apresenta elementos de vegetação
remanescente de Cerrado stricto sensu, trechos com solo exposto e ambientes com presença
de espécies exóticas e invasoras, predominantemente a espécie Urochloa ssp. A área estudada
abrangeu três hectares. A característica climática local é definida como CWA (clima
subtropical úmido) com média anual em precipitação de 1500 mm e na temperatura de 25°C
(SOUZA et al., 2013; PEEL et al., 2007).
Figura 44. Localização geral da área de estudo. Em a) sítio experimental com o ortomosaico de imagens obtidas
pelo RPA. Sistema de Coordenadas UTM, SIRGAS 2000, 21S.
62
Informações como classe de solo, clima, temperatura e a precipitação média anual, longitude
e latitude, bioma e altitude do local de estudo são apresentados na Tabela 12.
Tabela 12. Dados de latitude, longitude, tipo de solo, precipitação e temperatura média anual, clima e altitude da
área de estudo.
Fonte: Dados de temperatura e precipitação (SOUZA et al., 2013); dados de clima (PEEL et al., 2007);
dados de solo (EMBRAPA, 2006). Legenda: CWA (Clima Subtropical Úmido).
4.2.2 Aquisição dos dados em campo
Para a aquisição das imagens foi realizado o plano de voo executado pela plataforma
DroneDeploy, disponível em: https://support.dronedeploy.com/lang-pt-BR, no dia 2 de
fevereiro de 2019, usando a RPA Phantom 4 Pro da DJI montada com uma câmera regular
RGB, sensor de 20 megapixels (MP).
Coletaram-se dados de referência compostos por pontos e medidas, rotulados como
Urochloa ssp. A coleta dos pontos foi realizada a partir de um receptor GPS Garmin 76CSx.
Ao todo foram coletados 18 pontos de referência em campo, os quais estavam associados a
medidas da altura das espécies invasoras, medidas essas mensuradas por meio de trena
métrica.
4.2.3 Coleta de pontos de controle com RTK
Foram coletados sete pontos de controle no solo (GCPs, Ground Control Points). Esses
pontos foram materializados por meio de placas de plástico quadradas brancas de 0,4 m,
colocadas na área de estudo para garantir a correção da acurácia posicional das coordenadas
centrais de fotografia obtida pelo sistema de geolocalização do drone. Normalmente essas
coordenadas possuem erro posicional que pode variar de cinco a dez metros, nos eixos X
(longitude), Y (latitude) e Z (altitude). Os GCPs foram georreferenciados com sistema RTK
da marca Topcon Hiper V, que possui precisão média nos eixos XYZ de ±0,005 m. Na etapa
de elaboração do mosaico de fotos, os GCPs foram utilizados para ajustar o erro de
posicionamento das imagens, a partir da técnica de pós-processamento de acurácia posicional
PPK (Post Processed Kinematic). Os pontos de referência (GCPs) foram inseridos nas
Precipitação Temperatura
Cerrado 293 m 16°27'40'' 54°34'52'' CwaLatossolo Vermelho
Distrófico1500 mm 25°C
Média AnualBioma Altitude Latitude Longitude Classe de SoloClima
63
imagens manualmente no software Agisoft Photoscan Profissional (version 1.4.0, Agisoft, St.
Petersburg, Russia).
4.2.4 Processamento dos dados
4.2.4.1 Imagens
Todos os dados da RPA foram pré-processados e entregues usando o Structure from
Motion (SfM) disponível no Agisoft Photoscan. Além de disponibilizar as ortofotografias da
área de estudo com 3 bandas (RGB), os subprodutos SfM do Modelo Digital da Superfície
(MDS) e Modelo Digital do Terreno (MDT) também foram elaborados. O MDT foi obtido
por métodos de classificação semi-supervisionados da nuvem densificada de pontos. O
modelo de altura do dossel (CHM) foi obtido a partir da subtração do MDT e MDS no
software R (R CORE TEAM, 2019) com o pacote raster (HIJMANS, 2017).
4.2.4.2 Espécies invasoras (CHIS)
Para calcular o modelo de altura de dossel das espécies invasoras foi necessário
selecionar no modelo CHM, a altura estabelecida para as espécies invasoras, sendo nesse caso
definidos os valores mínimos de 49 cm e valores máximos de 110 cm para Urochloa ssp.
conforme dados levantados em campo. Entretanto, optou-se em definir valores diferentes aos
observados em campo, para mais e para menos, de modo a considerar as possíveis diferenças
no modelo (erros). Desta maneira, foi informado ao programa para selecionar valores que
compreendessem desde 20 cm até 140 cm. Os procedimentos foram realizados no software R
(R CORE TEAM, 2019) com os pacotes: (i) processamento dos dados pacote raster
(HIJMANS, 2017), rgdal (BIVAND, 2018); (ii) plotagem dos resultados pacote lattice
(DEEPAYAN, 2008), rasterVis (LAMIGUEIRO; HIJMANS, 2018), gridExtra (AUGUIE,
2017), RColorBrewer (NEUWIRTH, 2014).
4.2.5 Validação
4.2.5.1 Comparação visual dos resultados
Optou-se por fazer a comparação dos resultados a partir de duas áreas amostrais (Figura
45), apenas locais onde há presença de plantas invasoras e vegetação remanescente
confirmadas nos trabalhos de campo.
64
Figura 45. Localização das áreas amostrais usadas para comparação dos resultados de ambos modelos
(CHIS+GPS/GLONASS e CHIS+RTK).
4.2.5.2 Análise estatística
Para validar a precisão do modelo CHIS+GPS/GLONASS comparado ao modelo
CHIS+RTK, foi necessário selecionar 1000 pontos amostrais de cada uma das áreas a partir
de uma grade de pixels (Figura 46), gerada a partir do software R. Nele é informado o a
quantidade de números que deve ser recolhido num determinado dado raster, sendo que cada
ponto da grade representa uma média dos valores de pixels correspondente ao raster
analisado. Os valores das médias dos pontos recolhidos foram lançados num arquivo data
frame e posteriormente realizada a exclusão dos pontos onde havia ausência de informação,
pois em alguns locais da grade não havia presença de informação conforme pode ser
verificado na Figura 46.
65
Figura 46. Exemplo da grade gerada para recolher 1000 pontos amostrais. Cada quadrado da grade equivale a
um ponto amostral. Em (a) área amostral 1 com GPS/GLONASS e em (b) área amostral 1 com RTK.
Para calcular a precisão do modelo CHIS+GPS/GLONASS comparado ao modelo
CHIS+RTK foram realizados testes estatísticos, tais como: coeficientes de correlação de
Spearman (SCC), erro quadrático médio da raiz da altura de dossel (RMSEZ), erro absoluto
médio da altura de dossel (MAEZ) e teste de Wilcoxon.
O coeficiente de correlação de Spearman é um teste de classificação não paramétrico
(livre de distribuição) proposto como uma medida da força da associação entre duas variáveis.
É uma medida de uma associação monótona que é usada quando a distribuição de dados torna
o coeficiente de correlação de Pearson indesejável ou enganoso (HAUKE; KOSSOWSKI,
2011).
A relação (ou correlação) entre as duas variáveis é denotada pela letra r e quantificada
com um número que varia entre -1 e +1. Zero significa que não há correlação, onde 1 (um)
significa uma correlação completa ou perfeita. O sinal do r mostra a direção da correlação.
Um r negativo significa que as variáveis estão inversamente relacionadas. A força da
correlação aumenta de 0 para +1 e de 0 para -1 (AKOGLU, 2018). A interpretação da força da
correlação está representada na Tabela 13.
66
Tabela 13. Interpretação do coeficientes de correlação de Spearman segundo Akoglu (2018) e Fowler (2009).
O RMSE tem sido usado como uma métrica estatística para medir o desempenho do
modelo em meteorologia, qualidade do ar e estudos de clima. O MAE é outra medida útil
amplamente utilizada em avaliações de modelos. Embora ambos tenham sido usados para
avaliar o desempenho do modelo por muitos anos, não há consenso sobre a métrica mais
apropriada para erros de modelo. No campo das geociências, muitos apresentam o RMSE
como uma métrica padrão para erros de modelo (MCKEEN et al., 2005; SAVAGE et al.,
2013; CHAI et al., 2013), enquanto outros optam por evitar RMSE e apresentam apenas o
MAE (CHAI; DRAXLER, 2014). Neste estudo optou-se por escolher os dois testes como
medida métrica para fornecer dados de erros na distribuição dos valores atribuídos.
O teste de Wilcoxon é uma hipótese estatística não paramétrica usada para comparar
duas amostras relacionadas, amostras pareadas ou medições repetidas em uma única amostra
para avaliar se suas classificações médias populacionais diferem. Ele pode ser usado como
uma alternativa para o teste t de estudantes emparelhados, teste t para pares combinados ou o
teste t para amostras dependentes quando a população não pode ser considerada como sendo
normalmente distribuída. É um teste não paramétrico que pode ser usado para determinar se
duas amostras dependentes foram selecionadas de populações com a mesma distribuição
(KLOBE; MCKEAN, 2014).
Todos os procedimentos descritos nos parágrafos acima foram realizados usando o
software R 3.6.1. Pacotes usados para: (i) extração dos dados para análise estatística, pacotes
raster (HIJMANS; 2017), rgdal (BIVAND et al., 2018) e dplyr (WICKHAM et al., 2019); (ii)
testes estatísticos, pacotes HydroGOF (ZAMBRANO-BIGIARINI, 2017), e stats (R CORE
TEAM, 2019); (iii) plot dos gráficos, pacote ggpubr (KASSAMBARA, 2019), e hexbin
(CARR, 2019).
00
Perfeita
Forte
Moderada
Fraca
Nenhuma
+ 1 - 1
- 0,70 a - 0,90+ 0,70 a + 0,90
- 0,40 a - 0,60+ 0,40 a + 0,60
+ 0,10 a + 0,30 - 0,10 a - 0,30
Coeficiente de de Correlação Força de correlação
67
4.3 RESULTADOS
4.3.1 Avaliação da precisão do modelo CHIS+GPS/GLONASS em relação ao modelo
CHIS+RTK
A observação visual do mosaico de imagens permite identificar diferenças entre os dois
modelos, principalmente quando se compara a parte inferior esquerda e a parte superior das
figuras. De modo geral, percebe-se que houve diferença na espacialização e interpretação das
alturas das espécies invasoras nos modelos analisados.
A Figura 47 apresenta os modelos das alturas do dossel das espécies invasoras da área
amostral 1 gerados neste trabalho. Na Figura 47a (esquerda), tem-se o modelo
CHIS+GPS/GLONASS e na Figura 47b, o modelo CHIS+RTK. A partir de interpretação
visual, verificam-se diferenças relacionadas à altura, comparando as Figuras 47a e 47b.
principalmente na parte inferior esquerda da Figura 47a e na parte superior da Figura 47a.
Percebe-se na Figura 47b (CHIS+RTK) que houve diferença na espacialização e intepretação
das alturas das espécies invasoras comparado à Figura 47a.
Figura 47. Comparação entre os modelos CHIS+GPS/GLONASS (a), e CHIS+RTK (b) na área amostral 1.
68
As regiões apresentadas na Figura 48 foram os locais onde ocorreram diferenças visuais
mais pronunciadas nas alturas do dossel das espécies invasoras, ocorrendo também em alguns
lugares ausência de informação (provavelmente valores abaixo de 20 cm) no modelo
CHIS+GPS/GLONASS (Figura 48a e Figura 48c) comparado ao modelo CHIS+RTK (Figura
48b e Figura 48d).
Figura 48. Em (a) e (b) recorte da parte superior da Figura 48 (e); (a) representa o modelo
CHIS+GPS/GLONASS e (b) representa modelo CHIS+RTK. Em (c) e (d) recorte da parte inferior da Figura 48
(e) (modelo CHIS+GPS/GLONASS); (c) representa o modelo CHIS+GPS/GLONASS e (d) representa modelo
CHIS+RTK.
A Figura 48a representa a parte superior da Figura 48e (modelo
CHIS+GPS/GLONASS). Nessa região verificou-se falhas no modelo, para adequada
identificação de espécies invasoras quando comparada com a Figura 48b (CHIS+RTK). Essa
69
ausência de informação pode estar relacionada à precisão do modelo CHIS+RTK, uma vez
que a altura registrada nessa região foi de valores muito baixos (entre 20 cm a 40 cm),
necessitando de maior precisão para identificar vegetação de menor porte.
Também foi notável a diferença entre as Figuras 48c e 48d. Na Figura 48c houve maior
hetereogenidade nas alturas comparado com a Figura 48d, na qual as alturas estão mais
homogêneas. Na parte esquerda da Figura 48c há presença de valores baixos (20 cm a 40 cm),
sendo que esta escala de altura só esteve presente nas bordas (corredor entre os dois
fragmentos de vegeteção) e na parte inferior direita (região com presença de herbáceas) da
Figura 48d.
O modelo CHIS+RTK foi mais sensível na identificação de espécies de pequeno porte
(até 40 cm) quando comparado ao modelo avaliado (CHIS+GPS/GLONASS). O uso do
modelo CHIS+RTK é essencial como produto para tomada de decisão no manejo agrícola,
quando for necessário avaliar áreas com presença de plantas invasoras de porte graminóide,
conhecidas na área agrícola como plantas daninhas, que geralmente possuem porte baixo. Já
com o modelo CHIS+GPS/GLONASS isso talvez não seria possível, uma vez que os erros de
altura são mais variáveis.
A área amostral 2 apresentou mais claramente a diferença entre os dois modelos (Figura
49).
Figura 49. Comparação entre os modelos CHIS+GPS/GLONASS (a) e CHIS+RTK (b) na área amostral 2.
70
Assim como na área amostral 1, constata-se na Figura 49a diferenças de classificação do
modelo, ou seja, ausência de informação de altura do dossel das espécies invasoras em
algumas regiões da figura quando comparado à Figura 49b. Na Figura 49b a distribuição das
alturas está mais coerente com as informações levantadas em campo, conforme pode ser
verificado nos pontos de controle presentes nas figuras.
A Figura 50 ilustra a área na qual ocorreu grande diferença nas alturas do dossel das
espécies invasoras. Conforme verifica-se na Figura 50a, existe ausência de informação da
altura numa região onde os valores são muito baixos (20 cm a 30 cm), comparando-se com a
Figura 50b. Como são valores muito baixos, é de se esperar que ocorrerá imprecisão a partir
do modelo CHIS+GPS/GLONASS. Além da ausência, pode-se também ser analisado que os
valores de altura do dossel não são semelhantes à Figura 50b, na qual as alturas estão mais
bem distribuídas e coerentes com os dados coletados em campo (Figura 50b).
Figura 50. Em (a) e (b) recorte da parte inferior central da Figura 50 (c); (a) representa o modelo
CHIS+GPS/GLONASS e (b) representa modelo CHIS+RTK.
4.3.2 Resultados da análise estatística
A classificação de correlação de Spearman entre o modelo estimado
(CHIS+GPS/GLONASS) e o observado (CHIS+RTK) para as duas áreas amostrais está
apresentada na Figura 51.
71
Figura 51. Correlação de Spearman entre os modelos CHIS+GPS/GLONASS e CHIS+RTK. Em (a) área
amostral 1 e em (b) área amostral 2. Em (a) foram analisados 684 pontos e em (b) foram analisados 506 pontos.
A diferença de pontos entre as duas áreas se deve pela ausência de informação (NA) em alguns locais da área.
Os dados mostram uma força de correlação mediana e significativa para a área amostral
1 (r = 0,56, p < 0,001) e para a área amostral 2 (r = 0,55, p < 0,001). A correlação foi
significativa, porém moderada. Isso se deve por conta da precisão do processo de medição de
dossel a partir da calibração com o RTK (modelo CHIS+RTK). Esse modelo é mais preciso
em todos os eixos espaciais com baixa margem de erro. Os dados de medidas a partir do
GPS/GLONASS da RPA foram calculados com maior imprecisão em todos os eixos espaciais
(Tabela 14) ao calcular a nuvem densa de pontos no PhotoScan, o que pode explicar algumas
diferenças nos modelos comparados.
Tabela 14. Erro nos eixos espaciais a partir dos dados do GPS/GLONASS e dos dados a partir do RTK.
PPK Erro X
(cm)
Erro Y
(cm)
Erro Z
(cm)
Erro XY
(cm) Erro Total (cm)
GNSS+GPS/GLONASS 169 79 75 186 201
RTK 4,86 4,82 0,57 6,85 6,87
Fonte: Relatório de erros gerado no software Agisoft PhotoScan 1.4.0.
Os testes estatísticos não paramétricos de erros no modelo avaliado (MAEZ e RMSEZ) e
o teste de Wilcoxon para ambas as áreas amostrais estão representados na Tabela 15.
72
Tabela 15. Testes estatísticos entre a variável estimada (CHIS+GPS/GLONASS) e a variável observada
(CHIS+RTK).
A Tabela 15 apresenta os valores de RMSEZ e MAEZ entre os dados observados (RTK)
e os dados estimados (GPS/GLONASS) para cada uma das áreas amostrais. A área amostral 1
foi a que apresentou métrica com menor erro, com 0,12 cm de erro para MAEZ, e 0,17 cm de
erro para RMSEZ, enquanto a área amostral 2 apresentou maior erro, variando de 0,19 cm
para MAEZ a 0,24 para RMSEZ. As estimativas da RPA a partir do GPS/GLONASS
(CHIS+GPS/GLONASS) apresentaram maiores erros na precisão da altitude do dossel das
espécies invasoras na área amostral 2. Esse maior erro se deve pelo fato de que nessa área
ocorreu maior número de áreas com ausência de informações em locais onde havia presença
de espécies invasoras (50a).
Considerando as duas áreas amostrais, os resultados dos testes de diferença significativa
entre amostras relacionadas foram significativas. No teste de Wilcoxon, considerando que os
resultados para ambas as amostras resultaram a um nível de significancia inferiror a α = 0.05.
É possível concluir que as distribuições das alturas das espécies invasoras são diferentes
entre as duas áreas amostrais estudadas. Isso pode ser facilmente verificado nas Figuras 48 e
50, onde é possível notar que há uma diferença visual na distribuição das alturas das espécies
invasoras nos dois modelos analisados para ambas áreas amostrais, e esse fenômeno se deve à
precisão dos modelos comparados. Pode ser constatada na Figura 52 a presença de espécies
invasoras para ambas as áreas amostrais, locais nos quais foram recolhidos os pontos das
medidas de altura da Urochloa spp. encontrada no local e fotografado os pontos de coleta.
Área Amostral RMSEZ (cm) MAEZ (cm) Wilcoxon
1 0,17 0,12 0,0117
2 0,24 0,19 p < 0,001
73
Figura 52. Em (a) área amostal 1 com presença de Urochloa spp. Em (b) área amostral 2 com presença de
Urochloa spp. misturada com fragmentos de vegetação.
4.4 DISCUSSÃO
Em relação ao objetivo desta pesquisa, analisar a precisão do modelo
CHIS+GPS/GLONASS de um padrão de altitude do dossel de espécies invasoras e sua
distribuição, foi verificado um comportamento diferente nas duas áreas amostrais de teste. Na
área amostral 1, a variação de altura do dossel das gramíneas exóticas foi reduzida em ambos
os modelos. A principal razão para isso é provavelmente que a área amostral 1 apresenta
topografia mais homogênea que a área amostral 2. Além do mais, foi observada no campo a
presença de espécies invasoras em ambas as áreas amostrais, as quais apresentaram presença
de espécies invasoras no modelo de referência (CHIS+RTK) e em algumas partes da área
amostral 1 e mais evidentemente da área amostral 2, ocorreu ausência de espécies invasoras
no modelo estimado (CHIS+GPS/GLONASS).
O erro de acurácia do modelo nos eixos XYZ é menor quando utilizado o modelo
CHIS+RTK. A área amostral 2 apresentou padrão diferente na precisão do modelo
CHIS+GPS/GLONASS no componente Z (altura) provavelmente devido às diferenças
naturais de elevação do terreno.
O método CHIS+GPS/GLONASS é menos preciso que o modelo CHIS+RTK
apresentando um deslocamento sistemático devido às fontes de erro combinadas do
deslocamento dos eixos XYZ, alinhado à falta de qualquer ponto de referência de fundo
(RTK).
74
O modelo CHIS+GPS/GLONASS com diferença máxima observada no teste de média
de erros (RMSEz) foi de 24 cm, é inadequado para trabalhos pelos quais exige maior acurácia
posicional, como a agricultura de precisão, por exemplo.
O custo econômico, o tempo investido e as exigências de cada modelo são diferentes e
podem servir a vários propósitos de detecção remota. Destaca-se que, mesmo que a operação
em campo seja apenas com o GPS/GLONASS, podem assim ser reamostradas para um
tamanho de pixel mais grosseiro para absorver a incerteza geométrica, que é tipicamente o
erro radial, ou seja, isso permitiria usar o modelo para análises numa escala de análise mais
grosseira, como por exemplo, para determinar variações médias de altura de dossel em
hectares, mas não em metros quadrados.
De todas essas descobertas, foi possível extrair alguns resultados importantes para na
prática usar o modelo CHIS+GPS/GLONASS. Em primeiro lugar, se o terreno não mostrar
muita ondulação, o modelo CHIS+GPS/GLONASS torna-se viável, pelo menos em parte,
como por exemplo, quando o levantamento de dossel não exija alturas mínimas como aquelas
usadas nesse estudo. A inclusão de observações de posição de imagem baseada em RTK no
fluxo de trabalho de processamento de RPA acabou por ter um efeito positivo, em particular
no componente de altura.
A rotina de correção geométrica do mosaico de imagens com RTK apresenta maior
custo operacional, pois exige técnico especializado para operar o equipamento (base e rover),
e o custo de aquisição de um RTK é elevado. Por exemplo, o custo médio num levantamento
com GPS/GLONASS tendo apenas uma RPA convencional é em média R$6.000,00. Apenas
o equipamento RTK convencional custa em torno de R$80.000,00, e uma RPA equipada com
RTK em torno de R$45.000,00.
No futuro, espera-se que as todas as RPA no mercado estejam equipadas com
hardwares de tageamento (geolocalização) das imagem da RPA, que possam corrigir em
escala centimétrica os erros de posicionamento das fotografias aéreas. Espera-se também que
áreas como a Ecologia da Restauração e a Restauração Ecológica incorpore em suas rotinas
de pesquisa e trabalho dados multitemporais com alta resolução espacial, temporal e de
acurácia posicional, para o monitoramento de vegetação em recuperação. Porém, mesmo que
distorções posicionais dos dados, essas atividades ainda sim, tem acesso a dados robustos para
estudos em ecossistemas degradados (PÁDRO et al., 2019).
75
Em algumas áreas, como na agricultura, o levantamento do dossel de plantas daninhas,
muito comum na agricultura, a partir do GPS/GLONASS da RPA pode não ser possível, pois
o porte desse tipo de vegetação é muito pequeno, e o georreferenciamento preciso é
indispensável. Uma sugestão para melhorar a precisão de levantamentos como desse estudo,
incluiria a integração de um dispositivo RTK-GPS/GLONASS como o Trimble BD 935, em
uma plataforma de asa rotativa, potencialmente montada diretamente no gimbal, ou mesmo na
câmera. Se fosse possível também aproximar a atitude do eixo óptico, além de uma posição
precisa, pode-se esperar pelo menos uma orientação mais rápida e eficiente da câmera.
Alsadik et al. (2013) já mostraram que o conhecimento dos locais aproximados da câmera e
da direção de visualização, que pode diminuir o tempo de processamento tremendamente e, ao
mesmo tempo, aumentar a confiabilidade geral (GERKE et al., 2016).
De todos os pontos analisados em ambas as áreas amostrais (18 pontos), 14 pontos
(78%) apresentaram valores diferentes da realidade no modelo CHIS+GPS/GLONASS.
Todos eles estiveram com valores mais baixos do que a real altura daqueles pontos de coleta.
Esse número é significativo e mostra que mesmo que o modelo CHIS+GPS/GLONASS seja
promissor, ainda há imprecisão quando os valores são de centímetros. Considerando que a
margem de erro máximo foi de 24 cm, as alturas dos pontos variaram entre 25 cm a 30 cm
para menos.
4.5 CONSIDERAÇÕES FINAIS
Neste trabalho foi testada a precisão do modelo CHIS+GPS/GLONASS e demonstrado
que os dados espaciais de altura (z) foram relativamente precisos quando comparados aos
dados obtidos por meio de abordagens de referência padrão (CHIS+RTK). Fatores adicionais
podem ter uma influência supostamente significativa na precisão, como as diferenças de
altitude do terreno. Mais especificamente, foi investigado neste estudo o impacto do
levantamento de espécies invasoras sem a estação de controle convencional RTK/PPK. Os
resultados a partir do RTK/PPK são mais precisos e menos propensos a erros.
Quando a abordagem é realizar um levantamento da altura de plantas ordem dos
centímetros, por exemplo, ervas daninhas na agricultura, recomenda-se que o levantamento
seja a partir do RTK/PPK. A técnica do levantamento da altura de dossel é interessante para
medir indicadores de recuperação de áreas vegetadas e projetos de recomposição de Áreas
76
Degradas e Alteradas (PRADA). Aumentar o número de GCPs (Ground Points Control)
provavelmente levaria a aumentos na precisão, mas tal abordagem é mais viável quando a
exigência de trabalhos seja de precisão mínimas. Nas duas áreas amostrais, os RMSEs e
MAEs horizontais (z) do método CHIS+GPS/GLONASS não excederam os 30 cm,
demostrando uma relativa precisão. Os resultados sugerem que o método
CHIS+GPS/GLONASS pode fornecer dados com precisão satisfatória em comparação com as
abordagens GCP, independentemente das medições terrestres, para aplicações que não exigem
acurácia posicional centimétrica.
Esse modelo pode ser estratégico para a detecção remota de áreas florestais inacessíveis
e perigosas que não exigem alta precisão espacial, possibilitando mensurar a variação de
dossel e presença de clareiras, ou seja, aspectos ecológicos do ecossistema. Se a questão
principal era saber se o método CHIS+GPS/GLONASS pode ser a melhor solução em termos
econômicos, flexibilidade e tempo para mapear áreas de difícil acesso e que não exigem alta
precisão, a resposta poderia ser: sim. Entretanto, além de testes adicionais de ambigüidades de
exatidão, também os parâmetros técnicos da RPA (tempo de vôo máximo, operação
autônoma, etc.) devem ser ajustados para obter todos os benefícios dessas possibilidades.
O método aqui analisado pode ser útil quando se trata de preparar inventários para áreas
com vegetação nativa degradada, que são geralmente feitos manualmente e ocularmente pelo
homem, e também é um meio de monitorá-las em intervalos definidos, buscando identificar a
presença de espécies que inibem o desenvolvimento e crescimento de áreas em recuperação
ambiental. A tecnologia de RPA é altamente rentável, flexível e móvel, além do
processamento fotogramétrico totalmente automatizado, pode ser implantado com baixíssimo
para uso operacional.
77
5 REFERÊNCIAS
ASRAR, G.; FUCHS, M.; KANEMASU, E. T.; HATFIELD, J. L. Estimating absorbed
photosynthetic radiation and leaf area index from spectral reflectance in wheat. Agron.
Journal, v.76, p. 300-306, 1984.
ALEXANDRIDIS, T. K.; TAMOURIDOU, A. A.; PANTAZI, X. E.; LAGOPODI, A. L.;
KASHEFI, J.; OVAKOGLOU, G.; POLYCHRONOS, V.; MOSHOU, D. Novelty Detection
Classifiers in Weed Mapping: Silybum marianum Detection on UAV Multispectral Images.
Sensors, v.17, n.9, p. 2007, 2017.
AKOGLU, H. User's guide to correlation coefficients. Turkish Journal of Emergency
Medicine, v.18, p. 91-93, 2018. DOI: 10.1016/j.tjem.2018.08.001
ADÃO, T.; HRUSKA, J.; PÁDUA, L.; BESSA, J.; PERES, E.; MORAIS, R.; SOUZA, J. J.
Hyperspectral Imaging: A Review on UAV-Based Sensors, Data Processing and Applications
for Agriculture and Forestry. Remote Sensing, v.9, n.1110, p. 1-31, 2017.
AGISOFT PHOTOSCAN PROFESSIONAL (Version 1.4.0) (Software). (2017). Retrieved
from http://www.agisoft.com/downloads/installer/
ALBORNOZ, C.; GIRALDO, L.F. Trajectory design for efficient for crop irrigation with a
UAV. In: Proceedings of the Colombian Conference on Automatic Control (CCAC),
Cartagena, Colombia, 2017, p. 1-6.
ALVAREZ-TABOADA, F.; PAREDES, C.; JULIÁN-PELAZ, J. Mapping of the Invasive
Species Hakea sericea Using Unmanned Aerial Vehicle (UAV) and WorldView-2 Imagery
and an Object-Oriented Approach. Remote Sens., v.9, p. 913, 2017.
ARROYO, J. A.; GOMEZ-CASTANEDA, C.; RUIZ, E.; DE COTE, E. M.; GAVI, F.;
SUCAR, L. E. Assessing nitrogen nutrition in corn crops with airborne multispectral sensors.
In: Proceedings of the International Conference on Industrial, Engineering and Other
Applications of Applied Intelligent Systems (IEA/AIE), Arras: France, 2017. p. 259-267.
ASUERO, A. G.; SAYAGO, A.; GONZÁLEZ, A. G. The Correlation Coefficient: An
Overview. Critical Reviews in Analytical Chemistry, v.36, p. 41–59, 2006.
ALSALAM, B. H. Y.; MORTON, K.; CAMPBELL, D.; GONZALEZ, F. Autonomous UAV
with vision based on-board decision making for remote sensing and precision agriculture. In:
IEEE Aeropace Conference, 2017, Big Sky. Anais... Big Sky: Montana, 2017. p. 1–12.
ALLRED, B.; EASH, N.; FREELAND, R.; MARTINEZ, L.; WISHART, D. Effective and
efficient agricultural drainage pipe mapping with uas thermal infrared imagery: A case study.
Agric. Water Manag., v.197, p. 132-137, 2018.
ALKAABI, K.; ABUELGASIM, A. Applications of Unmanned Aerial Vehicle (UAV)
Technology for Research and Education in UAE. International Journal of Social Sciences
Arts and Humanities, v.5, n.1, p. 4-11, 2017.
78
ANDERSON, K.; GASTON, K. J. Lightweight unmanned aerial vehicles will revolutionize
spatial ecology. Frontiers in Ecology and the Environment, v.11, n.3, p. 138-146, 2013.
ATZBERGER, C. Advances in Remote Sensing of Agriculture: Context Description, Existing
Operational Monitoring Systems and Major Information Needs. Remote Sensing, v.5, n.8, p.
949-981, 2013.
BAENA, S.; MOAT, J.; WHALEY, O.; BOYD, D. S. Identifying species from the air: UAVs
and the very high resolution challenge for plant conservation. PLoS ONE, v.12, p. e0188714,
2017.
BARUCH, Z.; LUDLOW, M.M.; DAVIS, R. Photosynthetic responses of native introduced
C4 grasses from Venezuela savannas. Oecologia, v.67, p. 388-393, 1985.
BENDIG, J.; YU, K.; AASEN, H.; BOLTEN, A.; BENNERTZ, S.; BROSCHEIT, J.; Gnyp,
M. L.; Bareth, G. Combining uav-based plant height from crop surface models, visible, and
near infrared vegetation indices for biomass monitoring in barley. Int. J. Appl. Earth Obs.,
v.39, 79-87, 2015.
BARET, E.; GUYOT, G. Potentials and limits of vegetation indices for LAI and APAR
assessment. Remote Sensing of Environment, v.35, p. 161-173, 1991.
BANNARI, A.; MORIN, D.; BONN, F. A Review of Vegetation Indices. Remote Sensing
Reviews, v.13, p. 95-120, 1995.
BASSO, B.; CAMMARANO, D.; DE VITA, P. REMOTELY SENSED VEGETATION
INDICES: THEORY AND APPLICATIONS FOR CROP MANAGEMENT. Rivista
Italiana di Agrometeorologia, v.1, p. 36-53, 2004.
BERNI, J. A. J.; ZARCO-TEJADA, P. J.; SUAREZ, L.; FERERES, E. Thermal and
narrowband multispectral remote sensing for vegetation monitoring from an unmanned aerial
vehicle. IEEE Transactions on Geoscience and Remote Sensing, v.47, n.3, p. 722-738,
2009.
BAROTT, K.; SMITH, J.; DINSDALE, E.; HATAY, M.; SANDIN, S.; ROHWER, F.
Hyperspectral and physiological analyses of coralalgal interactions. PLoS ONE, v.4, n.11, p.
e8043, 2009.
BARALDI, A.; BLONDA, P.; PARMIGGIANI, F.; SATALINO, G. Contextual clustering for
image segmentation. Optical Engineering, v.39, p. 1-17, 2000.
BALL, G.; HALL, D. A clustering technique for summarizing multivariate data. Behavior
Science, v.12, p. 153-155, 1967.
AUGUIE, B. (2017). gridExtra: Miscellaneous Functions for "Grid" Graphics. R package
version 2.3. https://CRAN.R-project.org/package=gridExtra
79
BARRERO, O.; PERDOMO, S. A. RGB and multispectral UAV image fusion for Gramineae
weed detection in rice fields. Precision Agric., v. 19, p. 809–822, 2018.
BACHAR, A.; POLERECKY, L.; FISCHER, J. P.; VAMVAKOPOULOS, K.; BEER, D. D.;
JONKERS, H. M. Two-dimensional mapping of photopigment distribution and activity of
chloroflexus-like bacteria in a hypersaline microbial mat. FEMS Microbiol. Ecol. v.65, n.3,
p. 434-448, 2008.
BINCH, A.; FOX, C. W. Controlled comparison of machine vision algorithms for Rumex and
Urtica detection in grassland. Comput. Electron. Agric., v.140, p. 123-138, 2017.
BIVAND, R.; KEITT, T.; ROWLINGSON, B. (2018). rgdal: Bindings for the 'Geospatial'
Data Abstraction Library. R package version 1.3-4. https://CRAN.R-
project.org/package=rgdal
BORRA-SERRANO, I. PEÑA, J. M.; TORRES-SÁNCHEZ, J.; MESAS-CARRASCOSA, F.
J.; LÓPEZ-GRANADOS, F. Spatial Quality Evaluation of Resampled Unmanned Aerial
Vehicle-Imagery for Weed Mapping. Sensors, v.15, p. 19688-19708, 2015.
BOSSE, M.; NEWMANN, P.; LEONARD, J.; SOIKA, M.; FEITEN, W.; TELLER, S. An
Atlas framework for scalable mapping. In: IEEE International Conference on Robotics and
Automation,Instituteof Electrical Engineers, Piscataway. Anais... Piscataway, USA, 2003.
BARESEL, J. P.; RISCHBECK, P.; HU, Y.; KIPP, S.; HU, Y.; BARMEIER, G.; MISTELE,
B.; SCHMIDHALTER, U. 2017. Use of a digital camera as alternative method for non-de-
structive detection of the leaf chlorophyll content and the nitrogen nutrition status in wheat.
Computers and Electronics in Agriculture, v.140, p. 25-33, 2017.
BAENA, S.; BOYD, D.; MOAT, J. UAVs in pursuit of plant conservation - Real world
experiences. Ecological Informatics, v.47, p. 2-9, 2017.
BRYSON, M.; SUKKARIEH, S. Inertial Sensor-Based Simultaneous Localization and
Mapping for UAVs. In: VALAVANIS, K. P.; VACHTSEVANOS G. J. (Org.). Handbook of
Unmanned Aerial Vehicles. New York: Springer, 2015. p. 401-430.
BORDOGNA, G.; KLIMENT, T.; FRIGERIO, L.; BRIVIO, P. A.; CREMA, A.;
STROPPIANA, D.; BOSCHETTI, M.; STERLACCHINI, S. Spatial Data Infrastructure
Integrating Multisource Heterogeneous Geospatial Data and Time Series: A Study Case in
Agriculture.” ISPRS International Journal of Geo-Information, v.5, n.5, p.1-27, 2016.
DOI: 10.3390/ijgi5050073.
CAMPBELL, J. B. Introduction to Remote Sensing. New York: The Guilford Press, 1987.
551 p.
CARR, D. ported by Nicholas Lewin-Koh, Martin Maechler and contains copies of lattice
functions written by Deepayan Sarkar. 2019. hexbin: Hexagonal Binning Routines. R
package version 1.27.3. https://CRAN.R-project.org/package=hexbin.
80
CARLSON, T. N.; GILLIES, R. R.; PERRY, E. M. A method to make use of thermal infrared
temperature and NDVI measurements to infer surface soil water content and fractional
vegetation cover. Remote Sensing Reviews, v.9, n.1-2, p. 161-173, 1994.
CASTALDI, F.; PELOSI, F.; PASCUCCI, S.; CASA, R. Assessing the potential of images
from unmanned aerial vehicles (UAV) to support herbicide patch spraying in maize. PRECIS
AGRIC. v.18, n.1, p. 76-94, 2017.
DE CASTRO, A. I.; TORRES-SÁNCHEZ, J.; PEÑA, J. M.; JIMÉNEZ-BRENES, F. M.;
CSILLIK, O.; LÓPEZ-GRANADOS, F. An Automatic Random Forest-OBIA Algorithm for
Early Weed Mapping between and within Crop Rows Using UAV Imagery. Remote Sens.,
v.10, p. 285, 2018.
CASELLES, V.; SOBRINO, A.; COLI, C. On the use of satellite termal data for determining
evapotranspiration in partially vegetated areas. International Journal of Remote Sensing,
v.13, n.14, p. 2669-2682, 1992.
CHRISTIE, K.S.; GILBERT, S.L.; BROWN, C.L.; HATFIELD, M.; HANSON, L.
Unmanned aircraft systems in wildlife research: Current and future applications of a
transformative technology. Front. Ecol. Environ., v.14, p. 241–251, 2016.
CHABOT, D.; BIRD, D.M. Wildlife research and management methods in the 21st century:
Where do unmanned aircraft fit in? J. Unmanned Veh. Syst., v.3, p. 137–155, 2015.
CHAI, T.; DRAXLER, R. R. Root mean square error (RMSE) or mean absolute error
(MAE)? – Arguments against avoiding RMSE in the literature. Geosci. Model Dev., v.7, p.
1247-1250, 2014. DOI: 10.5194/gmd-7-1247-2014
CHAI, T.; KIM, H. C.; LEE, P.; TONG, D.; PAN, L.; TANG, Y.; HUANG, J.; MCQUEEN,
J.; TSIDULKO, M.; STAJNER, I. Evaluation of the United States National Air Quality
Forecast Capability experimental real-time predictions in 2010 using Air Quality System
ozone and NO2 measurements, Geosci. Model Dev., v.6, p.1831-1850, 2013.
DOI:10.5194/gmd-6-1831-2013
CRUSIOL, L. G. T., NANNI, M. R.; SILVA, G. F. C.; FURLANETTO, R. H.; SILVA
GUALBERTO, A. A. da S.; GASPAROTTO, A. de C.; PAULA, de M. N. Semi Professional
Digital Camera Calibration Techniques for Vis/NIR Spectral Data Acquisition from an
Unmanned Aerial Vehicle. International Journal of Remote Sensing, v.38, n.8-10, p. 2717-
2736, 2017.
CHRISTIANSEN, M. P.; LAURSEN, M. S.; JORGENSEN, R. N.; SKOVSEN, S.; GISLUM,
R. Designing and testing a UAV mapping system for agricultural field surveying. Sensors,
v.17, n.12, p. 2703, 2017.
COLOMINA, I.; MOLINA, P. Unmanned aerial systems for photogrammetry and remote
sensing: A review. ISPRS Journal of Photogrammetry and Remote Sensing, v.92, p. 79-
97, 2014.
81
COUTINHO, L.M. Aspectos ecológicos da saúvano cerrado - os murundus de terra, as
caracteristicas psamofiticas das espécies de sua vegetação e a sua invasão pelo capim-gordura.
Revista Brasileira de Botânica, v.42, p. 147-153, 1982.
CANDIAGO, S.; REMONDINO, F.; GIGLIO, M.; DUBBINI, M.; GATTELLI, M.
Evaluating multispectral images and vegetation indices for precision farming applications
from UAV images. Remote Sensing, v.7, n.4, p. 4026-4047, 2015.
COLWELL, R. Determining the Prevalence of Certain Cereal Crop Diseases by Means of
Aerial Photography. Hilgardia, v.26, n.5, p. 223-286, 1956.
DAVID, L. C. G.; BALLADO, A. H. J. Vegetation Indices and Textures in Object-based
Weed Detection from UAV imagery. In: 2016 6th IEEE International Conference on Control
System, Computing and Engineering, Penang, Malaysia, 2016. p. 25–27.
DENG, L.; MAO, Z.; LI, X.; HU, Z.; DUAN, F.; YAN, Y. UAV-based multispectral remote
sensing for precision agriculture: A comparison between diferent cameras. ISPRS Journal of
Photogrammetry and Remote Sensing, v.146, p. 124-136, 2018
D'ANTONIO C. M.; VITOUSEK P. M. Biological invasions by exotics grasses, the grass/fire
cycle, and global change. Annual Review of Ecology and Systematics, v.63, p. 63-87, 1992.
DORAISWAMY, P. C.; MOULIN, S.; COOK, P. W.; STERN, A. Crop Yield Assessment
From Remote Sensing. Photogrammetric Engineering & Remote Sensing, v.69, n.6, p.
665-674, 2003.
DVORÁK, P., MULLEROVÁ, J.; BARTALOS, T.; BRUNA, J. Unmanned Aerial Vehicles
For Alien Plant Species Detection And Monitoring. In The International Archieves Of The
Photogrammetry. Remote Sensing and Spatial Information Sciences, v.XL-1/W4, 2015.
DEMOTES-MAINARD, S.; BOUMAZA, R.; MEYER, S.; CEROVIC, Z. G. Indicators of
nitrogen status for ornamental woody plants based on optical measurements of leaf epidermal
polyphenol and chlorophyll contents. Scientia Horticulturae, v.115, n.4, p. 377-385, 2008.
DE SÁ, N. C.; CASTRO, P.; CARVALHO, S.; MARCHANTE, E.; LÓPEZ-NÚNEZ, F. A.;
MARCHANTE, H. Mapping the Flowering of an Invasive Plant Using Unmanned Aerial
Vehicles: Is There Potential for Biocontrol Monitoring?. Frontiers in Plant SciencE, v.9, p.
283, 2018.
DALAMAGKIDIS, K. Definitions and Terminology. In: VALAVANIS, K. P.;
VACHTSEVANOS G. J. (Org.). Handbook of Unmanned Aerial Vehicles. New York:
Springer, 2015. p. 43–55.
DEFENSE WEB AND FORECAST INTERNATIONAL. UAV market to see major
growth in next decade forecast international. 2014. Disponível em:
<http://www.defenceweb.co.za/index.php?option=com_content&vie%20w=article&id=34420
:uav-market-to-see-major-growth-in
82
nextdecade%E2%80%94forecast%20international&catid=35:Aerospace&Itemid=107>.
Acesso em 08 jan. 2019, 07:45:20.
DOERING, D.; BENENMANN, A.; LERM, R.; DE FREITAS, E. P.; MULLER, I.;
WINTER, J. M.; PEREIRA, C. E. Design and optimization of a heterogeneous platform for
multiple uav use in precision agriculture applications. IFAC Proc., v.47, p. 12272-12277,
2014.
DAUGHTRY, C. S. T.; WALTHALL, C. L.; KIM, M. S.; DE COLSTOUN, E. B.;
MCMURTREY, J. E. Estimating Corn Leaf Chlorophyll Concentration from Leaf and
Canopy Reflectance. Remote Sensing of Environment, v.74, n.2, p. 229-239, 2000.
DEEPAYAN, S. (2008) Lattice: Multivariate Data Visualization with R. Springer, New York.
ISBN 978-0-387-75968-5.
DISSANAYAKE, M; NEWMAN, P.; CLARK, S.; DURRANT-WHYTE, H.; CSORBA, M.
A solution to the simultaneous localization and map building (SLAM) problem. IEEE Trans.
Robot. Autom., v.17, n.3, p. 229-241, 2001.
DAUGHTRY, C. S. T.; WALTHALL, C. L.; KIM, M. S.; BROWN DE COLSTOUN, E.;
MCMURTREY III, J. E. Estimating Corn Leaf Chlorophyll Concentration from Leaf and
Canopy Reflectance. REMOTE SENS. ENVIRON. v.74, p. 229-239, 2000.
DASH, J.; CURRAN, P. J. The MERIS terrestrial chlorophyll index. International Journal
of Remote Sensing, v.25, p. 5403-5413, 2004.
EVANS, L. J.; JONES, T. H.; PENG, K.; EVANS, M. N.; SAIMIN, S.; GOOSSENS, B. Use
of drone technology as a tool for behavioral research: a case study of crocodilian nesting.
Herpetol. Conserv. Biol., v.10, p. 90-98, 2015.
EMPRESA BRASILEIRA DE PESQUISA AGROPECUÁRIA-EMBRAPA. Sistema
brasileiro de classificação de solos. 3ª. ed. Rio de Janeiro: EMBRAPA-SPI, 2006.
ELVIDGE, C. D.; CHEN, Z. Comparison of Broad-Band and Narrow-Band Red and
NearInfrared Vegetation Indices. Remote Sensing of Environment, v.54, n.1, p. 38-48,
1995.
FREITAS, S.; SILVA, H.; ALMEIDA, J.; SILVA, E. Hyperspectral Imaging for Real-Time
Unmanned Aerial Vehicle Maritime Target Detection. J Intell Robot Syst, v.90, p. 551-570,
2018.
FRANZONI, C.; SAUERMANN, H. Crowd Science: The Organization of Scientific Research
in Open Collaborative Projects. Research Policy, v.43, n.1, p.1–20, 2014. DOI:
10.1016/j.respol.2013.07.005.
FREITAS, G. K. Invasão biológica pelo capim-gordura (Melinis minutiflora Beauv.) em um
fragmento de cerrado (A.R.I.E. Cerrado Pé-de-Gigante, Santa Rita do Passa Quatro, SP).
83
1999. 147p. Dissertação (Mestrado na área de Ecologia) - Universidade de São Paulo, São
Paulo, 1999.
FITZGERALD, G.; RODRIGUE, D.; O’LEARY, G. Measuring and Predicting Canopy
Nitrogen Nutrition in Wheat Using a Spectral Index—The Canopy Chlorophyll Content Index
(CCCI). Field Crops Research, v.116, n.3, p. 318-324, 2010.
FAIÇAL, B. S.; FREITAS, H.; GOMES, P. H.; MANO, L.Y.; PESSIN, G.; DE
CARVALHO, A. C.; KRISHNAMACHARI, B.; UEYAMA, J. An adaptive approach for
UAV-based pesticide spraying in dynamic environments. Comput. Electron. Agric., v.138,
p. 210-223, 2017.
FRANCHI, A.; SECCHI, C.; SON, H. I.; BULTHOFF, H. H.; GIODANO, P. R. Bilateral
teleoperation of groups of mobile robots with time-varying topology. IEEE Trans. Robot.,
v.28, n.5, p. 1019-1033, 2012.
FEDERAL AVIATION ADMINISTRATION. Unmanned aircraft systems operations in
the U. S. national airspace system. Interim Operational Approval Guidance 08-01, 2008. 18
p.
FENG, Q.; LIU, J.; GONG, J. UAV remote sensing for urban vegetation mapping using
random forest and texture analysis. Remote Sens., v.7, p. 1074-1094, 2015.
FORTES, E. P. Seed Plant Drone for Reforestation. The Graduate Review, v.2, p.13-26,
2017.
FLOREANO, D.; WOOD, R. J. Science, technology and the future of small autonomous
drones. Nature, v.521, p. 460-466, 2015.
FOWLER, J.; COHEN, L.; JARDIS, P. Practical Statistics for Field Biology. 2. ed.
Loughborough: Wiley, 2009. 132 p.
FOUNTAS, S.; SORENSEN, C. G.; TSIROPOULOS, Z.; CAVALARIS, C.; LIAKOS, V.;
GEMTOS, T. Farm machinery management information system. Computers and
Electronics in Agriculture, v.110, p. 131-138, 2015.
GOLÇALVES, M. L.; NETTO, M. L. A.; COSTA, J.A A. F.; ZULLO JÚNIOR, J. An
unsupervised method of classifying remotely sensed images using Kohonen self‐organizing
maps and agglomerative hierarchical clustering methods. International Journal of Remote
Sensing, v.29, n.11, p. 3171-3207, 2008.
GONÇALVES, M. L.; NETTO, M. L. A.; COSTA, J. A. F; ZULLO JÚNIOR, J. Automatic
remotely sensed data clustering by tree-structured self-organizing maps. In: Proceedings of
IEEE International Geoscience and Remote Sensing Symposium (IGARSS’05), Seoul Korea,
2005. p. 1-4.
GONÇALVES, J.; HENRIQUES, R.; ALVES, P.; SOUSA-SILVA, R.; MONTEIRO, A.T.;
LOMBA, Â.; MARCOS, B.; HONRADOO, J. Evaluating an unmanned aerial vehicle-based
84
approach for assessing habitat extent and condition in fine-scale early successional mountain
mosaics. Appl. Veg. Sci., 19, 132–146, 2016.
GOKTOGAN, A. H.; SUKKARIEH, S.; BRYSON, M.; RANDLE, J.; LUPTON, T.; HUNG,
C. A rotary-wing unmanned air vehicle for aquatic weed surveillance and management. J.
Intell. Robot. Syst., v.57, p. 467-484, 2010.
GINI, R.; SONA, G.; RONCHETTI, G.; PASSONI, D.; PINTO, L. Improving Tree Species
Classification Using UAS Multispectral Images and Texture Measures. ISPRS Int. J. Geo-
Inf., v.7, p. 315, 2018.
GITELSON, A. A.; KAUFMAN, Y. J.; STARK, R.; RUNDQUIST, D. Novel algorithms for
remote estimation of vegetation fraction. Remote Sens. Environ., v.80, p. 76-87, 2002.
GITELSON, A. A. Wide dynamic range vegetation index for remote quantifi cation of
biophysical characteristics of vegetation. Journal of Plant Physiology, v.161, p. 165-173,
2004.
GITELSON, A. A.; KAUFMAN, Y. J.; MERZLYAK, M. N. Use of a green channel in
remote sensing of global vegetation from EOS-MODIS. Remote Sensing of Environment,
v.58, p. 289-298, 1996.
GITELSON, A. A.; VIÑA, A.; CIGANDA, V.; RUNDQUIST, D. C.; ARKEBAUER, T. J.
Remote estimation of canopy chlorophyll content in crops. Geophysical Research Letters,
v.32, p. L08403, 2005.
GITELSON, A. A.; VIÑA, A.; ARKEBAUER, T. J.; RUNDQUIST, D. C.; KEYDAN, G.;
LEAVITT, B. Remote estimation of leaf area index and green leaf biomass in maize canopies.
Geophysical Research Letters, v.30, n.5, p. 1248, 2003.
GITELSON, A. A.; GRITZ, Y.; MERZLYAK, M. N. Relationships between leaf chlorophyll
content and spectral refl ectance and algorithms for non-destructive chlorophyll assessment in
higher plant leaves. Journal of Plant Physiology, v.160, p. 271-282, 2003.
GITELSON, A. A.; VIÑA, A.; CIGANDA, V.; RUNDQUIST, D. C.; ARKEBAUER, T. J.
Remote Estimation of Canopy Chlorophyll Content in Crops. Geophysical Research Letters,
v.32, n.8, p. L08403, 2005.
GONZÁLES-DUGO, V.; ZARCO-TEJADA, P.; NICOLA, S. E.; NORTES, P. A.;
ALARCO, N. J. J.; INTRIGLIOLO, D. S.; et al. Using High Resolution UAV Thermal
Imagery to Assess the Variability in the Water Status of Five Fruit Tree Species Within A
Commercial Orchard. Precis Agric. Springer US, v.14, n.6, p. 660-678, 2013.
GUIVANT, J.; NEBOT, E. Optimization of the simultaneous localization and map-building
algorithm for real-time implementation. IEEE Trans. Robot. Autom., v.17, n.3, p. 242-257,
2001.
85
GUTMANN, J.; KONOLIGE, K. Incremental mapping of large cyclic environments, in
International Symposium on Computational Intelligence. In: Robotics and Automation,
Institute of Electrical Engineers, Piscataway. Anais... Piscataway, USA, 1999.
GAO, J.; LIAO, W.; NUYTTENS, D.; LOOTENS, P.; VANGEYTE, J.; PIZURICA, A.; HE,
Y.; PIETERS, J. G. Fusion of pixel and object-based features for weed mapping using
unmanned aerial vehicle imagery. International Journal of Applied Earth Observation,
v.67, 43-53, 2018.
GROUND TRUTH 2.0. 2017. Land Use Mapper. Accessado em 30 novembro de 2018.
http://gt20.eu/land-usemapper/
HARDIN, P. J.; JACKSON, M. W.; ANDERSON, V. J.; JOHNSON, R. Detecting Squarrose
Knapweed (Centaurea virgata Lam. Ssp. squarrosa Gugl.) using a Remotely Piloted Vehicle:
A Utah case study. GIsci. Remote Sens., v.44, p. 203-219, 2007.
HAUKE, J.; KOSSOWSKI, T. Comparison of values of Pearson’s and Spearman’s
correlation coefficients on the same sets of data. Quaestiones Geographicae, v.30, n.2, p. 87-
93, 2011.
HIJMANS, R. J. (2017). raster: Geographic Data Analysis and Modeling. R package
version 2.6-7. https://CRAN.R-project.org/package=raster.
HYNDAMAN, R.; ATHANASOPOULOS, G.; BERGMEIR, C.; CACERES, G.; CHHAY,
L.; O'HARA-WILD, M.; PETROPOULOS, F.; RAZBASH, S.; WANG, E.; YASMEEN, F.
(2019). forecast: Forecasting functions for time series and linear models. R package version
8.5, <URL: http://pkg.robjhyndman.com/forecast>.
HAGUE, T.; TILLETT, N. D.; WHEELER, H. Automated crop and weed monitoring in
widely spaced cereals. Precis. Agric., v.7, p. 21-32, 2006.
HORLER, D. N. H.; DOCKRAY, M.; BARBER, J. The Red Edge of Plant Leaf Reflectance.
International Journal of Remote Sensing, v.4, n.2, p. 273-288, 1983.
HUETE, A. R.; JUSTICE, C.; VAN LEEUWEN, W. MODIS Vegetation index (MOD 13),
EOS MODIS Algorithm Theoretical Basis Document. Maryland: NASA Goddard Space
Flight Center, 1996. 115 p.
HUETE, A. R. A Soil-Adjusted Vegetation Index (SAVI). Remote Sensing of Environment,
v.25, n.3, p.295–309, 1988. DOI:10.1016/0034-4257(88)90106-X.
HUETE, A. R.; LIU, H. Q.; BATCHILY, K.; VANLEEUWEN, W. A comparison of
vegetation indices global set of TM images for EOS-MODIS. Remote Sensing of
Environment, v.59, p. 440-451, 1997.
HUANG, K. The use of a newly developed algorithm of divisive hierarchical clustering for
remote sensing image analysis. International Journal of Remote Sensing, v.23, p. 3149-
3168, 2002.
86
HUNG, C.; XU, Z.; SUKKARIEH, S. Feature Learning Based Approach for Weed
Classification Using High-Resolution Aerial Images from a Digital Cameral Mounted on a
UAV. Remote Sensing, v.6. p. 12037–12054, 2014.
HUANG, H.; DENG, J.; LAN, Y.; YANG, A.; DENG, X.; ZHANG, L. A fully convolutional
network for weed mapping of unmanned aerial vehicle (UAV) imagery. PLoS ONE, v.13,
n.4, p. e0196302, 2018.
HONGOH, D.; KAJIWARA, K.; HONDA, Y. Developing Ground Truth Measurement
System Using RC Helicopter and BRDF Model in Forest Area. In: 22nd Asian Conference on
Remote Sensing, Singapore. Anais... Singapore: Singapore Institute of Surveyors and Valuers
(SISV), 2001. p. 1-6.
HUNT, E. R.; DAUGHTRY, C. S. T. What good are unmanned aircraft systems for
agricultural remote sensing and precision agriculture?. International Journal of Remote
Sensing, v.39, n.15-16, p. 5345-5376, 2018.
HABOUDANE, D.; MILLER, J.R.; PATTEY, E.; ZARCO‑TEJADA, P.J.; STRACHAN, I.B.
Hyperspectral vegetation indices and novel algorithms for predicting green LAI of crop
canopies: modeling and validation in the context of precision agriculture. Remote Sensing of
Environment, v.90, p. 337‑352, 2004. DOI: 10.1016/j.rse.2003.12.013.
HAYAT, S.; YANMAZ, E.; MUZAFFAR, R. Survey on Unmanned Aerial Vehicle Networks
for Civil Applications: A Communications Viewpoint. IEEE Communications Surveys &
Tutorials, v.18, n.4, p. 2624-2661, 2016.
IVOSEVIC, B.; HAN, Y.; CHO, Y.; KWON, O. The use of conservation drones in ecology
and wildlife research. J. Ecol. Environ., v.38, n.1, p. 113-118, 2015.
INOUE, Y.; MORINAGA, S.; TOMITA, A. A Blimp-Based Remote Sensing System for
LowAltitude Monitoring of Plant Variables: A Preliminary Experiment for Agricultural and
Ecological Applications. International Journal of Remote Sensing, v.21, n.2, p. 379-385,
2000,
IDRIES, A.; MOHAMED, N.; JAWHAR, I.; MOHAMED, F. AL-JAROODI, J. Challenges
of Developing UAV Applications: A Project Management View. In: International Conference
on Industrial Engineering and Operations Management (IEOM), 2015. p. 1-10.
JI, M. Using fuzzy sets to improve cluster labeling in unsupervised classification.
International Journal of Remote Sensing, v.24, p. 657-671, 2003.
JU, C.; SON, H. Multiple UAV systems for agricultural applications: control,
implementation, and evaluation. Electronics, v.7, n.9, p. 2-19, 2018.
JACKSON, R. D. Remote Sensing of Vegetation Characteristics for Farm Management.
SPIE Critical Reviews of Technology Series: Remote Sensing, v.475, p. 81-96, 1984.
87
JACKSON, R. D.; YOUNGBLOOD, J. W. Agriculture’s Eye in the Sky. Forever Plane Could
Give Continuous Crop Data. Crop & Soils Magazine, v.36, n.1, p. 15-18, 1983.
JANNOURA, R.; BRINKMANN, K.; UTEAU, D.; BRUNS, C.; JOERGENSEN, R. G.
Monitoring of crop biomass using true colour aerial photographs taken from a remote
controlled hexacopter. Biosyst. Eng., v.129, p. 341-351, 2015.
JORDAN, C. F. Derivation of leaf area index from quality of light on the forest floor.
Ecology, v.50, p. 663-666, 1969.
JOS, B.; NICOLS, M.; DANILO, C.; EDUARDO, A. Multispectral ndvi aerial image system
for vegetation analysis by using a consumer câmera. In: 2014 IEEE International Autumn
Meeting on Power, Electronics and Computing (ROPEC), 2014, p. 1-6.
JORDAN, C. F. Derivation of leaf-area index from quality of light on forest floor. Ecology,
v.50, n.4, p. 663-666, 1969.
JUFFE-BIGNOLI, D.; BURGESS, N.D.; BINGHAM, H.; BELLE, E.M.S.; de LIMA, M.G.;
DEGUIGNET, M.; BERTZKY, B.; MILAM, N.; MARTINEZ-LOPEZ, J.; LEWIS, E.; et al.
Protected Planet Report 2014. UNEP-WCMC: Cambridge, UK, 2014, 69 p.
KEOGH, M.; HENRY, M. The Implications of Digital Agriculture and Big Data for
Australian Agriculture. Sydney: Australian Farm Institute, 2016. 68 p.
KANEKO, K.; NOHARA, S. Review of Effective Vegetation Mapping Using the UAV
(Unmanned Aerial Vehicle) Method. Journal of Geographic Information System, v.6, p.
733-742, 2014.
KASSAMBARA, A. 2019. ggpubr: 'ggplot2' Based Publication Ready Plots. R package
version 0.2.1. https://CRAN.R-project.org/package=ggpubr.
KYRATZIS, A. C.; SKARLATOS, D. P.; MENEXES, G. C.; VAMVAKOUSIS, V. F.;
KATSIOTIS, A. Assessment of Vegetation Indices Derived by UAV Imagery for Durum
Wheat Phenotyping under a Water Limited and Heat Stressed Mediterranean Environment.
Frontiers in Plant Science, v.8, n.1114, p.1-14, 2017. DOI: 10.3389/fpls.2017.01114
KOH, L. P.; WICH, S. A. Dawn of drone ecology: low-cost autonomous aerial vehicles for
conservation. Tropical Conservation Science, v.5, n.2, p. 121-132, 2012.
KOGAN, F. N. Remote Sensing of Weather Impacts on Vegetation in Nonhomogeneous
Areas. International Journal of Remote Sensing, v.11, n.8, p. 1405-1419, 1990.
KEITH, C. J.; REPASKY, K. S.; LAWRENCE, R. L.; JAY, S. C.; CARLSTEN, J. L.
Monitoring effects of a controlled subsurface carbon dioxide release on vegetation using a
hyperspectral imager. Int. J. Greenh. Gas Control, v.3, n.5, p. 626-632, 2009.
KUHL, M.; POLERECKY, L. Functional and structural imaging of phototrophic microbial
communities and symbioses. Aquat. Microb. Ecol. v.53, p. 99-118, 2008.
88
KRULL, W.; TOBERA, R.; WILLMS, I.; ESSEN, H.; WAHL, N. V. 2012 International
Symposium on Safety Science and Technology Early forest fire detection and verification
using optical smoke, gas and microwave sensors. Procedia Engineering, v.45, p.584-594,
2012. DOI: 10.1016/j.proeng.2012.08.208.
KLOBE, J.; MCKEAN, J. W. Nonparametric Statistical Methods Using R. 1. ed. Flórida:
CRC Press, 2014. 287 p.
KHUN, K.; VIGNEAULT, P.; FALLON, E.; TREMBLAY, N.; CODJIA, C.; CAVAYAS, F.
Estimating Corn Biomass from RGB Images Acquired with an Unmanned Aerial Vehicle. In:
14th International Conference on Precision Agriculture, Montreal, Quebec, 2018. p. 1-9.
KUHN, M. Contributions from Jed Wing, Steve Weston, Andre Williams, Chris Keefer,
Allan Engelhardt, Tony Cooper, Zachary Mayer, Brenton Kenkel, the R Core Team, Michael
Benesty, Reynald Lescarbeau, Andrew Ziem, Luca Scrucca, Yuan Tang, Can Candan and
Tyler Hunt. (2018). caret: Classification and Regression Training. R package version 6.0-81.
https://CRAN.R-project.org/package=caret
KOH, L. P.; WICH, S. A. Dawn of drone ecology: low-cost autonomous aerial vehicles for
conservation. Tropical Conservation Science, v.5, n.2, p. 121-132, 2012.
KNOTH, C.; KLEIN, B.; PRINZA, T.; KLEINBECKER, T. Unmanned Aerial Vehicles as
Innovative Remote Sensing Platforms for High-Resolution Infrared Imagery to Support
Restoration Monitoring in Cut-Over Bogs. Applied Vegetation Science, v.16, p. 509-517,
2013.
LALIBERTE, A. S.; GOFORTH, M. A.; STEELE, C. M.; RANGO, A. Multispectral Remote
Sensing from Unmanned Aircraft: Image processing workflows and applications for
rangeland environment. Remote Sens., v.3, p. 2529-2551, 2011.
LAMIGUEIRO, O. P.; HIJMANS, R. (2018), rasterVis. R package version 0.45.
LEHMANN, J. R. K.; PRINZ, T.; ZILLER, S. R.; THIELE, J.; HERINGER, G.; MEIRA-
NETO, J. A. A.; BUTTSCHARDT, T. K. Open-source processing and analysis of aerial
imagery acquired with a low-cost unmanned aerial system to support invasive plant
management. Front. Environ. Sci., v.5, n.44, p. 1-16, 2017
LUCIEER, A.; ROBINSON, S.; TURNER, D.; HARWIN, S.; KELCEY, J. Using a micro-
UAV for ultra-high resolution multi-sensor observations of Antarctic moss beds. In:
Proceedings of the 2012 XXII ISPRS Congress, Melbourne, Australia, 2012. p. 429-433.
LIU, W. T.; KOGAN, F. N. Monitoring Regional Drought Using the Vegetation Condition
Index. International Journal of Remote Sensing, v.17, n.14, p. 2761-2782, 1996.
LI, W.; NIU, Z.; CHEN, H.; LI, D.; WU, M.; ZHAO, W.; Remote estimation of canopy
height and aboveground biomass of maize using high-resolution stereo images from a low-
cost unmanned aerial vehicle system. Ecological Indicators, v. 67, p. 637-648, 2016.
89
LINCHANT, J.; LISEIN, J.; SEMEKI, J.; LEJEUNE, P.; VERMEULEN, C. Are unmanned
aircraft systems (UASs) the future of wildlife monitoring? A review of accomplishments and
challenges. Mamm. Rev., v.45, p. 239-252, 2015.
LIAKOS, K. G.; BUSATO, P.; MOSHOU, D.; PEARSON, S.; BOCHTIS, D. Machine
Learning in Agriculture: A Review. Sensors, v.18, p. 2674, 2018.
LIU, A.; BICHENG, L.; CHEN, G.; ZHANGIU, X. A new ART neural networks for remote
sensing image classification. Lecture Notes in Computer Science, v.3611, p. 37-42, 2005.
LIEW, C. F.; DELATTE, D.; TAKEISHI, N.; YAIRI, T. Recent Developments in Aerial
Robotics: A Survey and Prototypes Overview. arXiv:1711.10085 [cs.RO], p. 1-14, 2017.
LO, C. P.; QUATTROCHI, D. A.; LUVALL, J. C. Application of high-resolution thermal
infrared remote sensing and GIS to assess the urban heat island effect. International Journal
of Remote Sensing, v.18, n.2, p. 287-304, 1997.
LÓPEZ, J. J.; MULERO-PÁZMÁNY, M. Drones for Conservation in Protected Areas:
Present and Future. Drones, v.3, p. 10, 2019.
LEE, E.; YOON, H.; HYUN, S. P.; BURNETT, W. C.; KOH, D.; HA, K.; KIM, D.; KIM, Y.;
KANG, K. Unmanned aerial vehicles (UAVs)-based thermal infrared (TIR) mapping, a novel
approach to assess groundwater discharge into the coastal zone. Limnol. Oceanogr.:
Methods, v.14, p. 725-735, 2016.
LI, F.; MIAO, Y.; FENG, G.; YUAN, F.; YUE, S.; GAO, X.; LIU, Y.; LIU, B.; USTIN, S. L.;
CHEN, X. Improving Estimation of Summer Maize Nitrogen Status with Red Edge-Based
Spectral Vegetation Indices. Field Crops Research, v.157, p. 111-123, 2014.
LEBOURGEOIS, V.; BÉGUÉ, A.; LABBÉ, S.; MALLAVAN, B.; PRÉVOT, L.; ROUX, B.
Can Commercial Digital Cameras Be Used as Multispectral Sensors? A Crop Monitoring
Test. Sensors, v.8, p. 7300-7322, 2008.
LONG, D.; MRCARTHY, C.; JENSEN, T. Row and water front detection from UAV
thermal-infrared imagery for furrow irrigation monitoring. In: Proceedings of the
International Conference on Advanced Intelligent Mechatronics (AIM), Banff, AB, Canada,
2016. p. 300-305.
LEE, D.; FRANCHI, A.; SON, H. I.; HA, C.; BULTHOFF, H. H.; GIORDANO, P. R.
Semiautonomous haptic teleoperation control architecture of multiple unmanned aerial
vehicles. IEEE/ASME Trans. Mechatron., v.18, n.4, p. 1334-1345, 2013.
LELONG, C. C. D.; BURGER, P.; JUBELIN, G.; ROUX, B.; LABBEA, S.; BARET, F.
Assessment of Unmanned Aerial Vehicles Imagery for Quantitative Monitoring of Wheat
Crop in Small Plots. Sensors. Molecular Diversity Preservation International, v.8, n.5, p.
3557-3585, 2008.
90
LOPOUKHINE, N.; CRAWHALL, N.; DUDLEY, N.; FIGGIS, P.; KARIBUHOYE, C.;
LAFFOLEY, D.; LONDOÑO, J.M.; MACKINNON, K.; SANDWITH, T. Protected areas:
providing natural solutions to 21st Century challenges. Surveys and Perspectives
Integrating Environment and Society, v.5, p.1-16, 2012.
LU, B.; HE, Y. 2017. Species classification using Unmanned Aerial Vehicle (UAV)-acquired
high spatial resolution imagery in a heterogeneous grassland. Isprs J. Photogramm. v.128, p.
73-85, 2017.
MAGNEY, T. S.; VIERLING, L. A.; EITEL, J. U. H.; HUGGINS, D. R. H.; GARRITY, A.
R. Response of High Frequency Photochemical Reflectance Index (PRI) Measurements to
Environmental Conditions in Wheat. Remote Sensing of Environment, v.173, p. 84-97,
2016.
MEJIAS, L.; LAI, J.; BRUGGEMANN, T. Sensors for Missions. In: VALAVANIS, K. P.;
VACHTSEVANOS G. J. (Org.). Handbook of Unmanned Aerial Vehicles. New York:
Springer, 2015. p. 385-399.
MAHAJAN, U.; BUNDEL, B. R. Drones for Normalized Difference Vegetation Index
(NDVI), to Estimate Crop Health for Precision Agriculture: A Cheaper Alternative for Spatial
Satellite Sensors. In: International Conference on Innovative Research in Agriculture, Food
Science, Forestry, Horticulture, Aquaculture, Animal Sciences, Biodiversity, Ecological
Sciences and Climate Change (AFHABEC-2016), Jawaharlal Nehru University, Índia, 2016.
p. 38-41.
MATOS, D. M. S.; PIVELLO, V. R. O impacto das espécies invasoras nos recursos naturais
de ambientes terrestres: alguns casos brasileiros. Ciência e Cultura, v. 61, n.1, p. 27-30,
2009.
MICHEZ, A.; PIÉGAY, H.; JONATHAN, L.; CLAESSENS, H.; LEJEUNE, P. Mapping of
Riparian Invasive Species with Supervised Classification of Unmanned Aerial System (UAS)
Imagery. International Journal of Applied Earth Observation and Geoinformation, v.44,
p. 88–94, 2016.
MATESE, A.; GENNARO, S. F. D. Practical Applications of a Multisensor UAV Platform
Based on Multispectral, Thermal and RGB High Resolution Images in Precision Viticulture.
Agriculture, v.8, n.116, p.1-13, 2018. DOI: 10.3390/agriculture8070116
MONTES, A. de O.; ARREOLA, L.; FLORES, A.; SANCHEZ, J.; FLORES, G. Low-cost
multispectral imaging system for crop monitoring. In: ICUAS’18 The 2018 International
Conference on Unmanned Aircraft Systems, Dallas, TX, USA, 2018. p. 1-9.
MORAN, M. S.; BRYANT, R.; THOME, K.; NI, W.; NOUVELLON, Y; GONZALEZ-
DUGO, M. P.; QI, J.; CLARK, T. R. ARefined Empirical Line Approach for Reflectance
Factor Retrieval for Landsat-5 TM and Landsat-7 ETM+. Remote Sensing of Environment,
v.78, n.1, p. 71-82, 2001.
91
MOZGERIS, G.; JONIKAVICIUS, D.; JOVARAUSKAS, D.; ZINKEVICIUS, R.;
PETKEVICIUS, S.; STEPONAVICIUS, D. Imaging from manned ultra‑light and unmanned
aerial vehicles for estimating properties of spring wheat. Precision Agriculture, v.19, n.5, p.
876-894, 2018.
MELESSE, A.; WENG, Q.; PRASAD, S.; SENAY, G. Remote Sensing Sensors and
applications in environmental resources mapping and modelling. Sensors, v.7, p. 3209-3241,
2007.
MULERO-PÁZMÁNY, M.; STOLPER, R.; VAN ESSEN, L.D.; NEGRO, J.J.; SASSEN, T.
Remotely piloted aircraft systems as a rhinoceros anti-poaching tool in Africa. PLoS One,
v.9, p. 1-10, 2014.
MULLA, D. J. 2013. Twenty-Five Years of Remote Sensing in Precision Agriculture: Key
Advances and Remaining Knowledge Gaps. Biosystems Engineering, v.114, n.4, p. 358-371,
2013.
MÜLLEROVÁ, J.; BRUNA, J.; BARTALOS, T.; DVORÁK, P.; VÍTKOVÁ, M.; PYSÉK, P.
Timing Is Important: unmanned aircraft vs. Satellite Imagery in Plant Invasion Monitoring.
Front. Plant Sci., v.8, n.887, p. 1-13, 2017.
MARRIS, E. Fly, and bring me data. Nature, v.498, p. 156-158, 2013.
MARINO, S.; ALVINO, A. Proximal sensing and vegetation indices for site-specific
evaluation on an irrigated crop tomato. European Journal of Remote Sensing, v.47, p. 271-
283, 2014.
MARINO, S.; ALVINO, A. Detection of homogeneous wheat areas using multi-temporal
UAS images and ground truth data analyzed by cluster analysis. European Journal of
Remote Sensing, v.51, n.1, p. 266-275, 2018.
MATESE, A.; GENNARO, S. F. D.; BERTON, A. Assessment of a canopy height model
(CHM) in a vineyard using UAV-based multispectral imaging. INTERNATIONAL
JOURNAL OF REMOTE SENSING, v.38, n.8, p. 2150-2160, 2017.
MARTIN, F.; MULLERONÁ, J.; BORGNIET, L.; DOMMANGET, F.; BRETON, V.;
EVETTE, A. Using Single- and Multi-Date UAV and Satellite Imagery to Accurately
Monitor Invasive Knotweed Species. Remote Sens. v.10, p. 1662, 2018.
MANGIAFICO, S. (2019). rcompanion: Functions to Support Extension Education Program
Evaluation. R package version 2.1.1. https://CRAN.R project.org/package=rcompanion
MAIMAITIJIANG, M.; GHULAM, A.; SIDIKE, P.; HARTLING, S.; MAIMAITIYIMING,
M.; PETERSON, K.; SHAVERS, E.; FISHMAN, J.; PETERSON, J.; KADAM, S.;
BURKEN, J.; FRITSCHI, F. Unmanned Aerial System (UAS)-based phenotyping of soybean
using multi-sensor data fusion and extreme learning machine. ISPRS Journal of
Photogrammetry and Remote Sensing, v.134, p. 43-58, 2017.
92
MAECHLER, M.; ROUSSEEUW, P.; STRUYF, A.; HUBERT, M.; HORNIK, K. (2018).
cluster: Cluster Analysis Basics and Extensions. R package version 2.0.7-1.
MCHUGH, M. L. Interrater reliability: the kappa statistic. Biochemia Medica, v.22, n.3, p.
276-282, 2012.
MCKEEN, S. A.; WILCZAK, J.; GRELL, G.; DJALALOVA, I.; PECKHAM, S.; HSIE, E.;
GONG, W.; BOUCHET, V.; MENARD, S.; MOFFET, R.; MCHENRY, J.; MCQUEEN, J.;
TANG, Y.; CARMICHAEL, G. R.; PAGOWSKI, M.; CHAN, A.; DYE, T.; FROST, G.,
LEE, P.; MATHUR, R. Assessment of an ensemble of seven realtime ozone forecasts over
eastern North America during the summer of 2004. J. Geophys. Res., v.110, D21307, 2005.
DOI:10.1029/2005JD005858
MERINO, L.; CABALLERO, F.; MARTÍNEZ-DE-DIOS, J. R.; MAZA, I.; OLLERO, A. An
Unmanned Aircraft System for Automatic Forest FireMonitoring and Measurement. J Intell
Robot Syst, v.65, p.533-548, 2012. DOI: 10.1007/s10846-011-9560-x.
MORAIS, M.; MARCHANTE, E.; MARCHANTE, H. Big troubles are already here: Risk
assessment protocol shows high risk of many alien plants present in Portugal. J. Nat.
Conserv., v.35, p. 1-12, 2017.
MULLA, D. J. Twenty-Five Years of Remote Sensing in Precision Agriculture: Key
Advances and Remaining Knowledge Gaps. Biosystems Engineering, v.114, n.4, p. 358-371,
2013.
NANSEN, C.; ZHAO, G.; DAKIN, N.; ZHAO, C.; TURNER, S. R. Using hyperspectral
imaging to determine germination of native australian plant seeds. J. Photochem. Photobiol.
B: Biol., v.145, p. 19-24, 2015.
NEBIKER, S.; LACK, N.; ABACHERLI, M.; LADERACH, S. LIGHT-WEIGHT
MULTISPECTRAL UAV SENSORS AND THEIR CAPABILITIES FOR PREDICTING
GRAIN YIELD AND DETECTING PLANT DISEASES. In: XXIII ISPRS Congress,
Prague, Czech Republic, 2016. p. 963-970.
NEUWIRTH, E. (2014). RColorBrewer: ColorBrewer Palettes. R package version 1.1-2.
https://CRAN.R-project.org/package=RColorBrewer
NGUY-ROBERTSON, A. L.; BRINLEY BUCKLEY, E. M.; SUYKER, A. S.; AWADA, T.
N. Determining Factors that Impact the Calibration of Consumer-Grade Digital Cameras Used
for Vegetation Analysis. International Journal of Remote Sensing, v.37, n.14, p. 3365-
3383, 2016.
NORIEGA, A.; ANDERSON, R. Linear-optimization-based path planning algorithm for an
agricultural UAV. In: Proceeding of the Infotech of American Institute of Aeronautics and
Astronautics (AIAA), San Diego, CA, 2016. p. 1003.
NEWCOME, L. R. Unmanned aviation: A brief history of unmanned aerial vehicles.
Virginia: American Institute of Aeronautics and Astronautics, 2004. 172 p.
93
NATIONAL MUSEUM OF THE USAF. Radioplane/northrop MQM-57 falconer
factsheet. 2009. Disponível em: <https://www.nationalmuseum.af.mil/Visit/Museum-
Exhibits/Fact-Sheets/Display/Article/195784/radioplanenorthrop-mqm-57-falconer/>. Acesso
em 07 jan. 2019, 09:24:30.
OZDOGAN, B.; GACAR, A.; AKTAS, H. Digital agriculture practices in the context of
agriculture 4.0. Journal of Economics, Finance and Accounting, v.4, n.2, p. 184-191, 2017.
O’CONNOR, J.; SMITH, M. J.; JAMES, M. R. Cameras and Settings for Aerial Surveys in
the Geosciences: Optimising Image Data. Progress in Physical Geography, v.41, n.3, p.
325-344, 2017.
PANTAZI, X. E.; MOSHOU, D.; BRAVO, C. Active learning system for weed species
recognition based on hyperspectral sensing. Biosyst. Eng., v.146, p. 193-202, 2016.
PANTAZI, X. E.; TAMOURIDOU, A. A.; ALEXANDRIDIS, T. K.; LAGOPODI, A. L.;
KASHEFI, J.; MOSHOU, D. Evaluation of hierarchical self-organising maps for weed
mapping using UAS multispectral imagery. Comput. Electron. Agric., v.139, p. 224-230,
2017.
PENG, Z. R.; WANG, D.; WANG, Z.; GAO, Y.; LU, S. A study of vertical distribution
patterns of PM2.5 concentrations based on ambient monitoring with Unmanned Aerial
Vehicles: A case in Hangzhou, China. Atmos. Environ., v.123, p. 357-369, 2015.
PEÑA, J. M.; TORRES-SÁNCHEZ, J.; DE CASTRO, A. I.; KELLY, M.; LÓPEZ-
GRANADOS, F. Weed Mapping in Early-Season Maize Fields Using Object-Based Analysis
of Unmanned Aerial Vehicle (UAV) Images. PlosOne, v.8, n.10, p. e77151, 2013.
PÉREZ-ORTIZ, M.; PEÑA, J. M.; GUTIERREZ, P. A.; TORRES-SANCHEZ, J.; HERVAS-
MARTÕNEZ, C.; LOPEZ-GRANADOS, F. A semi-supervised system for weed mapping in
sunflower crops using unmanned aerial vehicles and a crop row detection method. APPL
SOFT COMPUT., v.37, p. 533-544, 2015.
PEEL, M. C.; FINLAYSON, B. L.; MCMAHON, T. A. Updated world map of the K¨oppen-
Geiger climate classification. Hydrol. Earth Syst. Sci., v.11, p. 1633–1644, 2007.
PIVELLO, V. R.; CARVALHO, V. M. C.; LOPES P. F.; PECCININI, A. A.; ROSSO, S.
Abundance and distribution of native and invasive alien grasses in a “cerrado” (Brazilian
savanna) biological reserve. Biotropica, v.31, p. 71-82, 1999 (a).
PIVELLO, V. R.; SHIDA, C. N.; MEIRELLES S. T. Alien grasses in Brazilian savannas: a
threat to the biodiversity. Biodiversity and Conservation, v.8, p. 1281-1294, 1999 (b).
PIVELLO, V. R. Invasões biológicas no Cerrado brasileiro: efeitos da introdução de espécies
exóticas sobre a biodiversidade. Ecologia.Info, v.33, 2011. Disponível em:
<http://ecologia.info/cerrado.htm>. Acesso em: 27 de mar. 2019.
94
POLERECKY, L.; BISSETT, A.; AL-NAJJAR, M.; FAERBER, P.; OSMERS, H.; SUCI, P.
A.; STOODLEY, P.; DE BEER, D. Modular spectral imaging system for discrimination of
pigments in cells and microbial communities. Appl. Environ. Microbiol. v.75, n.3, p. 758-
771, 2008.
PROCTOR, C.; HE, Y. Workflow for Building A Hyperspectral Uav: Challenges And
Opportunities. ISPRS Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci., v.XL-1/W4, p.
415-419, 2015.
PINTER, P. J.; HATFIEL, J. L.; SCHEPERS, J. S.; BARNES, E. M.; MORAN, M. S.;
DAUGHTRY, C. S. T.; UPCHURCH, D. R. Remote Sensing for Crop Management.
Photogrammetric Engineering & Remote Sensing, v.69, n.6, p. 647-664, 2003.
QUATTROCHI, D. A.; LUVALL, J. C. Thermal infrared remote sensing for analysis of
landscape ecological processes: methods and applications. Landscape Ecology, v.14, p. 577-
598, 1999.
QUILTER, M. C.; ANDERSON, V. J. Low Altitude/Large Scale Aerial Photographs: A Tool
for Range and Resource Managers. Rangelands, v.22, n.2, p. 13-17, 2000.
RANGO, A.; LALIBERTE, A. S.; HERRICK, J. E.; WINTERS, C.; HAVSTAD, K.;
STEELE, C.; BROWNING, D. Unmanned aerial vehicle-based Remote Sensing for rangeland
assessment, monitoring, and management. J. Appl. Remote Sens., v.3, p. 1-15, 2009.
R CORE TEAM (2018). R: A language and environment for statistical computing. R
Foundation for Statistical Computing, Vienna, Austria. URL: https://www.R-project.org/.
R CORE TEAM (2019). R: A language and environment for statistical computing. R
Foundation for Statistical Computing, Vienna, Austria. URL: https://www.R-project.org/.
ROUSE, J. W.; HAAS, R. H. Jr.; SCHELL, J. A.; DEERING, D. W. Monitoring
vegetationsystems in the Great Plains with ERTS. Third ERTS-1 Symposium, v.1, p. 309-
317, 1974.
RICHARDSON, A.; SIGNOR, B. M.; LIDBURY, B. A.; BADRICK, T. Clinical chemistry in
higher dimensions: Machine-learning and enhanced prediction from routine clinical chemistry
data. Clin. Biochem., v.49, p. 1213-1220, 2016.
RICHARDSON, D. M.; VAN WILGEN, B.; MITCHELL, D. T. Aspects of the reproductive
ecology of four Australian Hakea species (Proteaceae) in South Africa. Oecologia, v.71, p.
1432-1939, 1987.
RONDEAUX, G.; STEVEN, M.; BARET, F. Optimization of soil-adjusted vegetation
indices. Remote Sensing of Environment, v.55, p. 95-107, 1996.
RIBERA, J.; HE, F.; CHEN, Y.; HABIB, A. F.; DELP, E. J. Estimating Phenotypic Traits
From UAV Based RGB Imagery. In: 22nd ACM SIGKDD Conference on Knowledge
Discovery and Data Mining, San Francisco, California, 2016. p. 1-8.
95
ROMERO, M.; LUO, Y.; SU, B.; FUENTES, S. Vineyard water status estimation using
multispectral imagery from an UAV platform and machine learning algorithms for irrigation
scheduling management. Comput. Electron. Agric., v.147, p. 109–117, 2018.
REICH, P. B.; TILMAN, D.; ISBELL, F.; MUELLER, K.; HOBBIE, S. E., DAN, F. B. F.;
EISENHAUER, N. Impacts of biodiversity loss escalate through time as redundancy fades.
Science, v.336, p. 589–592, 2012.
RODRÍGUEZ, A.; NEGRO, J.J.; MULERO, M.; RODRÍGUEZ, C.; HERNÁNDEZ-
PLIEGO, J.; BUSTAMANTE, J. The Eye in the Sky: Combined Use of Unmanned Aerial
Systems and GPS Data Loggers for Ecological Research and Conservation of Small Birds.
PLoS One, v.7, n.12, p. 1-6, 2012.
SOUZA, A. P.; MOTA, L. L.; ZAMADEI, T.; MARTIM, C. C.; ALMEIDA, F. T., Paulino, J.
Classificação climática e balanço hídrico climatológico no Estado de Mato Grosso. Nativa,
v.1, n.1, p. 34-43, 2013.
SPANGLER, L. H.; DOBECK, L. M., REPASKY, K. S.; et al. A shallow subsurface
controlled release facility in bozeman, montana, USA, for testing near surface CO2 detection
techniques and transport models. Environ. Earth Sci., v.60, n.2, p. 227-239, 2009.
STARK, D.; VAUGHAN, I. P.; EVANS, L. J.; KLER, H.; GOOSSENS, B. Combining
drones and satellite tracking as an effective tool for informing policy change in riparian
habitats: a proboscis monkey case study. Remote Sensing in Ecology and Conservation,
v.4, n.1, p. 44-52, 2018.
STROPPIANA, D.; VILLA, P.; SONA, G.; RONCHETTI, G.; CANDIANI, G.; PEPE, M.;
BUSETTO, L.; MIGLIAZZI, M.; BOSCHETTI, M. Early season weed mapping in rice crops
using multi-spectral UAV data. INTERNATIONAL JOURNAL OF REMOTE SENSING,
v.39, p. 5432-5452, 2018.
SHAH, C. A.; ARORA, M. K.; VARSHNEY, P. K. Unsupervised classification of
hyperspectral data: an ICA misture model based approach. International Journal of Remote
Sensing, v.25, p. 481-487, 2004.
SHENG, H.; CHAO, H.; COOPMANS, C.; HAN, J.; MCKEE, M.; CHEN, Y. Low-Cost
UAV-Based Thermal Infrared Remote Sensing: Platform, Calibration and Applications. In:
Proceedings of 2010 IEEE/ASME International Conference on Mechatronic and Embedded
Systems and Applications, MESA, 2010. p. 38-43.
SOER, G. J. R. Estimation of regional evapotranspiration and soil moisture conditions using
remotely sensed crop surface temperatures. Remote Sensing of Environment, v.9, n.1, p. 27-
45, 1980.
SMIGAJ, M.; GAULTON, R.; BARR, S. L.; SUÁREZ, J. C. UAV-BORNE THERMAL
IMAGING FOR FOREST HEALTH MONITORING: DETECTION OF DISEASE-
INDUCED CANOPY TEMPERATURE INCREASE. In: The International Archives of the
96
Photogrammetry, Remote Sensing and Spatial Information Sciences, v.XL-3/W3, 2015. p.
349-354.
SMITH, M. O.; USTIN, S. L.; ADAMS, J. B,; GILLESPIE, A. R. Vegetation in Deserts: I. A
Regional Measure of abundance from Multiespectral Images. Remote Sensing of
Environment, v.31, p. 1-26, 1990.
SHI, Y.; MURRAY, S. C.; ROONEY, W. L.; VALASEK, J.; OLSENHOLLER, J.; PUGH,
N. A.; et al. Corn and Sorghum Phenotyping Using a Fixed-Wing UAV-Based Remote
Sensing System. Proc. SPIE, Autonomous Air and Ground Sensing Systems for
Agricultural Optimization and Phenotyping, v.9866, p. 98660E, 2016.
SANTESTEBAN, L.; DI GENNARO, S.; HERRERO-LANGREO, A.; MIRANDA, C.;
ROYO, J.; MATESE, A. High-resolution UAV-based thermal imaging to estimate the
instantaneous and seasonal variability of plant water status within a vineyard. Agric. Water
Manag., v.183, p. 49-59, 2017.
SHAFIAN, S.; RAJAN, N.; SCHNELL, R.; BAGAVATHIANNAN, M.; VALASEK, J.; SHI,
Y.; OLSENHOLLER, J. Unmanned aerial systems-based remote sensing for monitoring
sorghum growth and development. PloS ONE, v.13, n.5, p. 1-15, 2018.
SHAKHATREH, H.; SAWALMEH, A.; AL-FUQAHA, A.; DOU, Z.; ALMAITA, E.;
KHALIL, I.; OTHMAN, N. S.; KHREISHAH, A.; GUIZANI, M. Unmanned Aerial Vehicles:
A Survey on Civil Applications and Key Research Challenges. arXiv:1805.00881 [cs.RO], p.
1-58, 2018.
SCHIRRMANN, M.; GIEBEL, A.; GLEINIGER, F.; PFLANZ, M.; LENTSCHKE, J.;
DAMMER, K. H. Monitoring agronomic parameters of winter wheat crops with lowcost
UAV imagery. Remote Sensing, v.8, n.9, p. 1-19, 2016.
SCHIFFMAN, R. Drones Flying high as new tool for field biologists. Science, v.344, n.6183,
p. 459-459, 2014.
SALAMÍ, E.; BARRADO, C.; PASTOR, E. UAV flight experiments applied to the remote
sensing of vegetated areas. Remote Sensing, v.6, p. 11051-11081, 2014.
SANDBROOK, C. The social implications of using drones for biodiversity conservation.
Ambio, v.44, p. 636-647, 2015.
STABLER, B. (2013). shapefiles: Read and Write ESRI Shapefiles. R package version 0.7.
https://CRAN.R-project.org/package=shapefiles
SAVAGE, N. H.; AGNEW, P.; DAVIS, L. S.; ORDÓÑEZ, C.; THORPE, R.; JOHNSON, C.
E.; O’CONNOR, F. M.; DALVI, M. Air quality modelling using the Met Office Unified
Model (AQUM OS24-26): model description and initial evaluation. Geosci. Model Dev., v.6,
p.353-372, 2013. DOI:10.5194/gmd-6-353-2013
97
TURNER, D.; LUCIEER, A.; MALENOVSKY, Z.; KING, D. H.; ROBINSON, S. A. Spatial
co-registration of ultra-high resolution visible, multispectral and thermal images acquired with
a micro-UAV over Antarctic moss beds. Remote Sens., v.6, p. 4003-4024, 2014.
TRIPATHY, G. K.; GHOSH, T. K. SHAH, S. D. Monitoring of Desertification Process in
Karnataka State of India Using MultiTemporal Remote Sensing and Ancillary Information
Using GIS. International Journal of Remote Sensing, v.17, n.12, p. 2243-2257, 1996.
TOKEKAR, P.; HOOK, V. J.; MULLA, D.; ISLER, V. Sensor planning for a symbiotic UAV
and UGV system for precision agriculture. IEEE Trans. Robot., v.32, n.6, 1498-1511, 2016.
TORRES-SANCHEZ, J.; LÓPEZ-GRANADOS, F.; DE CASTRO, A. I.; PEÑA-
BARRAGÁN, J. M. Configuration and specifications of an unmanned aerial vehicle (UAV)
for early site specific weed management. PLoS ONE, v.8, n.3, p. e58210, 2013.
TAMOURIDOU, A.; ALEXANDRIDIS, T.; PANTAZI, X.; LAGOPODI, A.; KASHEFI, J.;
KASAMPALIS, D.; KONTOURIS, G.; MOSHOU, D. Application of Multilayer Perceptron
with Automatic Relevance Determination on Weed Mapping Using UAV Multispectral
Imagery. Sensors, v.17, n.12, p. 2307, 2017.
TORRES-SÁNCHEZ, J.; LÓPEZ-GRANADOS, F.; SERRANO, N.; ARQUERO, O.; PEÑA,
J. M. High-throughput 3-d monitoring of agricultural-tree plantations with unmanned aerial
vehicle (UAV) technology. PLoS ONE, v.10, n.6, e0130479, 2015.
TOMLINS, G. F.; LEE, Y. J. Remotely Piloted Aircraft ‒ an Inexpensive Option for
LargeScale Aerial Photography in Forestry Applications. Canadian Journal of Remote
Sensing, v.9, n.2, p. 76-85, 1983.
THRUN, S.; LUI, Y.; Results for outdoor-SLAM using sparse extended information filters.
In: IEEE International Conference on Robotics and Automation,
InstituteofElectricalEngineers, Piscataway. Anais... Piscataway, USA, 2003.
TORRESAN, C.; BERTON, A.; CAROTENUTO, F.; DI, S. F.; GIOLI, B.; MATESE, A.;
MIGLIETTA, F.; VAGNOLI, C.; ZALDEI, A.; WALLACE, L. 2016. Forestry applications
of UAVs in Europe: a review. International Journal of Remote Sensing, v.38, n.8, p. 2427-
2447.
TORRES-SANCHEZ, J.; PENA, J. M.; DE CASTRO, A. I.; LOPEZGRANADOS, F. Multi-
temporal mapping of the vegetation fraction in early-season wheat fields using images from
UAV. Computers and Electronics in Agriculture, v.103, p. 104-113, 2014.
TSO, B.; OLSEN, R. C. Combining spectral and spatial information into hidden Markov
models for unsupervised image classification. International Journal of Remote Sensing,
v.26, p. 2113–2133, 2005.
UTO, K.; SEKI, H.; SAITO, G.; KOSUGI, Y. Characterization of Rice Paddies by a UAV-
Mounted Miniature Hyperspectral Sensor System. IEEE J. Sel. Top. Appl. Earth Obs.
Remote Sens., v.6, n.2, p. 851-860, 2013.
98
UNITED STATES AIR FARCE. Operational risk management (ORM) guidelines and tools.
Air Force Pamphlet, p. 91-215, 1998.
VERRELST, J.; SCHAEPMAN, M. E.; KOETZ, B.; KNEUBUEHLER, M. Angular
sensitivity analysis of vegetation índices derived from chris/proba data. Remote Sens.
Environ., v.12, p. 2341-2353, 2008.
VIÑA, A.; GITELSON, A. A.; NGUY-ROBERTSON, A. L.; PENG, Y. Comparison of
different vegetation indices for the remote assessment of green leaf area index of crops.
Remote Sensing of Environment, v.115, p. 3468-3478, 2011.
VEGA, F. A.; RAMIREZ, F. C.; SAIZ, M. P.; ROSÚA, F. O. Multi-temporal imaging using
an unmanned aerial vehicle for monitoring a sunflower crop. Biosyst. Eng., v.132, p. 19-27,
2015.
VIEIRA, A. J.; GARRET, J. M. Understanding Interobserver Agreement: The Kappa
Statistic. Research Series, v.37, n.5, p. 360-363, 2005.
VALASEK, J. HENRICKSON, J. V.; BOWDEN, E.; SHI, Y.; MORGAN, C. L. S.; NEELY,
H. L. Multispectral and DSLR Sensors for Assessing Crop Stress in Corn and Cotton Using
Fixed-Wing Unmanned Air Systems. Proc. SPIE, Autonomous Air and Ground Sensing
Systems for Agricultural Optimization and Phenotyping, v.9866, p. 98660L, 2016.
VALAVANIS, K. P.; VACHTSEVANOS, G. J. Introduction to the Handbook on UAVs. In:
VALAVANIS, K. P.; VACHTSEVANOS G. J. (Org.). Handbook of Unmanned Aerial
Vehicles. New York: Springer, 2015. p. 6-42.
VILJANEN, N.; HONKAVAARA, E.; NASI, R.; HAKALA, T.; NIEMELAINEN, O.;
KAIVOSOJA, J. A Novel Machine Learning Method for Estimating Biomass of Grass
Swards Using a Photogrammetric Canopy Height Model, Images and Vegetation Indices
Captured by a Drone. Agriculture, v.8, p. 70, 2018.
VAN, S. M.; HAHL, T.; WAGG, C.; DE, G. D.; FLYNN, D.; ZUPPINGERDINGLEY, D.;
SCHMID, B. Community evolution increases plant productivity at low diversity. Ecology
Letters, v.21, n.1, p. 128-137, 2018.
VISHWANATH, N.; RAMESH, B.; SREENIVASA, R. P. Unsupervised classification of
remote sensing images using K-means algorithm. International Journal of Latest Trends in
Engineering and Technology (IJLTET), v.7, n.2, p. 548-552, 2016.
VERGER, A.; VIGNEAU, N.; CHÉRON, C.; GILLIOT, J. M.; COMAR, A.; BARET, F.
Green area index from an unmanned aerial system over wheat and rapeseed crops. Remote
Sensing of Environment, v.152, p. 654-664, 2014.
WANG, X.; WANG, M.; WANG, S.; WU, Y. Extraction of vegetation information from
visible unmanned aerial vehicle images. Trans. Chin. Soc. Agric. Eng., v.31, p. 152-159,
2015.
99
WILDENHAIM, J.; SPITZER, M.; DOLMA, S.; JARVIK, N.; WHITE, R.; ROY, M.;
GRIFFITHS, E.; BELLOWS, D. S.; WRIGHT, G. D.; TYERS, M. Prediction of Synergism
from Chemical-Genetic Interactions by Machine Learning. Cell Syst., v.1, p. 383-395, 2015.
WATSON, J.E.M.; DUDLEY, N.; SEGAN, D.B.; HOCKINGS, M. The performance and
potential of protected areas. Nature, v.515, p.67–73, 2014.
WESTER-EBBINGHAUS, W. Aerial Photography by Radio Controlled Model Helicopter.
The Photogrammetric Record, v.10, n.55, p. 85-92, 1980.
WAN, L.; LI, Y.; CEN, H.; ZHU, J.; YIN, W.; WU, W.; ZHU, H.; SUN, D.; ZHOU, W.; HE,
Y. Combining UAV-Based Vegetation Indices and Image Classification to Estimate Flower
Number in Oilseed Rape. Remote Sensing, v.10, n.9, p. 1-18, 2018.
WAN, H.; WANG, Q.; JIANG, D.; FU, J.; YANG, Y.; LIU, X. 2014. Monitoring the
Invasion of Spartina Alterniflora Using Very High Resolution Unmanned Aerial Vehicle
Imagery in Beihai, Guangxi (China). The Scientific World Journal, v.2014, p. 1–7, 2014.
WICKHAM, H.; FRANÇOIS, R.; HENRY, L.; MULLER, K. (2019). dplyr: A Grammar of
Data Manipulation. R package version 0.8.3. https://CRAN.R-project.org/package=dplyr.
WHITEHEAD, K.; HUGENHOLTZ, C.H. Remote sensing of the environment with small
unmanned aircraft systems (UASs), part 1: A review of progress and challenges. J.
Unmanned Veh. Syst., v.2, p. 69-85, 2014.
XUE, J.; SU, B. Significant Remote Sensing Vegetation Indices: A Review of Developments
and Applications. Journal of Sensors, v. 2017, p. 1-17, 2017.
XIANG, H.; TIAN, L. Development of a Low-cost Agricultural Remote Sensing System
Based on an Autonomous Unmanned Aerial Vehicle (UAV). Biosyst Eng., v.108, n.2, p. 174-
190, 2011.
XIANG, M.; HUNG, C.; PHAM, M.; KUO, B.; COLEMAN, T.; 2005, Parallelepiped
multispectral image classifier using genetic algorithms. In: Proceedings of IEEE International
Geoscience and Remote Sensing Symposium (IGARSS’05), Seoul, Korea, 2005. p. 1-4.
YUE, J.; YANG, G.; LI, C.; LI, Z.; WANG, Y.; FENG, H.; XU, B. Estimation of Winter
Wheat Above-Ground Biomass Using Unmanned Aerial Vehicle-Based Snapshot
Hyperspectral Sensor and Crop Height Improved Models. Remote Sens., v.9, p. 708, 2017.
YANE, D. Research and Analysis about System of Digital Agriculture Based on a Network
Platform. In: International Conference on Computer and Computing Technologies in
Agriculture, Springer Berlin Heidelberg, 2010. p. 274-282.
YADAV, R.; SHARMA, A. Advanced Methods to Improve Performance of K-Means
Algorithm: A Review. Global Journals Inc. (USA), v.12, n.9, p. 47-52, 2012.
100
YANG, G.; LIU, J.; ZHAO, C.; LI, Z.; HUANG, Y.; YU, H.; XU, B.; YANG, X.; ZHU, D.;
ZHANG, X.; ZHANG, R.; FENG, H.; ZHAO, X.; LI, Z.; LI, H.; YANG, H. Unmanned
Aerial Vehicle Remote Sensing for Field-Based Crop Phenotyping: Current Status and
Perspectives. Frontiers in Plant Science, v.8, n.1111, p.1-26, 2017. DOI:
10.3389/fpls.2017.01111
YOUNGBLOOD, J. W., JACKSON, R. D. Airborne Reconnaissance in the Civilian Sector:
Agricultural Monitoring from High-Altitude Powered Platforms. Proceedings of SPIE 424,
182-189, 1983.
ZAMBRANO-BIGIARINI, M. 2017. hydroGOF: Goodness-of-fit functions for
comparison of simulated and observed hydrological time series. R package version 0.3-10.
URL http://hzambran.github.io/hydroGOF/. DOI:10.5281/zenodo.840087.
ZHANG, Q.; QIN, R.; HUANG, X.; FANG, Y.; LIU, L. Classification of ultra-high
resolution orthophotos combined with DSM using a dual morphological top hat profile.
Remote Sens., v.7, p. 16422-6440, 2015.
ZAMAN, B.; JENSEN, A. M.; MCKEE, M. Use of High-Resolution Multi-Spectral Imagery
Acquired with an Autonomous Unmanned Aerial Vehicle to Quantify the Spread of an
Invasive Wetlands Species. In: Proc. IEEE Int. Geoscience and Remote Sensing Symp.
(IGARSS), 2011. p. 803-806.
ZILIANI, M. G.; PARKES, S. D.; HOTEIT, I.; MCCABE, M. F. Intra-Season Crop Height
Variability at Commercial Farm Scales Using a Fixed-Wing UAV. Remote Sens., v.10, p.
2007, 2018.
ZHANG, Q.; MIDDLETON, E. M.; CHENG, Y. B.; HUEMMRICH, K. F.; COOK, B. D.;
CORP, L. A.; KUSTAS, W. P.; RUSS, A. L.; PRUEGER, J. H.; YAO, T. Integrating
Chlorophyll fAPAR and Nadir Photochemical Reflectance Index from EO-1/Hyperion to
Predict Cornfield Daily Gross Primary Production. Remote Sensing of Environment, v.186,
p. 311-321, 2016.
ZARCO-TEJADA, P. J.; GONZÁLEZ-DUGO, V.; BERNI, J. A. J. Fluorescence,
Temperature and Narrow-Band Indices Acquired from a UAV Platform for Water Stress
Detection Using a MicroHyperspectral Imager and a Thermal Camera. Remote Sensing of
Environment, v.117, p. 322-337, 2012.
ZHANG, X.; NANSEN, C.; ARYAMANESH, N.; YAN, G.; BOUSSAID, F. Importance of
spatial and spectral data reduction in the detection of internal defects in food products. Appl.
Spectrosc., v.69, n.4, p. 473-480, 2015.
ZHENG, H.; CHENG, T.; LI, D.; ZHOU, X.; YAO, X.; TIAN, Y.; CAO, W.; ZHU, Y.
Evaluation of RGB, Color-Infrared and Multispectral Images Acquired from Unmanned
Aerial Systems for the Estimation of Nitrogen Accumulation in Rice. Remote Sensing, v.10,
p. 1-17, 2018.
101
ZARCO-TEJADA, P. J.; GUILLÉN-CLIMENT, M.; HERNÁNDEZ-CLEMENTE, R.;
CATALINA, A.; GONZÁLEZ, M.; MARTIN, P. Estimating leaf carotenoid content in
vineyards using high resolution hyperspectral imagery acquired from an unmanned aerial
vehicle (UAV). Agric. For. Meteorol., v.171, p. 281-294, 2013.
ZHANG, C.; WALTERS, D.; KOVACS, J. M. 2014. Applications of Low Altitude Remote
Sensing in Agriculture upon Farmers’ Requests– A Case Study in Northeastern Ontario,
Canada. PLOS ONE, v.9, n.11, p. 1-9, 2014.
ZALOGA, S. J. Unmanned Aerial Vehicles: Robotic Air Warfare 1917-2007. New York:
Osprey, 2008. 48 p.
ZHANG, C.; KOVACS, J. M. The application of small unmanned aerial systems for precision
agriculture: a review. Precis. Agric., v.13, p. 693-712, 2012.
ZHOU, X.; ZHENG, H. B.; XU, X. Q.; HE, J. Y.; GE, X. K.; YAO, X.; CHENG, T.; ZHU,
Y.; CAO, W. X.; TIAN, Y. C. Predicting grain yield in rice using multi-temporal vegetation
indices from uav-based multispectral and digital imagery. ISPRS J. Photogramm., v.130, p.
246-255, 2017.
ZHANG, Y.; SU, Z.; SHEN, W.; JIA, R.; LUAN, J. Remote monitoring of heading rice
growing and nitrogen content based on UAV images. Int. J. Smart Home, v.10, n.7, p. 103-
114, 2016.
ZHANG, L.; WANG, B.; PENG, W.; LI, C.; LU, Z.; GUO, Y. Forest Fire Detection Solution
Based on UAV Aerial Data. International Journal of Smart Home, v.9, n.8, 2015), p.239-
250, 2015. DOI: 10.14257/ijsh.2015.9.8.25.