sensoriameno remoto com sensores de aeronaves …

120
UNIVERSIDADE FEDERAL DE MATO GROSSO CAMPUS UNIVERSITÁRIO DE RONDONÓPOLIS PROGRAMA DE PÓS-GRADUAÇÃO EM GESTÃO E TECNOLOGIA AMBIENTAL Sensoriameno Remoto com Sensores de Aeronaves Remotamente Pilotadas para Aplicações de Agricultura de Precisão e Gestão Ambiental Dhonatan Diego Pessi Dissertação de Mestrado Rondonópolis-MT: Setembro / 2019

Upload: others

Post on 29-Nov-2021

0 views

Category:

Documents


0 download

TRANSCRIPT

UNIVERSIDADE FEDERAL DE MATO GROSSO

CAMPUS UNIVERSITÁRIO DE RONDONÓPOLIS

PROGRAMA DE PÓS-GRADUAÇÃO EM GESTÃO E TECNOLOGIA AMBIENTAL

Sensoriameno Remoto com Sensores de Aeronaves Remotamente Pilotadas

para Aplicações de Agricultura de Precisão e Gestão Ambiental

Dhonatan Diego Pessi

Dissertação de Mestrado

Rondonópolis-MT: Setembro / 2019

UNIVERSIDADE FEDERAL DE MATO GROSSO

CAMPUS UNIVERSITÁRIO DE RONDONÓPOLIS

PROGRAMA DE PÓS-GRADUAÇÃO EM GESTÃO E TECNOLOGIA AMBIENTAL

Sensoriameno Remoto com Sensores de Aeronaves Remotamente Pilotadas

para Aplicações de Agricultura de Precisão e Gestão Ambiental

Dhonatan Diego Pessi

Orientador: Normandes Matos da Silva

Dissertação de Mestrado

Rondonópolis-MT: Setembro / 2019

Dados Internacionais de Catalogação na Fonte.

Ficha catalográfica elaborada automaticamente de acordo com os dados fornecidos pelo(a) autor(a).

Permitida a reprodução parcial ou total, desde que citada a fonte.

P475s Pessi, Dhonatan Diego.Sensoriamento Remoto com Sensores de Aeronaves Remotamente Pilotadas para

Aplicações de Agricultura de Precisão e Gestão Ambiental / Dhonatan Diego Pessi. --2019

101 f. : il. color. ; 30 cm.

Orientador: Normandes Matos da Silva.Dissertação (mestrado) – Universidade Federal de Mato Grosso, Instituto de

Ciências Agrárias e Tecnológicas, Programa de Pós-Graduação em Gestão eTecnologia Ambiental, Rondonópolis, 2019.

Inclui bibliografia.

1. Plantas invasoras. 2. Gestão ambiental. 3. Drone. 4. Sensoriamento remoto. I.Título.

v

DEDICATÓRIA

Dedico este trabalho aos que trabalham arduamente na educação, e insistem em vê-la como

prática da liberdade e ato de realização humana. Em especial ao professor Olavo de Carvalho,

o qual trouxe-me de volta à realidade das coisas, à prática do verdadeiro conhecimento, à

consciência dos meus atos e à integridade da minha pessoa.

vi

AGRADECIMENTOS

Este trabalho é o resultado de uma jornada persistente e vitoriosa que contou com a

participação de pessoas que me enriqueceram, tanto em relação ao conteúdo da pesquisa,

como em forma de incentivo para a sua realização.

Agradeço:

Ao Prof. Assoc. Dr. Normandes Matos da Silva, muito mais do que um orientador, que

acreditou em mim e na minha pesquisa, além de me ensinar a arte de pesquisar e de saber

trabalhar em grupo;

Aos professores Dr. Jefferson Vieira José e Dra. Camila L. Mioto, os quais fizeram parte da

minha banca de qualificação;

Aos meus amigos e colegas de pesquisa, Ricardo Nepomuceno, Ademir Júnior Sousa Amaral

e Paulo Henrique, a cada momento ao meu lado dispostos a incentivar e a ouvir minhas

dúvidas e desabafos;

Aos professores: Dr. Luís Otávio Bau Macedo, Dr. Jefferson Vieira José, Dr. Renato Bassini,

Dr. Domingos Sávio Barbosa, Dra. Camila L. Mioto, Dra. Anny K. A. A. Candido, Dr. Hilton

Morbeck de Oliveira, ao professor visitante, Dr. Ricardo Olinda, e aos professores da

Universidad de San Carlos de Guatemala, Dr. Walter Bardales e Dr. Ezequiel Lopes pelas

importantes contribuições que vão muito além deste trabalho;

A todo o corpo docente e técnicos do Programa de Pós-Graduação em Gestão e Tecnologia

Ambiental, pela ajuda quando precisei, seja nas dúvidas que tive, quanto nas oportunidades de

crescimento pessoal;

À Universidade Federal de Rondonópolis pela oportunidade de aprimoramento de meus

conhecimentos;

Ao Conselho Nacional de Desenvolvimento Científico e Tecnológico, pela bolsa de mestrado

concedida que foi fundamental para o desenvolvimento deste trabalho;

vii

EPÍGRAFE

“Conservadorismo significa fidelidade, constância, firmeza. Não é coisa para homens de

geléia.”

Olavo de Carvalho

viii

APOIO FINANCEIRO

O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de

Pessoal de Nível Superior - Brasil (CAPES) - Código de Financiamento 001.

This study was financed in part by the Coordenação de Aperfeiçoamento de Pessoal de

Nível Superior - Brasil (CAPES) - Finance Code 001.

ix

RESUMO

O objetivo dessa pesquisa foi analisar se a mensuração da altura de dossel de espécies

invasoras (CHIS) por meio de imagens obtidas por aeronave remotamente pilotada (drone),

era capaz de classificar com boa assertividade as áreas com presença de plantas invasoras

diferenciando das demais áreas com vegetação remanescente do Cerrado. O texto foi dividido

em dois capítulos, sendo que no capítulo primero destaca um primeiro teste do modelo

CHIS+GPS/GLONASS comparando com outras duas técnicas comumente utilizadas na

classificação de espécies invasoras: a classificação não supervisionada k-means e o índice de

vegetação NGRDI. Foi realizada a produção dos modelos de elevação MDS e MDT a partir

das imagens coletadas em campo com drone e posteriormente processadas no software

PhotoScan. A produção do CHIS+ GPS/GLONASS foi a partir da subtração dos modelos

MDS e MDT. A comparação entre os modelos se deu em duas áreas amostrais escolhidas de

forma não aleatória. Alguns testes estatísticos não paramétricos foram utilizados, tais como:

teste de acurácia, taxa de erro geral, especificidade, sensibilidade, correlação de Spearman e

Cohen’s Kappa. No capítulo segundo, para aferir a precisão do modelo CHIS+

GPS/GLONASS foi gerado o modelo CHIS+RTK como variável observada. A comparação

entre os modelos se deu nas mesmas duas áreas amostrais usadas no capítulo primeiro, pelas

quais se fez comparação visual a partir de gráficos e testes estatísticos. Os testes estatísticos

aplicados foram: coeficientes de correlação de Spearman (SCC), erro quadrático médio da

raiz da altura de dossel (RMSEz), erro absoluto médio da altura de dossel (MAEz) e teste de

Wilcoxon. Os resultados do capítulo primeiro demonstram que o modelo CHIS+

GPS/GLONASS obteve os melhores resultados na identificação de espécies invasoras quando

comparado com os modelos k-means e NGRDI. Os testes de acurácia para o modelo

CHIS+GPS/GLONASS na área amostral 1 e 2 foi de 0.973 e 0.9 respectivamente; k-means

0.209 e 0.6; NGRDI 0.795 e 0.518. Os resultados do capítulo segundo demonstram que o

modelo CHIS+ GPS/GLONASS apresentou falhas na identificação de espécies invasoras

quando comparado ao modelo CHIS+RTK, sendo menos preciso na classificação das alturas

de dossel das espécies invasoras. O teste de correlação de Spearman para a área amostral 1 foi

de 0.56 e 0.55 para a área amostral 2. O RMSEz para a área amostral 1 foi de 0.17 cm e 0.12

cm para o MAEz. Na área amostral 2 o RMSEz foi de 0.24 cm e 0.19 cm para o MAEz. O

teste de Wilcoxon foi significativo para ambas as áreas amostrais. O modelo CHIS

demonstrou ser uma técnica promissora na identificação de espécies invasoras comparado

com outros modelos convencionais, além de que, sua precisão foi considerada boa, uma vez

que a maior diferença de erros na altura foi de 0.24 cm, sendo possível de ser aplicado em

pesquisas que não exijam grande precisão, como exemplo pesquisas que tenham como objeto

de pesquisa vegetação de porte arbóreo, onde as pequenas diferenças de precisão não serão de

grande impacto.

Palavras-chave: plantas invasoras, gestão ambiental, drone, sensoriamento remoto.

x

ABSTRACT

The objective of this research was to analyze whether the measurement of invasive species

height (CHIS) through images captured by remotely piloted aircraft (drone) could classify

with good assertiveness the areas with presence of invasive plants differenting from other

areas with vegetation remnant of cerrado. The text was divided in two chapters, the first

chapter highlights a first test of CHIS+GPS/GLONASS model, comparing to two other

common techniques used in the classification of invasive species: the unsupervised

classification k-means and vegetation index NGRDI. MDS and MDT elevation models were

produced from the drone images collected in field and posteriorly then processed in

PhotoScan software. The CHIS+GPS/GLONASS production was through the subtracting the

MDS and MDT models. The comparison between the models occurred in two sample áreas.

Some nonparametric statistical tests were used, such as: precision test, general error rate,

specificity, sensitivity, Spearman correlation and Cohen's Kappa. In the second chapter, to

measure the precision of CHIS+GPS/GLONASS model, the CHIS+RTK model was

generated as the observed variable. The comparison between the models took place in the two

sampled areas used in the first chapter, by which they were visually compared from graphs

and statistical tests. The statistical tests used were: Spearman correlation coefficients (SCC),

mean square root canopy height error (RMSEz), mean absolute canopy height error (MAEz)

and Wilcoxon test. The results of the first chapter demonstrate that CHIS+GPS/GLONASS

model has the best results in identifying invasive species when compared to the k-means and

NGRDI models. Precision tests for the CHIS+GPS/GLONASS model in sample area 1 and 2

were 0.973 and 0.9, respectively; k-means 0.209 and 0.6; NGRDI 0.795 and 0.518. The

results of the second chapter demonstrate that CHIS+GPS/GLONASS model presents faults

in the identification of invasive species when compared to the CHIS+RTK model, being less

accurate in the classification of invasive species selection heights. Spearman's correlation test

for sample area 1 was 0.56 and 0.55 for sample area 2. RMSEz for sample area 1 was 0.17 cm

and 0.12 cm for MAEz. A sample area 2 or RMSEz was 0.24 cm and 0.19 cm for the MAEz.

The Wilcoxon test was significant for areas such as sample areas. The CHIS model proved to

be a promising technique for identification of invasive species. It was exhibited with other

accessory models, and its accuracy was considered good, since the largest difference in height

errors was 0.24 cm and could be It is used in research that does not require great precision, as

examples of research that has as object research, arboreal vegetation, where small differences

in accuracy are not large.

Keywords: invasive plants, environmental management, drone, remote sensing.

xi

LISTA DE FIGURAS

FIGURA 1 – Um exemplo do modelo Hewitt-Sperry Automatic Airplane em 1918................6

FIGURA 2 – Um Aéreo Liberty Eagle de Charles Kettering não tripulado pousado em um par

de trilhos......................................................................................................................................6

FIGURA 3 – UAV modelo MQM-57 Falconer, conhecido como SD1.....................................7

FIGURA 4 – Um exemplar do MQ-9 Reaper sobrevoando o sul do Afeganistão.....................8

FIGURA 5 – Valor de mercado dos UAV nas principais indústrias em bilhões......................10

FIGURA 6 – UAV multirotor modelo X800 da empresa brasileira XFLY..............................12

FIGURA 7 - RPA multirotor modelo Phantom 4 Pro da empresa DJI. Fonte: (POLAR PRO

FILTERS, em https://www.polarprofilters.com/products/dji-phantom4-pro-filters)...............12

FIGURA 8 – eBee Plus, UAV de asa-fixa................................................................................13

FIGURA 9 – Camera modificada com os filtros NIR, GREEN, RED (NGR), modelo S110 da

Canon........................................................................................................................................15

FIGURA 10 – As cores das linhas correspondem aos canais da câmera padrão RGB

mostrando diferença na captura de comprimento de onda. No comprimento de onda a partir de

750nm (NIR) as bandas da câmera modificada sem o filtro NIR, não há captura, com o filtro

haveria captura da banda NIR que neste caso é a refletância próxima da linha cinza, que

corresponde um dossel de vegetação verde..............................................................................15

FIGURA 11 – Exemplo da atuação de três câmeras nas diferentes comprimentos de onda da

luz. Uma câmera multiespectral atual com todas estas bandas (RGB, NIR, Red-Edge)..........16

FIGURA 12 – Câmera multiespectral Parrot Sequoia com as bandas red, green, red-edge, NIR

e RGB........................................................................................................................................17

FIGURA 13 – Câmera multiespectral RedEdge-MX com as bandas red, green, blue, red-edge,

e NIR.........................................................................................................................................17

FIGURA 14 – Sensor hiperespectral modelo UHD 185 acoplado em um UAV

multirotor..................................................................................................................................18

FIGURA 15 – (A) Exemplo multiespectral, com 5 bandas largas; (B) Exemplo hiperespectral

que consiste em várias bandas estreitas que, geralmente, se estendem a centenas ou milhares

delas..........................................................................................................................................19

FIGURA 16 – Alguns exemplos de câmaras de imagem TIR não refrigeradas (a) ICI 320x, (b)

Thermal-Eye 4500AS, (c) Photon 320......................................................................................19

xii

FIGURA 17 - Contexto e fotos detalhadas do campo de arroz objeto deste estudo: (a)

condições gerais, com arbustos de colza distribuídos sobre a área do campo; (b) espécies

invasoras de capim; (c) zoom sobre a planta de colza; d) planta invasora comum. Fonte:

Stroppiana et al. (2018).............................................................................................................24

FIGURA 18 - Visão geral das três culturas de flores de girassol estudadas em estágio inicial:

(a) S1–16; (b) S1-17; (c) S1–17. Fonte: Castro et al. (2018)....................................................25

FIGURA 19 - Visão geral das duas culturas de algodão estudadas no estágio inicial: (a) C1-

16, (b) C2–16. Fonte: Castro et al. (2018)................................................................................25

FIGURA 20 - Espécies invasoras do gênero gramínea. A) Panicum maximum; B)

Hyparrhenia rufa; C) Urochloa spp. Fonte: figura A (Tropicalforages, em

http://www.tropicalforages.info/key/forages/Media/Html/entities/panicum_maximum.htm);

figura B (Wikipedia, em https://en.wikipedia.org/wiki/Hyparrhenia_rufa); figura C

(Feedipedia, em https://www.feedipedia.org/node/489)...........................................................28

FIGURA 21 – A localização geral da área de estudo, a) sítio experimental com o ortomosaico

de imagens obtidas pelo RPA...................................................................................................33

FIGURA 22 - Multirotor DJI Phantom 4 Pro usado para fotografias no campo de estudo (a).

Central controle remoto (b). Sensor câmera GoPro (c)............................................................34

FIGURA 23 - Plano de voo no programa DroneDeploy com as rotas de passagem da RPA

Phantom 4 Pro e mini mosaico de imagens fotografadas pela RPA.........................................36

FIGURA 24 - Ortomosaico da área de estudo em 3D a partir da nuvem de pontos.................36

FIGURA 25 - Mosaico ortoretificado da área de estudo com três camadas do RGB...............37

FIGURA 26 - Medidas da altura da Urochloa ssp. através de uma régua de medidas e coleta

dos pontos geográficos com um GPS nos locais nos quais foram recolhidas as medidas da

altura do dossel das espécies invasoras.....................................................................................37

FIGURA 27 - Conjunto de dados de referência extraído em campo. Pontos em vermelho se

referem aos locais com presença de Brachiara sp. Os valores informados para cada ponto se

referem à altura em centímetros (cm).......................................................................................38

FIGURA 28 - A metodologia inclui três etapas principais. O primeiro passo na cor azul é a

aquisição dos dados na área experimental. As caixas na cor verde constituem o processamento

particular dos dados. Finalmente, o terceiro passo é a integração dos dados de processamento

para obter o resultado principal da análise................................................................................40

xiii

FIGURA 29 - Áreas amostrais usadas para os testes de acurácia e matriz de confusão

Kappa........................................................................................................................................41

FIGURA 30 - Modelo digital de superfície (a), e modelo digital do terreno (b), gerados a

partir de mosaico de imagens aéreas derivadas de aeronave remotamente pilotada. Os valores

de altimetria são considerados a partir do nível do mar............................................................42

FIGURA 31 - Modelo 3D do modelo digital de superfície (MDS)..........................................43

FIGURA 32 - Modelo 3D do modelo digital do terreno (MDT)..............................................43

FIGURA 33 - Altura do dossel das linhas de vegetação com um histograma de densidade de

frequência..................................................................................................................................44

FIGURA 34 - Locais da câmera e sobreposição das imagens..................................................44

FIGURA 35 - CHM com escala de valores referentes à altura do dossel.................................45

FIGURA 36 - a) Histograma de distribuição de frequência para as diferentes alturas de dossel;

b) boxplot; c) corte transversal do CHM..................................................................................46

FIGURA 37 - a) Classificação k-means com 3 diferentes classes; b) índice de vegetação

NGRDI com escala de valores de -1 a 1; c) mosaico para

comparação...............................................................................................................................47

FIGURA 38 - Modelo de altura de dossel de espécies invasoras (CHIS+GPS/GLONASS)

com as alturas extraídas a partir do modelo CHM. a) plantas que estiveram entre as medidas

de 49 cm a 110 cm; b) plantas com alturas de dossel a partir de 20 cm a

140cm........................................................................................................................................48

FIGURA 39 - CHIS+GPS/GLONASS com os pontos e medidas coletadas em campo para

aferição do

modelo.......................................................................................................................................49

FIGURA 40 - Em a) área amostral 1 e em b) área amostral 2, ambas usadas para verificar a

precisão do modelo...................................................................................................................49

FIGURA 41 - Amostra 1: análise comparativa entre índice de vegetação NGRDI (a),

classificação k-means (b), e modelo CHIS. Círculos em vermelho no mosaico (Figura d)

representam fragmentos de vegetação remanescente................................................................50

FIGURA 42 - Amostra 2: análise comparativa entre classificação k-means (a), índice de

vegetação NGRDI (b), e modelo CHIS. Mosaico para observação na Figura 42d...................51

xiv

FIGURA 43 - Localizações da câmera e estimativas de erros. O erro Z é representado pela cor

da elipse. Os erros X, Y são representados pela forma de elipse. Os locais estimados da

câmera são marcados com um ponto preto...............................................................................52

FIGURA 44 - Localização geral da área de estudo. Em a) sítio experimental com o

ortomosaico de imagens obtidas pelo RPA. Sistema de Coordenadas UTM, SIRGAS 2000,

21S............................................................................................................................................62

FIGURA 45 - Localização das áreas amostrais usadas para comparação dos resultados de

ambos modelos (CHIS+GPS/GLONASS e CHIS+RTK).........................................................65

FIGURA 46 - Exemplo da grade gerada para recolher 1000 pontos amostrais. Cada quadrado

da grade equivale a um ponto amostral. Em (a) área amostral 1 com GNSS e em (b) área

amostral 1 com RTK.................................................................................................................66

FIGURA 47 - Comparação entre os modelos CHIS+GPS/GLONASS (a), e CHIS+RTK (b) na

área amostral 1..........................................................................................................................67

FIGURA 48 - Em (a) e (b) recorte da parte superior da Figura 48 (e); (a) representa o modelo

CHIS+GPS/GLONASS e (b) representa modelo CHIS+RTK. Em (c) e (d) recorte da parte

inferior da Figura 48 (e) (modelo CHIS+GPS/GLONASS); (c) representa o modelo

CHIS+GPS/GLONASS e (d) representa modelo CHIS+RTK.................................................68

FIGURA 49 - Comparação entre os modelos CHIS+GPS/GLONASS (a) e CHIS+RTK (b) na

área amostral 2..........................................................................................................................70

FIGURA 50 - Em (a) e (b) recorte da parte inferior central da Figura 50 (c); (a) representa o

modelo CHIS+GPS/GLONASS e (b) representa modelo CHIS+RTK....................................71

FIGURA 51 - Correlação de Spearman entre os modelos CHIS+GPS/GLONASS e

CHIS+RTK. Em (a) área amostral 1 e em (b) área amostral 2. Em (a) foram analisados 684

pontos e em (b) foram analisados 506 pontos. A diferença de pontos entre as duas áreas se

deve pela ausência de informação (NA) em alguns locais da área...........................................72

FIGURA 52 - Em (a) área amostal 1 com presença de Urochloa spp. Em (b) área amostral 2

com presença de Urochloa spp. misturada com fragmentos de vegetação...............................74

xv

LISTA DE TABELAS

TABELA 1 – Comparação de custos e facilidades de operação dos UAV com outras

plataformas aéreas e satélites tripuladas.....................................................................................9

TABELA 2 – Índices de vegetação derivados de imagens com bandas do comprimento de

onda visível RGB......................................................................................................................21

TABELA 3 – Índices de vegetação derivados dos espectros do infravermelho próximo (NIR)

e do vermelho de borda (RedEdge)...........................................................................................22

TABELA 4 – Dados de latitude, longitude, tipo de solo, precipitação e temperatura média

anual, clima e altitude da área de estudo...................................................................................34

TABELA 5 - Especificação da plataforma RPA usada neste estudo........................................34

TABELA 6 - Especificações do sensor acoplado à RPA usada na campanha de campo.........35

TABELA 7 - Detalhes gerais no voo para aquisição das imagens de campo...........................35

TABELA 8 - Índices de vegetação testados neste estudo. R, G e B são os valores de reflexão

das bandas vermelha, verde e azul, respectivamente................................................................38

TABELA 9 - Classe e respectivo valor de referência para o classificador k-means e o índice

de vegetação NGRDI................................................................................................................46

TABELA 10 - Erro médio para os eixos X, Y e Z. X – Longitude, Y – Latitude, Z –

Altitude......................................................................................................................................52

TABELA 11 - Valores de precisão obtidos para os modelos CHIS+GPS/GLONASS, K-means

e NGRDI para cada uma das áreas amostrais do local de estudo. Coeficiente de correlação de

Pearson (Spearman Correlation Coefficiente, SCC), Taxa de erro geral (Overall Error Rate,

OER), especificidade (Specificity, SP), sensibilidade (Sensitivity, SN), acurácia geral (Overall

Accuracy Rate, OAR)...............................................................................................................53

TABELA 12 - Dados de latitude, longitude, tipo de solo, precipitação e temperatura média

anual, clima e altitude da área de estudo...................................................................................63

TABELA 13 - Interpretação do coeficientes de correlação de Spearman segundo Akoglu

(2018) e Fowler (2009).............................................................................................................67

TABELA 14 - Erro nos eixos espaciais a partir dos dados da GNSS e dos dados a partir do

RTK...........................................................................................................................................72

TABELA 15 - Testes estatísticos entre a variável estimada (CHIS+GPS/GLONASS) e a

variável observada (CHIS+RTK). ............................................................................................73

xvi

LISTA DE ABREVIATURAS E SIGLAS

VANT - Veículo Aéreo Não Tripulado

RPA - Remotely Piloted Aircraft

UAV - Unmanned Aerial Vehicles

UAS - Unmanned Aircraft Systems

VIs - Vegetation Index

IAF - Índice de Área Foliar

IR - Infrared Radiation

LIDAR - Light Detection And Ranging

N - Nitrogênio

NIR - Near-infrared

RGB - Red-Green-Blue

NGR - NIR-Green-Red

FAA - Federal Aviation Administration

RPV - Remotely Piloted Vehicle

RPAS - Remotely Piloted Aircraft Systems Services

AUVSI - Association for Unmanned Vehicle Systems International

VTOL - Vertical Take-Off and Landing

LAI - Leaf Area Index

NDVI - Normalized Difference Vegetation Index

PRI - Photochemical Reflectance Index

TIR - Thermal Infrared

SGD - Submarine Groundwater Discharge

RVI - Relative Vigor Index

OSAVI - Soil-Adjusted Vegetation Index Optimized

SAVI - Soil-Adjusted Vegetation Index

TSAVI - Transformed Soil-Adjusted Vegetation Index

CWA - Clima subtropical de inverno seco

UTM - Universal Transversa de Mercator

GPS - Global Positioning System

MP - Megapixel

xvii

NGRDI - Normalized Green-Red Difference Index

CHWeed - Canopy Height Weed

MDT – Modelo Digital do Terreno

MDS – Modelo Digital da Superfície

DEM - Digital Elevation Model

CHM - Canopy Height Model

CHIS - Canopy Height Invasive Species

RTK - Real Time Kinematic

xviii

SUMÁRIO

1 INTRODUÇÃO ............................................................................................................... 1

2 REFERENCIAL TEÓRICO ......................................................................................... 5

2.1 SISTEMAS DE AERONAVES NÃO TRIPULADAS (UAS).................................. 5

2.1.1 O surgimento das RPAs e sua finalidade ................................................................... 5

2.1.2 RPA na agricultura ................................................................................................... 10

2.2 SENSORES USADOS EM RPAs .............................................................................. 13

2.2.1 Câmeras digitais padrão (RGB) e câmeras modificadas .......................................... 13

2.2.2 Sensores multiespectrais e hiperespectrais .............................................................. 16

2.2.3 Sensores térmicos ..................................................................................................... 19

2.3 INDICES DE VEGETAÇÃO (IV)....................................... ..................................... 20

2.3.1 Categorias dos índices de vegetação ........................................................................ 21

2.4 CLASSIFICADORES NÃO SUPERVISIONADO K-MEANS E ISODATA.......22

2.5 ESPÉCIES INVASORAS....................................... ................................................... 24

2.5.1 Espécies invasoras na agricultura ............................................................................ 24

2.5.2 Espécies invasoras em áreas com vegetação remanescente ..................................... 27

3 CAPÍTULO 1: AERONAVE REMOTAMENTE PILOTADA (DRONE) DE

BAIXO CUSTO NO ESTUDO DE PLANTAS INVASORAS EM ÁREAS DE

CERRADO .................................................................................................................... 30

3.1 INTRODUÇÃO....................................... ................................................................... 31

3.2 METODOLOGIA....................................... ................................................................ 33

3.2.1 Área de estudo .......................................................................................................... 33

3.2.2 RPA e sensor ............................................................................................................ 34

3.2.3 Aquisição e processamento das imagens RGB ........................................................ 35

3.2.4 Conferência de dados em campo ............................................................................. 37

3.2.5 Índices de vegetação (IV) ........................................................................................ 38

3.2.6 Classificação não supervisionada ............................................................................. 39

3.2.7 Altura da copa de espécies invasoras CHIS+GPS/GLONASS ................................ 39

3.2.8 Avaliação da precisão: teste de acurácia, correlação e Cohen’s Kappa ................... 40

3.3 RESULTADOS....................................... .................................................................... 42

3.3.1 Modelo de altura do dossel (CHM) .......................................................................... 42

3.3.2 Classificador k-means e índice de vegetação NGRDI ............................................. 46

3.3.3 Análise do modelo de dossel de espécies invasoras (CHIS+GPS/GLONASS) ....... 48

xix

3.3.4 Avaliação da precisão do modelo CHIS+GPS/GLONASS em relação à

classificação k-means e índice NGRDI ............................................................................ 49

3.3.5 Testes de acurácia e índice Kappa ........................................................................... 52

3.4 DISCUSSÃO....................................... ........................................................................ 53

3.5 CONSIDERAÇÕES FINAIS....................................... .............................................. 56

4 CAPÍTULO 2: PROCESSAMENTO DIGITAL DE IMAGENS DERIVADAS DE

AERONAVES REMOTAMENTE PILOTADAS PARA DETECÇÃO DE

ESPÉCIES INVASORAS............................................................................................. 58

4.1 INTRODUÇÃO....................................... ................................................................... 60

4.2 METODOLOGIA....................................... ................................................................ 62

4.2.1 Descrição da área de estudo ..................................................................................... 62

4.2.2 Aquisição dos dados em campo ............................................................................... 63

4.2.3 Coleta de pontos de controle com RTK ................................................................... 63

4.2.4 Processamento dos dados ......................................................................................... 64

4.2.4.1 Imagens ................................................................................................................ 64

4.2.4.2 Espécies invasoras (CHIS+RTK) ........................................................................ 64

4.2.5 Validação ................................................................................................................. 64

4.2.5.1 Comparação visual dos resultados ....................................................................... 64

4.2.5.2 Análise estatística ................................................................................................ 65

4.3 RESULTADOS....................................... .................................................................... 68

4.3.1 Avaliação da precisão do modelo CHIS+GPS/GLONASS em relação ao modelo

CHIS+RTK ....................................................................................................................... 68

4.3.2 Resultados da análise estatística .............................................................................. 71

4.2 DISCUSSÃO....................................... ........................................................................ 74

4.2 CONSIDERAÇÕES FINAIS....................................... .............................................. 76

5 REFERÊNCIAS ............................................................................................................ 78

1

1 INTRODUÇÃO

O sensoriamento remoto por meio de aeronaves tripuladas e plataformas de satélite no

manejo agrícola e monitoramento ambiental, tem sido objeto de pesquisa há mais de 60 anos

(COLWELL, 1956; JACKSON, 1984; PINTER et al., 2003). Agências governamentais

utilizam-se de dados remotamente detectados de satélites no monitoramento ambiental e na

produção agrícola (DORAISWAMY et al., 2003; ATZBERGER, 2013). No entanto, algumas

demandas, em termos de mapeamento da agricultura de precisão, não foram adotadas tão

amplamente no agronegócio devido à carência de resolução espacial das imagens mais

refinada, especialmente para aplicações que exigem escala centimétricas de análise. Outra

limitação é a presença de nuvens e a entrega lenta de informações aos usuários finais, para

situações que exigiram tomadas de decisão ágeis (JACKSON, 1984; PINTER, et al., 2003;

MULLA, 2013).

Embora o desenvolvimento recente de plataformas de satélites como Landsat, SPOT5 e

Quickbird, em termos de sofisticação de sensores, tenha gradualmente melhorado a resolução

espacial de imagens para 30 m, 10 m e até 3 m, ainda é difícil e dispendioso de se obter essas

informações, ainda mais quando a necessidade é para pequenas áreas, como, por exemplo,

áreas de cultivo agrícola que geralmente são divididas em pequenos talhões com dezenas ou

centenas de hectares (ZHOU et al., 2017).

Recentemente, tem ocorrido um avanço tecnológico nos sistemas baseados em

Aeronaves Remotamente Pilotadas (RPAs), preenchendo uma lacuna em termos de imagens

aéreas com alta resolução espacial e temporal, complementando assim os dados

disponibilizados por plataformas de satélite e terrestres (WAN et al., 2018). As RPAs podem

realizar voos com frequência onde e quando necessário, o que permite observação de padrões

espaciais mais definidos devido à sua escala ser menor, permitindo coletar imagens

multitemporais para o monitoramento de culturas agrícolas e também no monitoramento de

áreas naturais. As vantagens de seu relativo baixo custo financeiro e alta flexibilidade tornam

as RPAs populares para estudos de campo (VERGER et al., 2014; GAO et al., 2018).

As RPAs nos últimos anos, principalmente a partir de 2013 (BAENA et al., 2017),

aumentaram seu destaque devido às suas vantagens, fornecendo um novo meio técnico para

extrair informação na agricultura e na área ambiental. Os sistemas de aeronaves não

tripuladas, que compõem duas nomenclaturas usuais, chamados de aeronave remotamente

2

pilotada (RPA) ou de veículo aéreo não tripulado (VANT), fornecem uma plataforma de

sensoriamento remoto com as características de aquisição de dados melhores quando

comparado aos satélites convencionais, tais como: alta flexibilidade, facilidade de operação,

alta resolução espacial, alta resolução temporal, relativo baixo custo de aquisição e

manutenção e rápida aquisição de dados (ZHANG; KOVACS, 2012; MULLA, 2013;

ZHANG et al., 2014, DENG et al., 2018).

O uso de aeronaves remotamente pilotadas em ecologia e conservação dos recursos

naturais tem experimentado um grande crescimento na última década (SANDBROOK, 2015)

e conta com uma quantidade crescente de literatura publicada, a qual apoia amplamente o seu

uso (BAENA et al., 2017). Entre 2013 e 2016, houve duplicação do número de artigos

relacionados ao uso de RPA na área da conservação da biodiversidade (BAENA et al., 2017).

A maioria dos trabalhos publicados sugere que o principal uso de RPA na conservação da

biodiversidade seja na contagem e monitoramento de animais (MARRIS, 2013;

SCHIFFMAN, 2014). Entretanto, existem trabalhos de levantamento da composição de

espécies vegetais, as quais desempenham um papel crítico na conservação ambiental e no

funcionamento do ecossistema (LU; HE, 2017; REICH et al., 2012; VAN et al., 2018,

BAENA et al., 2017).

No contexto da agricultura, o sensoriamento remoto tem sido usado amplamente em

trabalhos que envolvem medições sem contato direto com o alvo, através da radiação refletida

ou emitida de campos agrícolas, cuja intensidade depende de padrões climáticos e das

propriedades das plantas que estão sendo investigadas (MOZGERIS et al., 2018). Os

parâmetros mais comumente estudados são a refletância de luz da superfície das folhas,

transmitância de luz através de folhas e fluorescência de clorofila e polifenóis (DEMOTES-

MAINARD et al., 2008). Técnicas como o sensoriamento remoto na agricultura são

compreendidas como uma estratégia que usa a tecnologia da informação para trazer dados de

múltiplas fontes para influenciar as decisões associadas à produção agrícola, sendo por isso

denominada de agricultura de precisão (CANDIAGO et al., 2015).

Existe uma razão pela qual as RPAs estão sendo amplamente utilizadas na agricultura, a

qual deve-se pelo fato delas desempenharem um papel importante na superação de alguns dos

desafios da agricultura moderna (JU; SON, 2018). Por exemplo, as informações produzidas a

partir de dados de RPA ajudam os agricultores nos processos de tomada de decisão,

melhorando a produção agrícola e a otimização dos recursos (CANDIAGO et al., 2015).

3

Outro desafio da agricultura moderna é garantir a sustentabilidade da produtividade agrícola

devido às mudanças climáticas e ainda atender à crescente demanda por produtos agrícolas à

medida que a população mundial aumenta (JU; SON, 2018). As RPAs buscam atender a

demanda da sustentabilidade agrícola, sendo uma das principais ferramentas usadas na

agricultura digital (KEOGH; HENRY, 2016). A agricultura digital combina a tecnologia

agrícola, a moderna tecnologia da informática, a comunicação em rede e a tecnologia da

informação espacial (OZDOGAN et al., 2017). Além disso, a agricultura digital realiza a

digitalização do processo em todos os aspectos da agricultura (incluindo a produção agrícola,

pecuária, indústria de produtos aquáticos e silvicultura), buscando incluir a informatização

digital de fatores agrícolas (administração agrícola, gestão de produção agrícola, ciência

agrícola e gerenciamento de tecnologia e gestão de empresas agrícolas), que visam buscar a

eficiencia nos processos de produção agrícola e no manejo agrícola (KEOGH; HENRY, 2016;

YANE, 2010). O conceito de agricultura sustentável significa uma agricultura com economia

de água, agricultura inteligente, alta qualidade, alta eficiência, agricultura não poluente. A

agricultura digital é a abordagem mais eficaz e necessária para realizar todas essas

transformações e as RPAs compõem um meio tecnológico eficiente na busca de mais

produção com menos danos ao meio (YANE, 2010; OZDOGAN et al., 2017).

Realizar a detecção de espécies invasoras é um problema significativo na restauração de

áreas ecológicas degradadas. Este problema se deve principalmente por conta das técnicas que

podem não atender plenamente algumas demandas de manejo, como por exemplo, o uso de

índices de vegetação extraídos de imagens de satélites, além de rotinas de classificação

supervisionadas e não supervisionadas.

O modelo CHIS (Canopy Height Invasive Species) é um método capaz de detectar e

realizar a discriminação precisa de espécies invasoras com baixo custo e sem problemas

ambientais e efeitos colaterais. Utiliza imagens da banda do visível (RGB) que podem ser

adquiridas por uma RPA simples e de baixo custo. O critério de análise seria por altura do

dossel, caracterizando a vegetação por diferença de porte arbóreo, sendo uma alternativa à

classificação convencional mencionada anteriormente.

O objetivo geral deste estudo foi analisar se a técnica CHIS pode apresentar resultado

superior, na identificação de plantas invasoras, em comparação a rotinas convencionais de

classificação (supervisionada e não supervisionada) e índices de vegetação. O trabalho foi

dividido em dois capítulos, cada um com seu objetivo específico: o primeiro capítulo visou:

4

analisar se o método CHIS+GPS/GLONASS, a partir da GNSS da ARP, é a rotina de

classificação mais assertiva na identificação de espécies invasoras a partir de imagens RGB

obtidas com um RPA de baixo custo comparado a outros dois modelos usados na

identificação de espécies invasoras. O segundo capítulo comparou a acurácia dos resultados

do modelo CHIS+GPS/GLONASS do capítulo 1 (sem o uso da ferramenta RTK), com os

resultados do modelo CHIS+RTK, corrigidos por pontos de controle obtidos por meio de

RTK (Real-time Kinematic), para responder a seguinte pergunta: diante dos resultados

expostos é necessário o uso do RTK na identificação mais assertiva de espécies invasoras

através do modelo CHIS ou os resultados a partir do sistema GPS/GLONASS da RPA

fornecem dados precisos quanto ao levantamento das plantas invasoras?

5

2 REFERENCIAL TEÓRICO

2.1 SISTEMAS DE AERONAVES NÃO TRIPULADAS (UAS)

Os sistemas aéreos não tripulados (UAS) são sistemas de aeronaves motorizadas que

não possuem um piloto humano embarcado, sendo operados de forma autônoma ou remota

por um operador, podendo ser dispensável ou recuperável e ainda podem transportar uma

variedade de cargas dependendo do tipo, funcionalidade, características operacionais e

objetivos da missão (VALAVANIS; VACHTSEVANOS, 2015).

A Administração da Aviação Federal dos Estados Unidos (FAA) define que um UAS é

um dispositivo destinado a ser usado em voo sem possuir um piloto a bordo. Inclui todas as

classes de aviões, helicópteros, dirigíveis e aeronaves de sustentação translacional que não

tenham piloto a bordo. Aeronaves não tripuladas são entendidas como incluindo apenas as

aeronaves controláveis em três eixos e, portanto, excluem os balões tradicionais (FAA, 2008).

Existem várias nomenclaturas que já foram usadas para descrever aeronaves não

tripuladas. Os UAV (Veículos Aéreos não Tripulados) se tornaram UAS (Sistemas Aéreos

não Tripulados), termo preferencialmente usado pela Administração da Aviação Federal dos

Estados Unidos (FAA, 2008). Outros nomes incluíam o RPV (Veículos Remotamente

Pilotados), um termo que foi usado na Guerra do Vietnã. Hoje a Força Aérea dos Estados

Unidos substituiu principalmente o RPV por Aeronave Remotamente Pilotada ou RPA, um

termo usado para incluir tanto a aeronave quanto o piloto (USAF, 1998), enquanto que o

Reino Unido designou como Sistema Aéreo Remotamente Pilotado (RPAS), para demonstrar

a presença do homem no circuito para controlá-los (DALAMAGKIDIS, 2015).

2.1.1 O surgimento das RPAs e sua finalidade

O surgimento das modernas aeronaves não tripuladas denota aos primeiros anos da

Primeira Guerra Mundial, precisamente no ano de 1916. O primeiro veículo aéreo não

tripulado foi o Hewitt-Sperry Automatic Airplane (Figura 1), em homenagem aos dois

inventores que o projetaram (DALAMAGKIDIS, 2015). Esse primeiro projeto de aeronave

não tripulada, foi desenvolver um torpedo aéreo, capaz de transportar explosivos até o alvo. É

considerado por alguns como um precursor do míssil de cruzeiro (NEWCOME, 2004).

Devido ao projeto da aeronave Hewitt-Sperry Automatic Airplane, seus criadores

conseguiram atrair o interesse da Marinha dos EUA, resultando no desenvolvimento do

6

Torpedo Aéreo Curtiss-Sperry (Figura 1), enquanto ao mesmo tempo a Força Aérea do

Exército dos EUA patrocinou o Torpedo Aéreo Liberty Eagle de Charles Kettering

(ZALOGA, 2008) ilustrado na Figura 2. Devido a problemas técnicos e falta de precisão para

a época, o interesse em aviões não tripulados foi menor, mas o potencial de uso de RPAs

operados remotamente para a prática de alvo foi logo percebido (NEWCOME, 2004;

DALAMAGKIDIS, 2015).

Figura 1. Modelo Hewitt-Sperry Automatic Airplane em 1918. Fonte: domínio público.

Figura 2. Veículo aéreo não tripulado Liberty Eagle de Charles Kettering pousado em um par de trilhos. Fonte:

domínio público.

7

Após o término da Segunda Guerra Mundial, o interesse por missões de reconhecimento

através de veículos aéreos não tripulados aumentou. Os descendentes dos drones de Reginald

Denny se tornaram a base do primeiro drone de reconhecimento o SD-1 (NEWCOME, 2004).

O MQM-57 Falconer (Figura 3), também conhecido por SD-1, foi desenvolvido em meados

da década de 1950 e, no final de sua carreira, foram construídos um número de 1.455 réplicas

(MUSEU NACIONAL DA FORÇA AÉREA DOS ESTADOS UNIDOS, 2009). O SD-1 foi a

primeira aeronave remotamente pilotada, com uma câmera embarcada para obtenção de

fotografias aéreas de reconhecimento e o seu voo durava em torno de 30 minutos, retornando

à base e recuperado com o auxílio de um paraquedas (ZALOGA, 2008; NEWCOME, 2004).

Figura 3. RPA modelo MQM-57 Falconer, conhecido como SD-1. Fonte: (Museu Nacional da USAF, em

https://www.nationalmuseum.af.mil).

Até meados do final do século XX, muitas nações estavam envolvidas em projetos de

construção de RPA para o exercício militar, como, por exemplo, a antiga União Soviética,

Israel, Canadá, Reino Unido, Alemanha e França (ZAGOLA, 2008). Muitos modelos foram

construídos durante o período da Guerra Fria (ZAGOLA, 2008), modelos como o BGM-34C,

AQM-34Q, D-21B Tagboard e o primeiro helicóptero não tripulado o QH-50 (NEWCOME,

2004). Os sistemas modernos de RPA para uso militar tiveram um grande avanço nos últimos

anos, sendo muito mais diversos e complexos que seus precursores. As RPAs militares atuais

estão se movendo para sistemas de maior resistência, mais capazes e mais avançados e que

podem ter múltiplos papéis, como os que estão disponíveis no MQ-9 Reaper (Figura 4), que

8

além do reconhecimento, também pode ser usado como um caçador-assassino

(DALAMAGKIDIS, 2015).

Figura 4. MQ-9 Reaper sobrevoando o sul do Afeganistão. Fonte: (U.S. Air Force/Staff Sgt. Brian Ferguson, em

https://pt.wikipedia.org/wiki/Ficheiro:MQ-9_Reaper_in_flight_(2007).jpg).

No início dos anos 90, as RPAs passaram por várias implementações de plataformas

com sensores para finalidade de uso civil, inicialmente para pesquisas de instituições federais

(ALKAABI; ABUELGASIM, 2017). Desde os trabalhos precursores de Smith et al. (1990),

ocorreram várias implementações demonstradas em outros trabalhos (BOSSE et al., 2003;

GUTMANN; KONONIGE, 1999; DISSANAYAKE et al., 2001; GUIVANT; NEOB, 2001;

THRUN; LUI, 2003). Essas modificações contam com uma série de adaptações de sensores

com diferentes variedades de formas e tamanhos, como o RADIO Detecção e Ranging

(RADAR), Detecção de Luz e Alcance (LIDAR) e sensores eletro-ópticos, como câmeras.

Tais sensores fornecem uma variedade de observações diferentes do terreno, incluindo

alcance e rumo (BRYSON; SUKKARIEH, 2015).

Com o passar dos anos, as RPAs tornaram-se cada vez mais acessíveis ao mercado e às

pesquisas desenvolvidas por diversas instituições (BRYSON; SUKKARIEH, 2015;

ALKAABI; ABUELGASIM, 2017), pois as aplicações das RPAs oferecem grandes

oportunidades e fornecem soluções de baixo custo em diversas aplicações (Tabela 1) que

geralmente exigem recursos diferentes nas várias tarefas envolvidas (IDRIES et al., 2015).

Existe uma demanda crescente do uso de RPA no mercado para as diversas finalidades civis e

em conjunto com esse crescimento, o mercado de RPA também está crescendo (IDRIES et al.,

2015). No setor comercial, o Relatório Anual de Previsão Aeroespacial divulgado pela

9

Administração Federal de Aviação dos Estados Unidos (FAA) estima que mais de sete

milhões de RPAs serão comprados até 2020 (LIEW et al., 2017). A partir do ano de 2017,

calcula-se que a produção atinja, em média, cerca de 960 RPA anualmente nos sete anos

restantes dos períodos previstos para 2014-2023 (DWFI, 2014).

Tabela 1. Comparação de custos e facilidades de operação das RPAs com outras plataformas aéreas e satélites

tripuladas. Fonte: Candiago et al. (2015).

Além disso, espera-se um crescimento na produção de RPA entre 2012 e 2021,

especialmente as RPAs menores, e o crescimento das vendas para RPAs maiores deve chegar

a US$ 43 bilhões (IDRIES et al., 2015). Muito do crescimento pode ser atribuído aos grandes

RPAs. Até esse ponto, muitos países ao redor do mundo carecem de recursos e financiamento

para adquirir ou fabricar esses sistemas grandes e complexos. O Brasil e a Índia estão

formando parcerias para ajudar a construir RPAs, para que, em um futuro próximo, possam

fabricar sistemas mais caros de forma autônoma (IDRIES et al., 2015).

As RPAs podem ser utilizadas em muitas aplicações civis devido à sua facilidade de

implantação, baixo custo de manutenção, alta mobilidade e capacidade de pairar, nesse caso,

considerando multirotores ou hídricos do tipo VTOL (HAYAT et al., 2016). Várias são as

finalidades pelas quais estão sendo usados as RPAs, como, por exemplo, o monitoramento em

tempo real do tráfego rodoviário, sensoriamento remoto, operações de busca e salvamento,

entrega de mercadorias, segurança e vigilância, agricultura de precisão e inspeção de

infraestrutura civil (HAYAT et al., 2016; SHAKHATREH et al., 2018). As RPAs oferecem

uma grande oportunidade de mercado para fabricantes de equipamentos, investidores e

provedores de serviços de negócios. De acordo com Shakhatreh et al. (2018), o mercado das

RPAs gera um valor superior a US$ 127 bilhões anualmente, conforme mostrado na Figura 5.

Um dos mercados que mais vem crescendo nos últimos anos e que se utiliza dessa tecnologia

é a agricultura de precisão, que hoje representa um valor de mercado em torno de US$ 32.4

bilhões (SHAKHATREH et al., 2018).

RPA 0.5 - 10 cm 50 - 500 m Muito bom/fácil Pode ser limitado

Helicóptero 5 - 50 cm 0.2 - 2 km Piloto obrigatório Quase ilimitado

Avião convencional 0.1 - 2 m 0.5 - 5 km Piloto obrigatório Ilimitado

Satélite 1 - 25 m 10 - 50 km - -

Muito baixo

Médio

Alto

Muito alto

Resolução

Espacial

Campo de

VisãoUsabilidade

Capacidade de

Carga

Custo para aquisição

de dados

10

Figura 5. Valor de mercado das RPAs nas principais indústrias em bilhões de dólares. Fonte: Shakhatreh et al.

(2018).

2.1.2 RPA na agricultura

Os primeiros trabalhos desenvolvidos na agricultura com o uso de RPA remete aos

primeiros anos da década de 80, onde alguns autores publicaram suas pesquisas sobre

fotografias a partir de veículos remotamente pilotados em periódicos de sensoriamento remoto

(HUNT; DOUGHTRY, 2017), como, por exemplo, Wester-Ebbinghaus (1980) e Tomlins e

Lee (1983). Em decorrência de problemas na análise de dados para o manejo de culturas

através dos satélites Landsat 1, 2 e 3, Jackson e Youngblood (1983) e Youngblood e Jackson

(1983) propuseram a construção de uma plataforma dedicada não tripulada de alta altitude

(HAPP) para sensoriamento remoto agrícola (HUNT; DOUGHTRY, 2017).

Após as primeiras pesquisas acerca do uso de RPA na agricultura, vários outros estudos

examinaram uma ampla variedade de plataformas possíveis de serem aplicadas na agricultura,

como, por exemplo, dirigíveis cheios de hélio (INOUE et al., 2000), um modelo de asa-fixa

(QUILTER; ANDERSON, 2000), pequenos helicópteros controlados por rádio (HONGOH et

al., 2001) e paraquedas motorizados (MORAN et al. 2001). Em resumo, os cientistas

reconheceram há muito tempo as possíveis contribuições que a RPA poderia dar ao

sensoriamento remoto agrícola (HUNT; DOUGHTRY, 2017).

11

A Associação de Sistemas de Veículos Não Tripulados Internacional (AUVSI) prevê

que 80% das RPAs concedidos pela FAA (Federal Aviation Administration) nos EUA serão

usados na agricultura. Em comparação com outras plataformas de sensoriamento remoto,

como satélites e aeronaves tripuladas, as RPAs podem ser implantados facilmente e têm

menor custo operacional, tornando-se uma ferramenta promissora para monitoramento

frequente de locais de pesquisa agrícola e campos dos agricultores (SHAFIAN et al., 2018).

As principais áreas de pesquisa na agricultura de precisão são sensoriamento remoto

(ALLRED et al., 2018; SANTESTEBAN et al., 2017; TOKEKAR et al., 2016; ALSALAM et

al., 2017; TORRES-SANCHEZ et al., 2013; ZARCO-TEJADA et al., 2013; XIANG; TIAN,

2011; ARROYO et al., 2017), mapeamento (ALLRED et al., 2018; SANTESTEBAN et al.,

2017; TORRES-SANCHEZ et al., 2015; CHRISTIANSEN et al., 2017) e monitoramento

(VEGA et al., 2015; NORIEGA; ANDERSON, 2016; JANNOURA et al., 2015; DOERING

et al., 2014; LONG et al., 2016) e ainda não é usado em várias áreas, como a semeadura e a

colheita. Além disso, a pesquisa para irrigação e controle de pragas está aumentando

atualmente (FAIÇAL et al., 2017; ALBORNOZ; GIRALDO, 2017; ROMERO et al., 2018).

Em particular, o sensoriamento remoto é a tarefa de pesquisa mais amplamente utilizada

através das RPAs agrícolas e é uma tarefa básica obtida anexando hardwares (sensores) ou

controladores adicionais conforme a necessidade que se é exigida.

As RPAs mais usadas na agricultura são principalmente do tipo de asa-fixa (ALLRED

et al., 2018; ZARCO-TEJADA et al., 2013) ou rotorcraft conhecido também por multi-

helicóptero ou ainda multirotor (SHI et al., 2016). Ambas as classes de veículos possuem

características únicas que as tornam úteis para aplicações agrícolas (SHI et al., 2016). Os

multirotores podem decolar e pousar verticalmente (VTOL) de modo que os requisitos de

espaço para decolagem e pouso sejam pequenos. No entanto, há o problema de baixo tempo

de voo, devido às características das baterias utilizadas (JU; SON, 2018). Uma das maneiras

de se resolver esse problema é usar vários RPAs ou várias baterias (FRANCHI et al., 2012;

LEE et al., 2013). Na Figura 6 é demonstrado um modelo de RPA multirotor X800 da

empresa brasileira XFLY de custo médio no mercado dos RPAs, que varia em torno de

U$4.000 a U$6.000 mil dólares. Na Figura 7 é apresentado o Phantom 4 Pro da empresa DJI,

muito usado por conta do seu baixo custo (uma variação entre U$800,00 a U$1.500 dólares)

de mercado e versatilidade e que também é classificado como multirotor.

12

Figura 6. RPA multirotor modelo X800 da empresa brasileira XFLY. Fonte: (REVISTA GLOBO RURAL, em

https://revistagloborural.globo.com/gallery/juicebox/2851/config.xml).

Figura 7. RPA multirotor modelo Phantom 4 Pro da empresa DJI. Fonte: (POLAR PRO FILTERS, em

https://www.polRPArofilters.com/products/dji-phantom4-pro-filters).

Em contraste às RPAs multirotores, as RPAs de asa-fixa são equipadas com asas,

tornando o equipamento capaz de mapear áreas maiores cobrindo longas distâncias (JU; SON,

2018). Existe uma desvantagem dos equipamentos de asa-fixa, que é a necessidade de uma

pista ou lançador para decolagem e aterrissagem. Outra limitação dos equipamentos de asa-

13

fixa é que estes requerem que o ar se mova sobre suas asas para gerar sustentação,

permanecendo em um movimento de avanço constante e não podem permanecer estacionários

da mesma maneira que um multirotor pode (JU; SON, 2018). Pode ser visualizado na Figura

8 um modelo de asa-fixa o eBee Plus da empresa americana senseFly, muito usado em

pesquisas de campo e na agricultura.

Figura 8. eBee Plus, RPA de asa-fixa. Fonte: (GEOTRONICS, em http://geotronics.cz).

Independentemente da classe de RPA usada, uma gama de sensores personalizáveis

estão disponíveis no mercado para ser integrado/acoplado às RPAs multirotores e ou asa-fixa

nos estudos agrícolas. Estes sensores podem ser câmeras digitais comuns de prateleira,

conhecidas por câmeras de banda curta RGB (XIANG; TIAN, 2011), câmeras multiespectrais

de banda larga personalizadas (LELONG et al., 2008; VALASEK et al., 2016), sistemas de

imagens hiperespectrais (UTO et al., 2013) e câmeras térmicas (GONZALEZ-DUGO et al.,

2013). Na agricultura de precisão estes sensores são utilizados para desempenharem as mais

variadas funções e capazes de fornecerem os mais variados resultados ao produtor agrícola.

2.2 SENSORES USADOS EM RPAs

2.2.1 Câmeras digitais padrão (RGB) e câmeras modificadas

As câmeras digitais de banda curta, ou câmeras de espectro visível, funcionam com as

três bandas do espectro da luz visível à visão humana, conhecidas como RGB, que significa:

vermelho, verde e azul (BORRA-SERRANO et al., 2015). Elas funcionam a cerca de 390 nm

(3,9e-7 m) a 750 nm (7,5 e-7 m) de comprimento do espectro da luz (MEJIAS et al., 2015;

14

BORRA-SERRANO et al., 2015). Essas categorias de câmeras fotográficas digitais oferecem

alta resolução, mas não fornecem fluxo contínuo de imagens (limitação do espaço de

memória). A quantidade de imagens que elas podem fornecer vai depender da quantidade de

memória de seus cartões, podendo ser desde pequena capacidade até alta capacidade de

armazenamento. Este tipo de câmera pode ser aplicado em sensoriamento remoto, fotografia

panorâmica aérea e fotofilmagem. Porém, as informações extraídas através delas são limitadas

quando comparadas com câmeras que possuem sensores de comprimento de onda do não

visível, como por exemplo, o NIR e o RedEdge (MEJIAS et al., 2015).

Além disso, as câmeras digitais de banda curta usadas no sensoriamento remoto podem

variar substancialmente quanto ao preço, que vai depender da qualidade das lentes e recursos

disponíveis (LELONG et al., 2008; NGUY-ROBERTON et al., 2016; O'CONNOR et al.,

2017; CRUSIOL et al., 2017). Por exemplo, o modelo Canon PowerShot S110 de 12MP,

muito usada em RPAs, tem um preço a partir de $180 dólares. Já o modelo Sony WX de

18MP custa a partir de $500,00 dólares. A qualidade da lente afeta a capacidade de resolver

diferenças entre os pixels, assim, a quantidade total de pixels em uma câmera é uma boa

indicação de que uma imagem terá um bom resultado quanto as diferenças de pixels de uma

área amostral qualquer, porém pode variar muito quanto ao preço do equipamento

(CANDIAGO et al., 2015).

O uso de câmeras simples RGB pode ter múltiplas aplicações agrícolas, como, por

exemplo, caracterizar as propriedades físicas das plantas e usar as medidas para prever futuros

problemas (RIBERA et al., 2016), calcular a biomassa de cultivos agrícolas (KHUN et al.,

2018), estimar a acumulação de nitrogênio em cultivos de arroz (ZHENG et al., 2018),

mapeamento ou representação de objetos 3D (MEJIAS et al., 2015) e alguns índices de

vegetação (VIs) para estimativa de biomassa ou índice de área foliar (JORDAN, 1969;

HUETE, 1988).

Existe uma diferença entre as câmeras digitais simples e as câmeras modificadas que é

principalmente como as bandas espectrais são criadas. As câmeras digitais têm uma matriz de

filtros coloridos (como um padrão Bayer) cobrindo um único chip de silício, cada pixel é

encaixado pelas outras duas cores do array de filtros (NEBIKER, et al., 2016). Para formação

da imagem, o arquivo de imagem bruto tem que ser desmembrado para obter as três bandas

espectrais. Um exemplo de câmera modificada é a popular câmera compacta Canon S110

(Figura 9), com os filtros de cores Bayer modificados. Em vez dos filtros comuns azul, verde

15

e vermelho, o modelo S110 modificada possui os filtros para as faixas espectrais verde,

vermelho e infravermelho próximo (NIR, 780 nm). Como a separação de cores ocorre

diretamente no sensor através dos filtros da Bayer, a câmera modificada ao invés de ser RGB,

torna-se NGR (NIR, Green, Red), com um único sistema de lente (NEBIKER, et al., 2016;

BORRA-SERRANO et al., 2015; MAHAJAN; BUNDEL, 2016). Na Figura 10 pode ser

visualizado a diferença na captura de comprimento de onda com uma câmera padrão RGB e

uma câmera sem o filtro NIR.

Figura 9. Camera modificada com os filtros NIR, GREEN, RED (NGR), modelo S110 da Canon. Fonte:

Nebiker et al. (2016).

Figura 10. As cores das linhas correspondem aos canais da câmera padrão RGB mostrando diferença na captura

de comprimento de onda. No comprimento de onda a partir de 750nm (NIR) as bandas da câmera modificada

sem o filtro NIR, não há captura, com o filtro haveria captura da banda NIR que neste caso é a refletância

próxima da linha cinza, que corresponde um dossel de vegetação verde. Fonte: Lebourgeois et al. (2008).

A grande vantagem de uma câmera modificada é principalmente o que ela pode oferecer

com um baixo custo (MONTES et al., 2018) de investimento, tendo mais versatilidade e

capaz de oferecer diferentes dados que uma câmera padrão RGB, como, por exemplo,

registrar dados no comprimento da onda do infravermelho próximo (NIR) e da borda do

16

vermelho (RedEdge), que através destas faixas do espectro da luz invisível, pode ser aplicado

índices de vegetação capazes de indicar a saúde da vegetação. O índice de vegetação por

diferença normalizada (NDVI) é muito usado a partir de sensores com a banda NIR, pois

reflete fortemente a luz infravermelha próxima (NIR, em torno de 750nm), enquanto o

vermelho e o azul são absorvidos (MONTES et al., 2018; LEBOURGEOIS et al., 2008).

Índices de vegetação e suas aplicações assim como quais sensores são capazes de calcular

serão melhores discutidos no capítulo de índices de vegetação.

2.2.2 Sensores multiespectrais e hiperespectrais

Os sensores multiespectrais normalmente possuem quatro ou mais bandas espectrais,

que cobrem grandes faixas de comprimento de onda. Essas câmeras são capazes de capturar

além da radiação vermelha, verde e azul, os comprimentos de onda mais intermediários e

ainda mais curtos e longos, pertencentes aos espectros ultravioleta e infravermelho (MONTES

et al., 2018). Como resultado, esse tipo de câmera produz imagens de múltiplas bandas, com

faixas de comprimentos de onda estreitos, capazes de estimar mais precisamente a quantidade

de vegetação (ELVIDGE; CHEN, 1995).

Os sensores multiespectrais possuem bandas nas extremidades dos espectros do vermelho, a

RedEdge, de 710 nm a 740 nm, e a NIR, de 700 nm a 1.100 nm (JOS et al., 2014; MONTES

et al., 2018). Essas bandas são ótimas para detectar o teor de clorofila-a (HORLER et al.,

1983). A refletância de superfície na borda vermelha (Red-Edge) são combinadas com

refletores vermelhos e NIR para formarem índices fortemente correlacionados ao conteúdo de

clorofila (DAUGHTRY et al., 2000; GITELSON et al., 2005; HABOUDANE et al., 2008;

FITZGERALD et al., 2010, LI et al., 2014). Na Figura 11 pode ser verificado onde cada uma

das bandas (RGB, NIR, RedEdge) atuam no espectro da luz.

Figura 11. Exemplo da atuação de três câmeras nos diferentes comprimentos de onda da luz. Uma câmera

multiespectral atual com todas estas bandas (RGB, NIR, RDG-RedEdge) Fonte: Lebourgeois et al. (2008).

17

Existe no mercado diversas câmeras multiespectrais usadas em RPAs. A Parrot Sequoia

da empresa SenseFly, conta com cinco bandas: green, red, red-edge, NIR e RGB (Figura 12).

Esse sensor já vem incluso na RPA eBee Plus (Figura 8). Outra câmera multiespectral muito

usada é a RedEdge-MX da MicaSense (Figura 13), que também conta com cinco bandas:

blue, green, red, red-edge e NIR. A RedEdge-MX difere da Sequoia, pois não possui a RGB,

mas apenas as bandas de forma separadas. Há também a empresa Tetracam, que produz

diversos sensores, entre eles câmeras desde 4 bandas até câmeras com até 12 bandas.

Figura 12. Câmera multiespectral Parrot Sequoia com as bandas red, green, red-edge, NIR e RGB. Fonte:

(PARROT, em https://www.parrot.com).

Figura 13. Câmera multiespectral RedEdge-MX com as bandas red, green, blue, red-edge, e NIR. Fonte:

(MICASENSE, em https://www.micasense.com).

18

Os modelos de sensores hiperespectrais (Figura 14) possuem bandas contínuas que

cobrem intervalos de comprimentos de onda estreitos, com 10 nm a 20 nm de largura (ADÃO

et al., 2017). Esses sensores são usados cada vez mais para medir processos fisiológicos,

como a fotossíntese (FREITAS et al., 2018). O índice de refletância fotoquímica (PRI) utiliza

bandas estreitas em dois comprimentos de onda verdes (531 nm e 570 nm) para rastrear

mudanças nos pigmentos de xantofila foliar em resposta direta a mudanças na taxa

fotossintética (ADÃO et al., 2017; ZARCO-TEJADA et al., 2012; MAGNEY et al. 2016;

ZHANG et al. 2016; PROCTOR; HE, 2015).

Figura 14. Sensor hiperespectral modelo UHD 185 acoplado em um RPA multirotor. Fonte: Yue et al. (2017).

Portanto, os dados hiperespectrais possuem um melhor desempenho de perfil de

materiais finais devido aos seus espectros quase contínuos (Figura 15). Por um lado, abrange

detalhes espectrais que podem passar despercebidos em dados multiespectrais devido à sua

natureza discreta e esparsa (ADÃO et al., 2017). Um dos campos de aplicação mais

promissores é a agricultura de precisão, onde imagens hiperespectrais são usadas para coletar

dados de sementes e determinar a germinação de sementes de plantas (NANSEN et al., 2015).

Essa tecnologia também pode ser usada para detectar defeitos internos em produtos

alimentícios (ZHANG et al., 2015). Outra aplicação é em biotecnologia, para estudos de coral

(BAROTT et al., 2009) e células (POLERECKY et al., 2008). É também amplamente

utilizado para análise de bactérias (BACHAR et al., 2008; KUHL; POLERECKY, 2008) e em

19

aplicações de monitoramento ambiental que permitem medir as emissões de CO2 na

superfície, mapear formações hidrológicas e rastrear os níveis de poluição (KEITH, et al.,

2009; SPANGLER et al., 2009).

Figura 15. (A) Exemplo multiespectral, com 5 bandas largas; (B) Exemplo hiperespectral que consiste em várias

bandas estreitas que, geralmente, se estendem a centenas ou milhares delas. Fonte: Adão et al. (2017).

2.2.3 Sensores térmicos

O uso de sensores térmicos (Figura 16) em RPA ainda não é comum devido

principalmente ao seu alto custo e ao peso e tamanho destes sensores, precisando de RPAs

capazes de suportá-los (SHENG et al., 2010; HUNT; DAUGHTRY, 2017). Há

consideravelmente poucos artigos na literatura sobre usos de senores térmicos na agricultura,

comparado com outros sensores utilizados nesta área (HUNT; DAUGHTRY, 2017). A

radiação TIR (Thermal InfraRed) refere-se a ondas eletromagnéticas com comprimento de

onda entre 3,5 micrômetros a 20 micrômetros. O infravermelho de onda média (3 a 8

micrômetros) e o infravermelho de onda longa (8 a 15 micrômetros) estão dentro da região do

TIR (SHENG et al., 2010).

Figura 16. Alguns exemplos de câmaras de imagem TIR não refrigeradas (a) ICI 320x, (b) Thermal-Eye

4500AS, (c) Photon 320. Fonte: Sheng (2010).

20

Os sensores térmicos podem ser usados em várias aplicações de sensoriamento remoto

(SHENG et al., 2010), que incluem a captura de imagens da refletância e temperatura da

vegetação (BERNI et al., 2009), parametrização das condições de umidade da superfície

terrestre (SOER, 1980), mapeamento da descarga de águas subterrâneas submarinas (SGD)

em zonas costeiras (LEE et al., 2016), monitoramento da saúde florestal (SMIGAJ et al.,

2015), simulações de troca de energia da paisagem ao longo do espaço e escalas de tempo

(QUATTROCHI; LUVALL, 1999), inferência do teor superficial de água no solo e cobertura

vegetal fracionada (CARLSON et al., 1994), determinação da evapotranspiração em áreas

com vegetação (CASELLES et al., 1992) e a avaliação do efeito de ilhas de calor urbana (LO

et al., 1997).

2.3 INDICES DE VEGETAÇÃO (IV)

Um índice pode ser definido como sendo um número pelo qual se quantifica a

intensidade de um fenômeno qualquer, que muitas das vezes pode ser complexo demais para

ser decomposto em parâmetros conhecidos (BANNARI et al., 1995). O advento do

sensoriamento remoto fez com que fosse possível determinar a porção de influência de muitos

fatores e elementos quando em um ambiente bem documentado e bem controlado. Exemplo

disso é o imageamento de áreas degradadas ou áreas sob influência de desmatamentos,

entretanto é difícil de fazer essa decomposição de informações com grande precisão apenas

por meio da observação visual. Neste sentido, a noção de índice de vegetação está bem

adaptada para quantificar a vegetação em grandes ou pequenas áreas, diferenciado-a de outros

elementos que não sejam a vegetação, como, por exemplo, solo exposto, edificações e leitos

de rios (BANNARI et al., 1995).

O índice de vegetação pode ser entendido como uma técnica quantitativa que indica o

vigor da vegetação (CAMPBELL, 1987). Os índices de vegetação são mais sensíveis e mais

capazes de detectar a biomassa do que bandas espectrais individuais (ASRAR et al., 1984). O

interesse nesses índices reside principalmente na sua utilidade e na interpretação de imagens

de sensoriamento remoto, constituindo, notavelmente, um método para a detecção de

mudanças no uso da terra (BANNARI et al., 1995). Eles têm sido usados em uma variedade

de contextos para avaliar a biomassa verde e também como substitutos para avaliar mudanças

ambientais, especialmente no contexto da avaliação de risco de seca e degradação da terra

(KOGAN, 1990; TRIPATHY et al., 1996; LIU; KOGAN, 1996), além disso a avaliação da

21

densidade de cobertura vegetal, a discriminação de culturas e a predição de cultivos (BARET;

GUYOT, 1991). Portanto, os IVs são usados na classificação de imagens, principalmente para

separar áreas com vegetação de áreas não vegetadas (BASSO et al., 2004).

2.3.1 Categorias dos índices de vegetação

Os autores Daughtry et al. (2000) classificaram os IVs em duas categorias: índices

intrínsecos, que incluem razões de duas ou mais bandas nos comprimentos de onda do visível

(RGB), do infravermelho próximo (NIR) e do vermelho de borda (RedEdge). Alguns

exemplos destes índices são o NDVI (Índice de Vegetação por Diferença Normalizada) e RVI

(Índice de Vegetação por Razão). Estes índices são sensíveis às propriedades de refletância de

fundo e são frequentemente difíceis de interpretar com baixo IAF (DAUGHTRY et al., 2000;

RONDEAUX et al., 1996). Os índices de vegetação na linha do solo usam a informação da

linha do solo na refletância do NIR-Red para reduzir o efeito do solo na refletância da copa

(DAUGHTRY et al., 2000). Exemplos de índices que reduzem o efeito do solo são o SAVI

(Índice de Vegetação Ajustado ao Solo), OSAVI (Índice Vegetativo Ajustado pelo Solo

Optimizado) e TSAVI (Índice Vegetativo Ajustado do Solo Transformado).

Há um grande número de índices de vegetação, usados nas mais variadas funções,

alguns capazes de oferecer resultados usando apenas as bandas do espectro visível da luz

(RGB) (WAN et al., 2018) e outros se utilizam das bandas de refletância NIR e RedEdge

(VIÑA et al., 2011). Atualmente há mais de 100 índices de vegetação com as mais diferentes

finalidades (XUE; SU, 2017). Na Tabela 2 estão relacionados alguns índices de vegetação que

utilizam apenas as bandas nos comprimentos de onda visível (RGB), e na Tabela 3 estão

relacionados alguns índices que utilizam os comprimentos de onda do NIR e RedEdge.

Tabela 2. Índices de vegetação derivados de imagens com bandas do comprimento de onda visível RGB. Fonte:

Wan et al. (2018).

Vegetation Indices Formula References

Visible-band Difference Vegetation Index (VDVI) (2*G − R − B)/(2*G + R +B) (WANG, et al. 2015)

Visible Atmospherically Resistant Index (VARI) (G − R)/(G + R − B) (GITELSON et al., 2002)

Normalized Green-Red Difference Index (NGRDI) (G − R)/(G +R) (GITELSON et al., 2002)

Red-Green Ratio Index (RGRI) R/G (VERRELST et al., 2008)

Modified Green Red Vegetation Index (MGRVI) (G2 − R

2 )/(G

2 + R

2 ) (BENDIG et al., 2015)

Excess Green Index (ExG) 2*G − R − B (WOEBBECKE et al., 1995)

Color Index of Vegetation (CIVE) 0.441*R 0.881*G + 0.385*B + 18.787 (KATAOKA et al., 2003)

Vegetativen (VEG) G/(Ra *B

(1 − a) ) a = 0.667 (HAGUE et al., 2006)

VIs Calculated from RGB Images

22

Tabela 3. Índices de vegetação derivados dos espectros do infravermelho próximo (NIR) e do vermelho de

borda (RedEdge). Fonte: Viña et al. (2011).

2.4 CLASSIFICADORES NÃO SUPERVISIONADO K-MEANS E ISODATA

Existem métodos de agrupamento cluster para classificação não superficionada, o tipo

mais comum e aplicado a dados detectados remotamente é o partitional. A maioria dos

softwares ou sistemas computacionais destinados ao processamento digital de imagens de

sensoriamento remoto contém especificamente dois algoritmos de agrupamento particinal

para executar classificações não supervisionadas: o algoritmo K-means e uma variação dele, o

ISODATA (BALL; HALL, 1967). O classificador K-means convencional é baseado na

decomposição, sendo uma técnica popular no campo de mineração de dados. O conceito de

algoritmo K-means usa K como um parâmetro, divide n objetos em clusters K, para criar

semelhança relativamente alta no cluster e relativamente baixa similaridade entre clusters. Ele

minimiza a distância total entre os valores em cada cluster para o centro do cluster. O centro

do cluster de cada cluster é o valor médio do cluster. O cálculo da similaridade é feito pelo

valor médio dos objetos do cluster. A medida da similaridade para a seleção do algoritmo é

feita pela recíproca da distância euclidiana, ou seja, quanto mais próxima a distância, maior a

similaridade de dois objetos e vice-versa (YADAV; SHARMA, 2012)

Apesar de serem amplamente utilizados, esses métodos de clustering tradicionais

possuem algumas limitações. As funções objetivas que eles usam começam com a suposição

de que o número de classes K é conhecido a priori. Seguindo a hipótese de que um valor K

inadequado tenha sido escolhido, o método irá impor clusters K para os dados através do uso

de técnicas de otimização. O usuário também deve especificar manualmente vários

parâmetros para controlar o processo de cluster, por exemplo, os centróides iniciais de cada

Vegetation Indices Formula References

Simple Ratio (SR) NIR / R (JORDAN, 1969)

Normalized Difference Vegetation Index (NDVI) (NIR − R) / (NIR + R) (ROUSE et al., 1974)

MERIS Terrestrial Chlorophyll Index (MTCI) (DASH; CURRAN, 2004)

(GITELSON et al., 2003a; 2003b; 2005)Green Chlorophyll Index (CIGreen)

Red-edge Chlorophyll Index (CIRed-edge) (GITELSON et al., 2003a; 2003b; 2005)

VIs Calculated from RGB Images

Enhanced Vegetation Index (EVI) (HUETE et al., 1996; 1997)

(GITELSON, 2004)Wide-Dynamic Range Vegetation Index (WDRVI)

-1

-1

23

cluster, o número máximo de interações, os limites para executar a divisão, a fusão ou a

exclusão de clusters. K-means e ISODATA são muito sensíveis a esses parâmetros, que

podem gerar partições diferentes quando várias simulações são realizadas para o mesmo

conjunto de dados (SHAH et al., 2004, GONÇALVES et al., 2005; GONÇALVES et al.,

2008). Há outras limitações não menos importantes dos algoritmos particionais, que é o alto

custo computacional quando os dados a serem analisados são muito grandes (a cada iteração,

todos os pixels da imagem são comparados com todos os dados, centróides) e a existência de

suposições sobre as formas de cluster. Geralmente apenas um protótipo (centróide) é usado

para representar um cluster, portanto, esses métodos tornam-se adequados apenas para a

análise de clusters que possuem formatos hiperesféricos (SHAH et al., 2004, GONÇALVES

et al., 2005).

Claramente, a literatura contém outras propostas para métodos não supervisionados para

classificar dados de sensoriamento remoto que não fazem uso apenas de abordagens

convencionais de clustering. Em Huang (2002), por exemplo, um método hierárquico divisivo

baseado em conceitos de hiperplanos e árvores binárias foi proposto para servir como uma

alternativa ao ISODATA. Embora a precisão geral do algoritmo hierárquico proposto tenha

sido um pouco menor, ele foi muito mais rápido do que o ISODATA em todos os testes

experimentais que foram apresentados. Shah et al. (2004) propuseram um algoritmo não

supervisionado, derivado da análise de componentes independentes, que modela distribuições

de classes com densidades não gaussianas e emprega estatísticas de ordem superior, ao

contrário dos algoritmos convencionais. Enquanto os algoritmos são altamente complexos e o

processamento de dados é demorado, técnicas de classificação não supervisionadas baseadas

em campos aleatórios de Markov que combinam informações espectrais e espaciais também

foram investigadas (BARALDI et al., 2000, TSO; OLSEN, 2005). Além disso, os

pesquisadores projetaram várias abordagens não supervisionadas para classificar imagens de

sensoriamento remoto baseadas em métodos de inteligência computacional como redes

neurais, sistemas difusos e algoritmos evolutivos (JI, 2003; LIU et al., 2005, XIANG et al.,

2005).

24

2.5 ESPÉCIES INVASORAS

2.5.1 Espécies invasoras na agricultura

A detecção e o manejo de espécies invasoras é um problema significativo na agricultura

atualmente (LIAKOS et al., 2018). Muitos produtores indicam que as espécies invasoras são

uma das ameaça mais importante à produção agrícola. A detecção precisa das espécies

invasoras é de grande importância para a agricultura sustentável, porque elas são difíceis de

detectar e de discriminar nas culturas agrícolas (LIAKOS et al., 2018). O modelo CHweed é um

método capaz de detectar e realizar a discriminação precisa de espécies invasoras com baixo

custo e sem problemas ambientais e efeitos colaterais. O modelo CHweed utiliza imagens da

banda do visível (RGB) que podem ser adqueridas por uma RPA simples de baixo custo. A

aplicação desse modelo na detecção de espécies invasoras pode permitir o desenvolvimento

de ferramentas e robôs para destruir espécies invasoras, fazendo com que minimize a

necessidade de herbicidas. Existem alguns exemplos de estudos utilizando o método CHweed

com o uso de RPA, como, por exemplo, o trabalho desenvolvido por Stroppiana et al. (2018)

onde foi realizado o levantamento de espécies invasoras em um cultivo de arroz, em especial

a grama de capoeira (Echinochloa spp.) e beldroega comum (Portulaca oleracea L.)

conforme ilustrado na Figura 17.

Figura 17. Contexto e fotos detalhadas do campo de arroz objeto deste estudo: (a) condições gerais, com

arbustos de colza distribuídos sobre a área do campo; (b) espécies invasoras de capim; (c) zoom sobre a planta de

colza; d) planta invasora comum. Fonte: Stroppiana et al. (2018).

25

Outro exemplo de estudo que utilizou o modelo CHweed através de imagens de RPA, foi

o trabalho desenvolvido por Castro et al. (2018) no qual os autores identificaram as espécies

invasoras das culturas de girassol (Figura 18) e de algodão (Figura 19) através do método de

altura do dossel de espécies invasoras (CHweed).

Figura 18. Visão geral das três culturas de flores de girassol estudadas em estágio inicial: (a) S1–16; (b) S1-17;

(c) S1–17. Fonte: Castro et al. (2018).

Figura 19. Visão geral das duas culturas de algodão estudadas no estágio inicial: (a) C1-16, (b) C2–16. Fonte:

Castro et al. (2018).

Existem outros métodos usados na identificação de espécies invasoras em cultivos

agrícolas com o uso de RPA, por exemplo, cita-se o Machine Learning (ML) que entre outras

definições, é definido como o campo científico que dá às máquinas a capacidade de aprender

sem ser estritamente programado (LIAKOS et al., 2018). Dois estudos sobre aplicações do

ML para problemas na detecção de espécies invasoras na agricultura foram apresentados. No

primeiro estudo realizado por Pantazi et al. (2017), os autores apresentaram um novo método

26

baseado em contra-propagação (CP) -ANN e imagens multiespectrais capturadas por RPAs na

identificação de Silybum marianum, uma planta invasoras que é difícil de erradicar e causa

grande perda no rendimento da cultura. No segundo estudo por Pantazi et al. (2016), os

autores desenvolveram um novo método baseado em técnicas ML e imagens hiperespectrais,

para reconhecimento de espécies de espécies invasoras. Mais especificamente, os autores

criaram um sistema ativo de aprendizagem para o reconhecimento do milho (Zea mayas),

como espécies de plantas cultivadas e Ranunculus repens, Cirsium arvense, Sinapis arvensis,

Stellaria media, Tarraxacum officinale, Poa annua, Polygonum persicaria, Urtica dioica,

Oxalis europaea e Medicago lupulina como espécies de espécies invasoras. O objetivo

principal era o reconhecimento e discriminação precisos dessas espécies para fins econômicos

e ambientais. No estudo desenvolvido por Binch e Fox (2017), os autores desenvolveram um

método de detecção de espécies invasoras baseado no SVM (Support Vector Machines) em

culturas de gramíneas.

Nos últimos anos, aeronaves remotamente pilotadas (RPA) e sensoriamento remoto por

satélite, têm sido empregados para detecção e mapeamento de espécies invasoras,

principalmente o uso de RPAs (RICHARDSON et al., 2016; WILDENHAIN et al., 2015). No

entanto, é difícil obter um resultado satisfatório por causa da resolução espacial insuficiente

das imagens de sensoriamento remoto por satélites. Hoje, a insuficiência da resolução espacial

pode ser resolvida apropriadamente usando a tecnologia de sensoriamento remoto baseada em

RPAs. As RPAs podem voar em baixa altitude e capturar imagens de alta de resolução

espacial, o que pode melhorar significativamente a precisão geral do mapeamento das

espécies invasoras (LIAKOS et al., 2018). Peñrez-Ortiz et al. (2015) utilizaram as imagens de

RPA para o mapeamento de espécies invasoras na agricultura, com um excelente desempenho

obtido através de uma abordagem semissupervisionada. Castaldi et al. (2017) aplicaram

imagens multiespectrais de RPA para classificação de milho/espécies invasoras. Os resultados

de classificação utilizados no manejo de espécies invasoras do campo de milho levaram a uma

diminuição no uso de herbicida sem conseqüências negativas em termos de produtividade das

culturas (LIAKOS et al., 2018; HUANG et al., 2018).

A detecção de espécies invasoras nos campos de cultivo é uma tarefa difícil. Esta tarefa

é ainda complexa em campos de arroz, devido ao fato de que o arroz e as ervas daninhas

compartilham semelhanças nas características espectrais e aparência geral, e devido à

variabilidade e mudanças nas condições nos campos de arroz (STROPPIANA et al., 2018).

27

Mesmo usando o método OBIA (Object-based Image Analysis), o mapeamento preciso de

espécies invasoras ainda é uma tarefa desafiadora. Nos últimos anos, os métodos de

aprendizado de máquina foram aplicados com sucesso no mapeamento baseado em imagens

de RPA. Alexandridis et al. (2017) aplicaram quatro classificadores de detecção de novidade

para detecção de espécies invasoras e mapeamento de Silybum marianum com base em

imagens multiespectrais de RPA, e a precisão de identificação usando a Máquina de Vetor de

Suporte de Uma Classe (OC-SVM) alcançou uma precisão geral de 96%. Tamouridou et al.

(2017) usaram o Perceptron Multicamada com Determinação de Relevância Automática

(MLP-ARD) para identificar o S. marianum entre outras vegetações com base no

sensoriamento remoto com RPA, e a taxa de identificação do S. marianum foi de até 99,54%

(HUANG et al., 2018).

2.5.2 Espécies invasoras em áreas com vegetação remanescente

Espécies invasoras são consideradas espécies não nativas que se estabelecem e se

dispersam em sua nova localização, gerando um impacto negativo nos serviços

ecossistêmicos, na economia e no bem-estar social, representando a segunda causa mais

importante na extinção de espécies nativas em áreas protegidas (MORAIS et al., 2017), que

visam salvaguardar a biodiversidade e garantir a persistência do patrimônio natural (LÓPEZ;

PÁZMÁNY, 2019). No caso de árvores e arbustos invasores, freqüentemente formam

coberturas densas que reduzem os recursos hídricos superficiais, diminuem a diversidade

biológica e aumentam os riscos de incêndio (RICHARDSON et al., 1987).

Na Europa, são listadas mais de 12.000 espécies exóticas, das quais 10% a 15% são

invasivas, com um custo estimado de 12 bilhões de euros por ano. Estes números levaram o

Parlamento Europeu a adoptar nova legislação para prevenir e gerir esta ameaça. Em Portugal,

mais de 600 espécies exóticas foram catalogadas, o que corresponde a 18% do total da flora

portuguesa continental. Oito por cento dessas espécies exóticas são consideradas invasoras e

ameaçam a flora e a biodiversidade nativas (ALVAREZ-TABOADA et al., 2017). No Brasil

as características biológicas que levaram com que as gramíneas se comportassem como

espécies invasoras se devem por elas serem heliófilas, possuirem metabolismo C4 e serem

adaptadas a colonizar áreas abertas e ensolaras. Além disso, também possuem alta eficiência

fotossintética e na utilização dos nutrientes, sobrevivendo em solos menos férteis. Apresentam

altas taxas de crescimento, rebrotamento e regeneração, além de alta tolerância ao

28

desfolhamento e à herbivoria. Essas características fazem com que sua eficiência reprodutiva

seja alta, com ciclo reprodutivo rápido, com intensa produção de sementes com alta

viabilidade, que formam um banco de sementes denso, com alta capacidade de dispersão por

sementes anemocóricas e por reprodução vegetativa e alta capacidade de germinação

(COUTINHO 1982; BARUCH et al., 1985; D’ANTONIO; VITOUSEK 1992; FREITAS

1999; PIVELLO et al., 1999a).

As gramíneas introduzidas no Brasil que se tornaram as principais espécies invasoras

deste gênero são: capim-jaraguá (Hyparrhenia rufa), o gênero das braquiárias (Urochloa

spp.), o capim-colonião (Panicum maximum) (Figura 20). Estas espécies são originárias da

África do Sul e da África Ocidental. Elas foram introduzidas acidentalmente ou para fins

comerciais e se espalharam por grandes extensões de ecossistemas antropizados, deslocando

espécies nativas graças à sua agressividade e ao seu grande poder competitivo hoje se

comportando como espécies exóticas invasoras (PIVELLO et al., 1999a; MATOS; PIVELLO,

2009).

Figura 20. Espécies invasoras do gênero gramínea. A) Panicum maximum; B) Hyparrhenia rufa; C) Urochloa

spp. Fonte: figura A (Tropicalforages, em

http://www.tropicalforages.info/key/forages/Media/Html/entities/panicum_maximum.htm); figura B (Wikipedia,

em https://en.wikipedia.org/wiki/Hyparrhenia_rufa); figura C (Feedipedia, em

https://www.feedipedia.org/node/489).

29

Pivello et al. (1999b) e Pivello (2011) desenvolveram alguns trabalhos no Cerrado onde

Melinis minutiflora e Urochloa ssp. foram associadas negativamente e exercem uma forte

concorrência com a comunidade nativa herbácea. A abundância destas espécies é maior nas

fronteiras da reserva, trilhas e onde a terra foi remexida, mas sempre em áreas abertas ou com

pouca vegetação arbórea. Há evidências que Melinis minutiflora se estabelece primeiro nas

áreas, sendo seguida por Urochloa ssp. que é mais agressiva e ao se estabelecer é capaz de

alcançar o interior dos fragmentos de vegetação remanescente.

30

3 CAPÍTULO 1: AERONAVE REMOTAMENTE PILOTADA

(DRONE) DE BAIXO CUSTO NO ESTUDO DE PLANTAS

INVASORAS EM ÁREAS DE CERRADO

RESUMO: O objetivo desse capítulo foi analisar se o método CHIS+GPS/GLONASS (Canopy Height Invasive

Species) representa uma rotina de classificação assertiva na identificação de espécies invasoras a partir de

imagens RGB em área de Cerrado com evidência de perturbação. A metodologia empregada foi a produção dos

modelos de elevação MDS e MDT a partir das imagens coletadas em campo com drone e posteriormente

processadas no software PhotoScan. A produção do CHIS+GPS/GLONASS foi a partir da subtração dos

modelos MDS e MDT. Para aferir a precisão do modelo CHIS+GPS/GLONASS foi gerado dois modelos

convencionais para comparação: classificação não supervisionada K-means e índice de vegetação NGRDI. A

comparação entre os modelos se deu em duas áreas amostrais escolhidas de forma não aleatória. Ao final foi

aplicado teste de acurácia, correlação de Spearman, taxa de erro geral, overall error rate, especificidade,

sensibilidade e Cohen’s Kappa. Os resultados demonstram que o modelo CHIS+GPS/GLONASS obteve os

melhores resultados na identificação de espécies invasoras quando comparado com os modelos K-means e

NGRDI. Os testes de acurácia para o modelo CHIS+GPS/GLONASS na área amostral 1 e 2 foi de 0.973 e 0.9

respectivamente; K-means 0.209 e 0.6; NGRDI 0.795 e 0.518. O modelo CHIS+GPS/GLONASS demonstrou

ser promissor na identificação de espécies invasoras em áreas perturbadas quando comparado com modelos

convencionalmente usados.

Palavras-chave: ARP; gestão ambiental; sensoriamento remoto; CHIS

REMOTELY PILOTED AIRCRAFT (DRONE) OF LOW COST IN THE

INVASIVE SPECIES STUDY IN CERRADO AREAS

ABSTRACT: The objective of this chapter was to analyze if the CHIS+GPS/GLONASS (Canopy Height

Invasive Species) method represents an assertive classification routine in the identification of invasive species

from RGB images in Cerrado area with evidence of disturbance. The methodology used was the production of

the MDS and MDT elevation models from the images collected in the drone field and later processed in the

PhotoScan software. The production of the CHIS+GPS/GLONASS was based on the subtraction of the MDS

and MDT models. To verify the accuracy of the CHIS+GPS/GLONASS model two conventional models were

generated for comparison: unsupervised K-means classification and NGRDI vegetation index. The comparison

between the models occurred in two sample areas chosen in a non-random manner. At the end was applied

accuracy test, Spearman correlation, specificity, sensitivity and Cohen's Kappa. The results demonstrate that the

CHIS+GPS/GLONASS model obtained the best results in the identification of invasive species when compared

with the K-means and NGRDI models. The accuracy tests for the CHIS+GPS/GLONASS model in sample area

1 and 2 were 0.973 and 0.9 respectively; K-means 0.209 and 0.6; NGRDI 0.795 and 0.518. The

CHIS+GPS/GLONASS model has been shown to be promising in the identification of invasive species in

disturbed areas when compared to conventionally used models.

Keywords: RPA; environmental management; remote sensing; CHIS

31

3.1 INTRODUÇÃO

As aeronaves remotamente pilotadas (RPA), popularmente conhecidas como drones,

tiveram uma evolução rápida na última década, tanto para fins militares como para uso civil

(IVOSEVIC et al., 2015). O processamento de dados derivados de RPA está em rápida

evolução e é utilizado em uma ampla gama de pesquisas geoespaciais, incluindo a gestão de

recursos naturais (GINI et al., 2018). As RPAs de baixo curso apresentam boa relação custo

versus benefício, para a pesquisa e monitoramento ambiental devido à sua facilidade de uso,

versatilidade e sua capacidade de coletar dados de áreas, que de outra forma são de difícil

acesso (EVANS et al., 2015; GINI et al., 2018; STARK et al., 2018). Por conta da baixa

altitude operacional de voo realizada em missões com RPA, as imagens aéreas capturadas são

de altíssima resolução espacial (PENG et al., 2015; STARK et al., 2018). Além disso, o baixo

custo dessas plataformas, juntamente com a variedade de sensores disponíveis, torna a RPA

adequada para ser utilizada em muitas situações em que um meio tradicional (satélites e

aviões tripulados) seria de alto custo financeiro (STARK et al., 2018).

Os sensores mais comuns acoplados às RPAs são câmeras digitais convencionais que

registram dados na faixa do espectro visível (RGB), oferecendo vantagens sobre outras

plataformas de sensoriamento remoto. Estes sensores possuem capacidade de gerar imagens

de alta resolução em escalas temporais flexíveis, tornando as RPAs adequadas para preencher

a lacuna entre os dados contidos em amostras de campo de pequena escala e a necessidade de

compreensão de padrões da paisagem em áreas extensas (ZHANG et al., 2015; STARK et al.,

2018).

Em particular, os Sistemas de Aeronaves Remotamente Pilotadas (SRPA) já deram

provas de serem plataformas apropriadas para o planejamento urbano, agrícola e ambiental,

dentre outras finalidades (KANEKO; NOHARA, 2014). Configurações compostas por

câmeras digitais padrão e multiespectrais propiciaram resultados promissores em estudos de

florestas do Mediterrâneo (PENG et al., 2015), áreas de pastagens áridas (RANGO et al.,

2009; LALIBERTE et al., 2011), leitos de musgo antártico (LUCIEER et al., 2012; TURNER

et al., 2014) e plantas daninhas aquáticas (GOKTOGAN et al., 2010). As RPAs têm potencial

para mapear e monitorar ecossistemas ameaçados e espécies de espécies invasoras ou

dominantes (HARDIN et al., 2007; BAENA et al., 2017), e também podem ser usadas na

coleta de informações durante desastres ambientais, no gerenciamento e monitoramento de

rios e aterros, e na medição e levantamento topográfico (KANEKO; NOHARA, 2014). Além

32

disso, existe o potencial deste sistema para aplicações ambientais e de conservação, que

incluem mapeamento quase em tempo real da cobertura da terra local, monitoramento de

atividades florestais ilegais, como por exemplo, extração de madeira e incêndios (KOH;

WICH, 2012).

Devido ao baixo custo e ao aumento da capacidade das RPAs, em termos de produção

de ortomosaicos e de modelos digitais da superfície, pesquisadores começaram a explorar essa

tecnologia para mapeamento de espécies invasoras (MICHEZ et al., 2016; DVORÁK et al.,

2015; HUNG et al., 2014; WAN et al., 2014; KNOTH et al., 2013; PEÑA et al., 2013;

ZAMAN et al., 2011). Trabalhos anteriores sobre o mapeamento de espécies invasoras com

RPA exploraram produtos baseados na classificação de pixels (WAN et al., 2014; ZAMAN et

al., 2011), detecção de objetos (MICHEZ et al., 2016; HUNG et al., 2014; KNOTH et al.,

2013; PEÑA et al., 2013) e métodos de classificação através da altura do dossel (MATESE et

al., 2017; STROPPIANA et al., 2018; ZILIANI et al., 2018; VILJANEN et al., 2018; DE SÁ

et al., 2018; MARTIN et al., 2018) para identificar as espécies de interesse das imagens

adquiridas.

O objetivo deste capítulo é analisar se o método CHIS (Canopy Height Invasive

Species) alinhado ao GPS/GLONASS da RPA é a rotina de classificação mais assertiva na

identificação de espécies invasoras a partir de imagens RGB obtidas com um RPA de baixo

custo. Em particular, os principais objetivos são: i) classificar mosaico de imagens aéreas da

área com vegetação remanescente de Cerrado a partir de modelos convencionais de

identificação das diferentes classes de uso da terra (solo exposto, vegetação remanescente e

espécie invasora), na tentativa de identificar as espécies invasoras específicas do local

(Urochloa ssp), através da classificação não supervisionada K-means e do índice de vegetação

NGRDI como um parâmetro comparativo com o modelo CHIS+GPS/GLONASS; ii) gerar o

modelo CHIS+GPS/GLONASS a partir dos modelos MDS (Modelo Digital da Superfície) e

MDT (Modelo Digital do Terreno), e caracterizar os padrões espaciais da altura da planta

invasora Urochloa ssp a partir de dados coletados em campo visando apoiar a estratégia de

identificação e validação dos resultados do modelo CHIS+GPS/GLONASS; iii) relacionar os

resultados dos diferentes métodos de parâmetro comparativo e fornecer informações de alto

nível que demonstrem qual a precisão do modelo CHIS+GPS/GLONASS na identificação de

espécies invasoras.

33

3.2 METODOLOGIA

3.2.1 Área de estudo

A área de estudo localiza-se na Universidade Federal de Rondonópolis (Figura 21), em

Rondonópolis, Mato Grosso, Brasil. O local estudado apresenta elementos de vegetação

remanescente de Cerrado stricto sensu, locais com solo exposto e áreas com avançada

presença de espécies invasoras, predominantemente a espécie Urochloa ssp. A área estudada

abrangeu três hectares.

Figura 21. Localização geral da área de estudo. Em a) sítio experimental com o ortomosaico de imagens obtidas

pelo RPA. Sistema de Coordenadas UTM, SIRGAS 2000, 21S.

As demais características, como classe de solo, clima, temperatura e a precipitação

média anual, longitude e latitude, bioma e altitude do local de estudo são apresentadas na

Tabela 4.

34

Tabela 4. Dados de latitude, longitude, tipo de solo, precipitação e temperatura média anual, clima e altitude da

área de estudo.

Fonte: dados de Temperatura e Precipitação (SOUZA et al., 2013); dados de clima (PEEL et al., 2007);

dados de solo (EMBRAPA, 2006). Legenda: CWA (Clima Subtropical Úmido).

3.2.2 RPA e sensor

A plataforma de Aeronave Remotamente Pilotada (RPA) usada neste estudo foi um

multirotor DJI Phantom 4 Pro (Figura 22). A RPA Phantom 4 Pro pode ser conectada via

datalink a um controle remoto, pelo qual é possível monitorar o status do voo da RPA e

enviar instruções da missão do trajeto de voo via aplicativo, que neste caso foi o DroneDeploy

(disponível em: https://support.dronedeploy.com/lang-pt-BR). Os detalhes das especificações

da plataforma RPA usada neste estudo estão descritos na Tabela 5.

Tabela 5. Especificação da plataforma RPA usada neste estudo. Fonte: informações coletadas no manual do

usuário.

Figura 22. Multirotor DJI Phantom 4 Pro usado para fotografias no campo de estudo (a). Central controle

remoto (b). Sensor câmera GoPro (c).

Precipitação Temperatura

Cerrado 293 m 16°27'40'' 54°34'52'' CwaLatossolo Vermelho

Distrófico1500 mm 25°C

Média AnualBioma Altitude Latitude Longitude Classe de SoloClima

US$1.499,00

Itens

Preço aproximado de mercado

DJI Phantom 4 Pro

VTOL

-

6000 m

72 km/h

2 km - 7 km

2.4 GHz

1388 g

Frequência do link de rádio

Peso máximo de decolagem

Tempo máximo de vôo 30 min

Altura máxima de vôo

Velocidade máxima de vôo

Alcance do link de rádio

Especificação

RPA

Propulsor

Cobertura máxima à 2000 m

35

A câmera do Phantom 4 Pro possui 20 MP e seu sensor é denominado de CMOS. Esse

sensor capta os comprimentos de onda na faixa do vermelho (635 nm), verde (520 nm) e azul

(450 nm), conhecido por RGB. A câmera fica acoplada a um gimbal na parte inferior da

fuselagem do RPA. As especificações da câmera do Phantom 4 Pro estão descritas na Tabela

2. O sensor CMOS pode capturar e armazenar simultaneamente uma imagem RGB de 5472 x

3648 pixels. As imagens contêm dados de iluminação para calibrar a irradiância em dias

ensolarados ou nublados e dados do Global Navigation Satellite System (GNSS).

Tabela 6. Especificações do sensor acoplado à RPA usada na campanha de campo.

3.2.3 Aquisição e processamento das imagens RGB

A RPA foi configurada para voar automaticamente sobre o campo experimental usando

um controlador de voo automático enquanto rastreava waypoints de acordo com o trajeto de

voo pré-programado gerado no programa DroneDeploy (Figura 23), que disponibiliza a

ferramenta por 14 dias grátis. Uma sequência de imagens sobrepostas foi coletada em cada

missão de voo para cobrir todo o campo experimental. A trajetória de voo foi projetada para

garantir a sobreposição de imagens de pelo menos 70% de sobreposição lateral e 70% de

sobreposição frontal. As diferentes condições do ambiente durante o voo na coleta das

imagens digitais de sensoriamento remoto, assim como outras informações do voo, estão

tabuladas na Tabela 7.

Tabela 7. Detalhes gerais no voo para aquisição das imagens de campo.

Faixa espectral (nm) 400-700

Comprimento focal 24 mm

Liberação do obturador Obturador de rolamento eletrônico

Detectores de foto por sensor (MP) 20 MP

Bandas espectrais R-G-B

Sensor CMOS

Resolução (pixels) 5472 x 3648

Características Câmera

Tipo de câmera RGB

Data

Altitude

do Voo

(m)

Velocidade do

Vôo (ms-1

)

Área

Fotografada

(ha)

Quantidade

de Imagens

Sobreposição

Lateral e

Frontal

Resolução

Espacial (cm)Hora do Vôo Iluminação

Velocidade do

Vento (ms-1

)

16/02/2019 40 10 3 225 70% 1.2 09:53 Nublado 1,94

36

Figura 23. Plano de voo no programa DroneDeploy com as rotas de passagem da RPA Phantom 4 Pro emosaico

de imagens fotografadas pela RPA.

A partir das imagens RGB adquiridas em campo pela RPA, foi gerado o ortomosaico

por meio do programa Agisoft Photoscan Profissional (version 1.4.0, Agisoft, St. Petersburg,

Russia). Uma malha de polígonos foi computada a partir da nuvem densa de pontos 3D

(Figura 24) e os valores de pixel de cada imagem foram então projetados na malha para criar

um ortomosaico (Figura 25). Quando combinado com posições de GNSS, este processo

permite a criação de uma ortofoto de alta resolução no formato GeoTIFF, ortoretificada com 3

camadas (RGB).

Figura 24. Ortomosaico da área de estudo em 3D a partir da nuvem de pontos.

37

Figura 25. Mosaico ortoretificado da área de estudo com três camadas do RGB.

3.2.4 Conferência de dados em campo

Coletou-se dados de referência compostos por pontos e medidas, rotulados como

Urochloa ssp. Foi utilizada trena métrica para estabelecer a altura média das espécies

invasoras encontradas no local de estudo (Figura 26) e diferenciá-las da vegetação

remanescente para validação dos dados da altura do dossel das espécies invasoras (CHIS).

Um total de 37 pontos aleatórios com medidas das alturas da Urochloa ssp. foram coletados

em campo (Figura 27).

Figura 26. Medidas da altura da Urochloa ssp. através de uma régua de medidas e coleta dos pontos geográficos

com um GPS nos locais nos quais foram recolhidas as medidas da altura do dossel das espécies invasoras.

38

Figura 27. Conjunto de dados de referência extraído em campo. Pontos em vermelho se referem aos locais com

presença de Urochloa ssp. Os valores informados para cada ponto se referem à altura em centímetros (cm).

3.2.5 Índices de vegetação (IV)

Dadas as configurações de banda específicas da câmera, o IV utilizado deve ser aquele

que atenda as configurações de banda RGB (Tabela 3). Foram testados três índices de

vegetação: NGRDI (Normalized Green-Red Difference Index), ExG (Excess Green) e o CIVE

(Color Index of Vegetation Extraction). O índice escolhido foi o NGRDI, pois obteve melhor

resultado visualmente quanto à classificação através de imagens RGB. O índice NGRDI

fornece indicações da variabilidade espectral dos dosséis da vegetação no plano horizontal (LI

et al., 2016). Este índice de vegetação foi originalmente proposto devido ao seu potencial na

discriminação espectral de espécies invasoras em cultivos (BARRERO; PERDOMO, 2018;

DAVID; BALLADO, 2016). O cálculo do índice NGRDI assim como a plotagem do índice

foi realizado no software R (R CORE TEAM, 2018) com os pacotes raster (HIJMANS,

2017), grDevices (R CORE TEAM, 2018) e RColorBrewer (NEUWIRTH, 2014).

Tabela 8. Índices de vegetação testados neste estudo. R, G e B são os valores de reflexão das bandas vermelha,

verde e azul, respectivamente.

Índice Nome Fórmula Referência

NGRDI Índice de diferença verde-vermelho normalizado (G - R) / (G + R) Gitelson et al. (2002)

39

3.2.6 Classificação não supervisionada

Foram testados três modelos de classificação não supervisionadas: Classificação k-

means, Random Forest e Clara (Clustering for Large Applications). A classificação que

obteve a melhor resposta na diferenciação entre espécies invasoras e vegetação remanescente

foi a k-means, e por este fato optou-se por usá-la neste estudo. A variação intra-cluster é

calculada como a soma da distância euclidiana entre os pontos de dados e seus respectivos

centroides de cluster (VISHWANATH et al., 2016). O cálculo da classificação k-means foi

realizado no software R. Os pacotes utilizados foram raster (HIJMANS, 2017) e cluster

(MAECHLER et al., 2018).

3.2.7 Altura da copa de espécies invasoras CHIS+GPS/GLONASS

A altura do dossel de espécies invasoras foi estimada pela diferença matemática do

Modelo Digital de Superfície (MDS) e do Modelo Digital do Terreno (MDT). O MDS foi

gerado no software Agisoft Photoscan Profissional versão 1.4.0, a partir dos valores das

medidas do GNSS (Global Navigation Satellite System) localizadas no EXIF das imagens

capturadas pelo Phantom 4 Pro em campo.

O MDS é obtido a partir da nuvem densa de pontos. A nuvem densa de pontos é uma

função a qual a partir dos dados de coordenadas geográficas inseridas nas fotos, produz um

modelo 3D. A produção do MDT consistiu em classificar a nuvem densa de pontos no Agisoft

Photoscan, para excluir os elementos acima do solo. Feito este procedimento, o passo seguinte

consistiu em aplicar um “smoth mesh”, função do PhotoScan para corrigir erros e deixar a

malha mais refinada. Com a malha pronta, foi realizado o procedimento de “build DEM” nas

ferramentas do PhotoScan, entretanto não se utilizou da nuvem de pontos como base de

cálculos. Para este procedimento foi utilizado a malha (points of ground) como base para o

cálculo do MDS para gerar o MDT.

Ao final do processo de produção dos modelos MDS e MDT, foi gerado um relatório no

PhotoScan de erros de acurácia posicional nos eixos X, Y e Z para saber se houve muita

diferença nos valores dos eixos comparado com os dados avaliados em campo, uma vez que

esta pesquisa simulou uma rotina sem a correção de erros com RTK (GPS geodésico). Sendo

assim, a pesquisa forneceu dados de calibração do modelo apenas com o sistema GNSS.

Para calcular o modelo de altura de dossel (CHM Canopy Height Model) foi necessário

calcular a subtração do MDT e do MDS no software R. A partir do CHM foi possível

40

identificar os diferentes substratos da vegetação e selecionar apenas as informações que

estivessem no limite da altura estabelecida para as espécies invasoras (modelo

CHIS+GPS/GLONASS), que neste caso foram definidos como valores mínimos de 49 cm e

valores máximos de 110 cm para Urochloa ssp., conforme dados levantados em campo.

Entretanto, também optou em definir valores diferentes aos observados em campo, para mais

e para menos, para considerar as possíveis diferenças no modelo (erros), desta maneira, foi

informado ao programa para selecionar valores que compreendam desde 20 cm até 140 cm.

A comparação do modelo CHIS+GPS/GLONASS entre os modelos k-means e NGRDI

foi através de duas áreas amostrais que possuíam todos os elementos necessários para

comparação e que não fugiam da finalidade deste estudo.

A Figura 28 ilustra a metodologia desenvolvida até este tópico, incluindo a aquisição de

imagens de RPA e os dados em campo para aferição, como também o processamento de

dados para estimar e validar os atributos da vegetação e a integração visual dos atributos de

dados para determinar qual o melhor modelo na identificação de espécies invasoras.

Figura 28. A metodologia inclui três etapas principais. O primeiro passo, na cor azul, é a aquisição dos dados na

área experimental. As caixas na cor verde constituem o processamento particular dos dados. Finalmente, o

terceiro passo é a integração dos dados de processamento para obter o resultado principal da análise.

3.2.8 Avaliação da precisão: teste de acurácia, correlação e Cohen’s Kappa

Para calibrar e validar a classificação do modelo CHIS+GPS/GLONASS e dos modelos

comparativos k-means e NGRDI, foi necessário gerar um raster de classificação

supervisionada da área estudada. Essa rotina resultou em duas classes: ausência de espécies

41

invasoras (aqui pode ser considerado a vegetação remanescente) sendo valor 1 e a presença de

espécies invasoras como valor 2. Os demais modelos (CHIS+GPS/GLONASS, k-means e

NGRDI) foram todos reclassificados em apenas duas classes (presença ou ausência de

espécies invasoras) assim como os dados de referência. A reclassificação foi realizada através

da interpretação dos resultados dos modelos, identificando quais valores se referiam às

espécies invasoras e quais valores eram atribuídos a outras classes.

O teste visou comparar apenas duas áreas amostrais (Figura 29). A técnica consistiu em

recolher 1000 pontos amostrais, os quais foram gerados aleatoriamente (os pontos são os

mesmos para todos os modelos avaliados) para cada área amostral da área de estudo (FENG et

al., 2015; LEHMANN et al., 2017; MÜLLEROVÁ et al., 2017b; de SÁ et al., 2018). A

precisão da estimativa foi quantificada usando Coeficientes de Correlação de Spearman

(SCC), Precisão Geral (OAR) e Coeficiente Kappa de Cohen (K).

Figura 29. Áreas amostrais usadas para os testes de acurácia e matriz de confusão Kappa.

A identificação visual dos pontos de calibração/validação foi realizada usando o

software R 3.5.1. Pacotes usados para: (i) reclassificação dos dados raster, classificação

supervisionada, extração dos dados para análise de acurácia foram usados os pacotes raster

(HIJMANS; 2017), pacote rgdal (BIVAND et al., 2018) e pacote shapefiles (STABLER,

2013); (ii) testes de acurácia e índice Kappa foram usados os pacotes rcompanion

(MANGIAFICO, 2019), caret (KUHN, 2018) e forecast (HYNDMAN, 2019).

42

3.3 RESULTADOS

3.3.1 Modelo de altura do dossel (CHM)

Os valores das alturas compreendem a partir do nível do mar, que foram 281 a 298

metros no MDS e 281 a 288 metros no MDT (Figura 30).

Figura 30. Modelo digital de superfície (a), e modelo digital do terreno (b), gerados a partir de mosaico de

imagens aéreas derivadas de aeronave remotamente pilotada. Os valores de altimetria são considerados a partir

do nível do mar.

O MDT e o MDS estão ilustrados na Figura 31 e 32 respectivamente. O MDT, em uma

primeira análise, destaca-se por apresentar uma diferença anormal nas medidas de altitude,

localizada na parte superior direita, uma diferença de altitude entre 3 a 5 metros (Figura 32).

43

Figura 31. Modelo 3D do modelo digital de superfície (MDS).

Figura 32. Modelo 3D do modelo digital do terreno (MDT).

As altitudes da vegetação variaram desde valores negativos (-4 m) até valores

positivos (14 m). Considera-se vegetação apenas os valores positivos que compreendem desde

0 metros até 14 metros (Figura 33).

44

Figura 33. Altura do dossel das linhas de vegetação com um histograma de densidade de frequência.

O MDT, em uma primeira análise, destaca-se por apresentar uma diferença anormal nas

medidas de altitude, localizada na parte superior direita, uma diferença entre 3 a 5 metros.

Estes valores podem estar relacionados aos erros no algoritmo que interpola os pontos

homólogos e as imagens para produção do MDT. Além disso, pode também estar relacionada

com a menor sobreposição de fotografias (menos pontos homólogos) principalmente nas

bordas da área de estudo, onde ocorre uma menor sobreposição (Figura 34).

Figura 34. Locais da câmera e sobreposição das imagens.

45

Na Figura 35, apresenta-se o CHM com as medidas definidas e representadas com

diferentes cores. A escala de cores representa os valores referentes a escala de 0,00 m até 15

m. Estes valores se referem as diferentes alturas de dossel da vegetação presentes na área

analisada. A escala a partir do valor de 0,00 m, compreendendo a cor branca, refere-se a

classe de solo exposto. Este valor pode variar até os 15 cm, podendo ser considerado solo

exposto ou vegetação de pequenas proporções. A partir destes resultados, numa primeira

análise, não é possível separar o solo exposto de espécies invasoras de pequena altura (0,20

cm). Para tanto é necessário realizar uma seleção dos valores de interesse a partir do modelo

CHM que corresponda as espécies invasoras (CHIS+GPS/GLONASS).

Figura 35. CHM com escala de valores referentes à altura do dossel.

Na Figura 36a tem-se o histograma da distribuição da altura do dossel da vegetação do

campo de estudo. As alturas mais frequentes estão entre 0,01 m a 1,00 m, que podem ser

consideradas como sendo o solo exposto, a vegetação de pequeno porte em recuperação e a

grande parte por Urochloa ssp. O boxplot demonstrou máximas de 14,5 metros, mínima de

0,0 metros, mediana de 1,0 metro e a média de 2,0 metros. Para estes cálculos foram

desconsiderados os valores negativos. Na Figura 36c, foi realizado um corte transversal,

conforme imagem em miniatura (canto superior direito), onde foram extraídas as informações

de altura do dossel, que estão representadas no gráfico de variação de altura do dossel. O

46

gráfico demonstra que onde a linha transversal passou, existe uma grande heterogeneidade nas

alturas de dossel, demonstrando que há um ambiente com uma grande diversidade de espécies

com diferentes alturas de dossel.

Figura 36. a) Histograma de distribuição de frequência para as diferentes alturas de dossel; b) boxplot; c) corte

transversal do CHM.

3.3.2 Classificador k-means e índice de vegetação NGRDI

O modelo de classificação não supervisionada k-means gerou três diferentes classes,

que foram numeradas em ordem crescente, e o índice de vegetação NGRDI gerou os valores

na escala de 1 a -1 (Tabela 9).

Tabela 9. Classe e respectivo valor de referência para o classificador k-means e o índice de vegetação NGRDI.

O classificador k-means (Figura 37a) não demonstrou assertividade na diferenciação

entre espécies invasoras (classe 2) e outras classes mapeadas. Pode ser observado que os

pixels na cor marrom, os quais representam o solo exposto (classe 3), estão confusamente

Classificador Índice Vegetação

k-means NGRDI

Vegetação Remanescente 1 0.25 a 1

Espécie Invasora 2 0 a 0.25

Solo Exposto 3 -0.10 a -1

Classe

47

presentes nas áreas onde há presença quase que total de espécies invasoras e vegetação

remanescente. Esta (na cor verde oliva), por sua vez, ocupou locais onde a presença

majoritária era de espécies invasoras, conforme pode ser visualizado na área circundada com

linha em cor vermelha no mosaico (Figura 37c). A identificação de áreas com espécies

invasoras é incerta, pois contrasta com outras classes. A classificação NGRDI gerou valores

de -1.00 a 1.00, onde os valores negativos representam os locais onde há pouca ou quase

nenhuma vegetação (solo exposto) e os valores próximos de 1 indicam maior presença de

vegetação (maior área foliar) (Figura 37b). O índice NGRDI estima a presença de vegetação a

partir da área foliar (ELAZAB et al., 2015), quanto maior forem os valores na escala positiva

do índice NGRDI maior a presença de vegetação e de biomassa (ELAZAB et al., 2015;

MOTOHKA et al., 2010; HUNT et al., 2005).

Figura 37. a) Classificação k-means com 3 diferentes classes; b) índice de vegetação NGRDI com escala de

valores de -1 a 1; c) mosaico para comparação.

48

3.3.3 Análise do modelo de dossel de espécies invasoras (CHIS+GPS/GLONASS)

As alturas individuais das espécies invasoras estão ilustradas na Figura 38. Verifica-se

na Figura 38a, que o ajuste do modelo para valores a partir de 49 cm mínimos e 110 cm

máximos, acabam por remover muitas áreas em que há presença de espécies invasoras que

foram confirmadas no trabalho de campo. Na Figura 38b, o modelo foi ajustado para valores

mínimos de 20 cm e 140 cm para valores máximos, e finalmente obtiveram-se alturas que

coincidem com a realidade, entretanto, fica claro que ainda assim houve uma diferença de

altitude no modelo CHIS+GPS/GLONASS. A altura das espécies invasoras variou de 20 cm a

140 cm, e em algumas áreas houve valores inferiores ou superiores ao estimado em campo,

indicando falhas ou erros que podem estar relacionados principalmente a menor sobreposição

das imagens como também aos erros médios no eixo Z (altura).

Figura 38. Modelo de altura de dossel de espécies invasoras (CHIS+GPS/GLONASS) com as alturas extraídas a

partir do modelo CHM. a) plantas que estiveram entre as medidas de 49 cm a 110 cm; b) plantas com alturas de

dossel a partir de 20 cm a 140cm.

Os pontos coletados em campo, com as medidas mensuradas manualmente, foram

sobrepostos às áreas onde o modelo CHIS+GPS/GLONASS reconheceu como regiões com

presença de espécies invasoras, compreendendo valores desde 20 cm até 140 cm (Figura 39).

Nota-se que existe uma diferença (erro de estimativa) de até 60 cm em 29,7% dos pontos. Em

contrapartida, em outras regiões os valores são coincidentes com as medidas recolhidas em

campo, principalmente na área amostral 1 (Figura 40a). Na área amostral 2 foi onde ocorreu

maiores diferenças na altura do modelo (Figura 40b).

49

Figura 39. CHIS+GPS/GLONASS com os pontos e medidas coletadas em campo para aferição do modelo.

Figura 40. Em a) área amostral 1 e em b) área amostral 2, ambas usadas para verificar a precisão do modelo.

3.3.4 Avaliação da precisão do modelo CHIS+GPS/GLONASS em relação à

classificação k-means e índice NGRDI

Os resultados do índice de vegetação NGRDI (Figura 41a) da área amostral 1 indicam

que não está clara a distinção entre as classes de vegetação de porte arbóreo (vegetação

remanescente) e vegetação gramínea (espécie invasora). Existem alguns ruídos (pixels em cor

azul) na classificação NGRDI, alguns locais representados por pixel azul (0,5 a 1,0) relaciona-

se à vegetação remanescente, porém em alguns locais onde há presença de pixels azuis, são

locais onde predomina vegetação do porte gramíneo (Urochloa spp.), ou seja, locais onde

houve oscilação na coloração da imagem classificada (ortomosaico), foi interpretado como

sendo porte arbóreo, porém em campo constata-se que não há vegetação de grande porte, mas

apenas espécies invasoras. Na Figura 41d estão circundados os locais onde há algumas

espécies arbóreas misturadas com a Urochloa spp., os demais locais no índice de vegetação

50

NGRDI que considerou como pixels na escala de 0,5 a 1 e não estão circundados no mosaico,

considera-se como erro no logaritmo de classificação.

O classificador k-means (Figura 41b) obteve resposta muito similar quanto a

diferenciação dos extratos da vegetação quando comparado ao índice NGRDI, porém, assim

como esse, ocorre grande quantidade de ruídos que dificultam a detecção de espécies

invasoras em determinadas áreas de maneira precisa. As classes de solo exposto e espécies

invasoras em algumas áreas se misturam, o que torna difícil saber se de fato naqueles locais

há espécie invasora ou solo exposto (Figura 41b). Já o modelo CHIS+GPS/GLONASS

(Figura 41c) permitiu a detecção de espécies invasoras mais precisamente, que foram

classificadas a partir da altura do dossel (CHM+GNSS), facilitando a diferenciação entre as

três classes encontradas na área de estudo, que são a vegetação arbórea (vegetação

remanescente), as espécies invasoras (Urochloa spp.), e o solo exposto.

Figura 41. Amostra 1: análise comparativa entre índice de vegetação NGRDI (a), classificação k-means (b), e

modelo CHIS+GPS/GLONASS. Círculos em vermelho no mosaico (Figura d) representam fragmentos de

vegetação remanescente.

51

Os resultados da área amostral 2, mesmo que promissores, demonstram falhas de

maneira similar no classificador k-means (Figura 42b) e no índice de vegetação NGRDI

(Figura 42a) resultando no mesmo padrão de classificação que foi mencionado na área

amostral 1, com pouca precisão quanto a diferenciação de vegetação remanescente de

espécies invasoras. O modelo CHIS+GPS/GLONASS apresentou algumas falhas na

identificação de espécies invasoras, principalmente na área demarcada com linha vermelha no

mosaico (Figura 42d), local esse onde há alta presença de Urochloa spp. Em quase toda sua

extensão, o modelo CHIS+GPS/GLONASS classificou relativamente bem partindo de uma

análise visual, no entanto, na região inferior direita da área amostral 2, ocorreu ausência de

informação, sendo que nesse quadrante (Figura 42c e 42d) existe a presença de espécies

invasoras. Essa diferença no eixo Z (altura) está relacionada com os modelos MDS e MDT,

pois existem erros na acurácia posicional, uma vez que não foi trabalhado com GPS geodésico

(RTK), mas apenas com o GNSS do equipamento de voo (RPA).

Figura 42. Amostra 2: análise comparativa entre classificação k-means (a), índice de vegetação NGRDI (b), e

modelo CHIS+GPS/GLONASS. Mosaico para observação na Figura 42d.

52

No modelo CHIS+GPS/GLONASS para a área amostral 2, as informações que estão

abaixo de 10 cm foram excluídas, tendo em vista que foi aplicado no modelo apenas valores a

partir de 20 cm até 140 cm. O que ocorreu neste caso foi que houve diferença quanto a

elevação do terreno, erros no eixo Z (elevação) entre 0,4 m a 1,2 m (Figura 43). Isto se deve

principalmente pelo fato das informações de elevação (cota altimétrica) terem sido fornecidas

apenas pelo CHIS+GPS/GLONASS da RPA, equipamento que não possui grande precisão

quanto à elevação. Para tanto, seria necessário o uso de um RTK (Real Time Kinematic), que

não foi utilizado para este trabalho. O erro médio para o eixo Z (altura) foi de 0,751895 m,

valor que corrobora com as diferenças encontradas no modelo CHIS+GPS/GLONASS

comparado com os dados de campo. Os valores de erro do eixo X, Y e Z estão tabulados na

Tabela 10.

Figura 43. Localizações da câmera e estimativas de erros. O erro Z é representado pela cor da elipse. Os erros

X, Y são representados pela forma de elipse. Os locais estimados da câmera são marcados com um ponto preto.

Tabela 10. Erro médio para os eixos X, Y e Z. X – Longitude, Y – Latitude, Z – Altitude.

Erro X (m) Erro Y (m) Erro Z (m) Erro XY (m) Erro Total (m)

1,69044 0,799452 0,751895 1,86995 2,01546

53

3.3.5 Testes de acurácia e índice Kappa

O modelo CHIS+GPS/GLONASS obteve alta precisão ao detectar a presença de

espécies invasoras quando comparado com os demais modelos conforme pode ser visualizado

na Tabela 11, os resultados de acurácia, Kappa e correlação de Spearman.

Tabela 11. Valores de precisão obtidos para os modelos CHIS+GPS/GLONASS, k-means e NGRDI para cada

uma das áreas amostrais do local de estudo. Coeficiente de correlação de Spearman (Spearman Correlation

Coefficiente, SCC), Taxa de erro geral (Overall Error Rate, OER), especificidade (Specificity, SP), sensibilidade

(Sensitivity, SN), acurácia geral (Overall Accuracy Rate, OAR).

Área

amostral Modelo SCC OER SP SN OAR

Cohen's

Kappa

1

CHIS+GPS/GLONASS 0,89 0,03 0,90 0,99 0,97 0,89

k-means -0,13 0,79 0,12 0,75 0,21 -0,05

NGRDI 0,24 0,20 0,32 0,90 0,80 0,23

2

CHIS+GPS/GLONASS 0,78 0,10 0,87 1 0,90 0,75

k-means 0,12 0,40 0,72 0,40 0,60 0,12

NGRDI 0,16 0,48 0,78 0,38 0,52 0,13

A acurácia geral do modelo CHIS+GPS/GLONASS obteve valores de 0,973 na área

amostral 1 e 0,9 na área amostral 2, e os valores de Kappa foram 0,88 (área amostral 1) e

0,751 (área amostral 2), o que indica que o modelo CHIS+GPS/GLONASS foi preciso e

obteve resultados Kappa substanciais (VIEIRA; GARRETT, 2005; MCHUGH, 2012)

principalmente na área amostral 1, onde visualmente o modelo permitiu discriminar as

espécies invasoras em contraste com a vegetação remanescente. Já a área amostral 2, os

valores foram menores por conta das áreas onde houve diferenças significativas na altura do

modelo. A correlação de Spearman foi efetivamente alta (ASUERO et al., 2006) nas duas

áreas amostrais do modelo CHIS+GPS/GLONASS. Os menores valores de Kappa

corresponderam ao modelo k-means (-0,046 e 0,123) seguido do modelo NGRDI (0,233 e

0,127). O maior número de erros (OER) foi observado na classificação k-means (0,790, área

amostral 1). O fato de ocorrer um alto valor de erro nesse classificador se deve principalmente

pela grande quantidade de ruídos (grande número de pixels espalhados) observados nesse

modelo. O modelo NGRDI também apresentou um alto valor de erros na área amostral 2

(0,482), devido à grande abrangência desse classificador na identificação da vegetação sem

diferenciar as diferentes estruturas de dossel.

54

3.4 DISCUSSÃO

Nossos resultados ilustram que o sistema de sensores de RPA pode ser usado para

coletar dados espaciais de áreas protegidas e ou campos de cultivo, que podem ser pós-

processados para derivar estimativas de altura do dossel capazes de diferenciar as estruturas

da vegetação. As imagens da área amostral foram extraídas com base nos pontos de referência

conhecidos do GNSS e as alturas das culturas foram então estimados pelo PhotoScan. O

modelo proposto neste estudo (CHIS+GPS/GLONASS) mostrou ser mais eficiente para

diferenciar a altura do dossel da vegetação quando comparado aos modelos de classificação

por índice de vegetação NGRDI e classificador não superviosonado k-means. O modelo

CHIS+GPS/GLONASS mesmo apresentando limitações na estimativa da altura do dossel, por

ter sido trabalhado apenas com o GNSS da RPA, demostrou bons resultados. Ocorre que o

GNSS não possui alta precisão na estimativa dos eixos x, y e z, ocorrendo falhas ao ser

aplicado o logaritmo do PhotoScan, como aconteceu nos resultados da Figura 33, onde há

presença de valores negativos, apresentando oscilações na altura do terreno em locais onde

não deveriam ter aquelas medidas apresentadas.

A abordagem para o mapeamento de espécies invasoras baseado na classificação não

supervisionada k-means depende de observações in situ para validar se o classificador foi

coerente com a realidade da área classificada. Neste sentido, este método demandaria mais

tempo, recursos e maior imprecisão quando comparado ao método CHIS+GPS/GLONASS,

como pôde ser visualizado nos resultados da Tabela 11. Se observações in situ estiverem

disponíveis para realizar a tarefa de rotulagem automática, o procedimento proposto poderia

ser automatizado, fazendo com que o processo seja rápido. Os pontos de referência poderiam

ser coletados com os Smart Applications em dispositivos móveis (BORDOGNA et al., 2016)

ou fornecidos por voluntários como amostras de interpretação de imagens, como demonstrado

em vários projetos colaborativos abertos em vários campos da ciência (FRANZONI;

SAUERMANN, 2014). Um exemplo é o projeto Ground Truth 2.0, financiado pela Comissão

Européia, que usa ciência cidadã para a gestão de terras e recursos naturais (GROUND

TRUTH 2.0, 2017). Ainda assim, demandaria uma equipe maior no processo de coleta de

dados e custos elevados nesse processo de classificação, ainda assim podendo ser menos

preciso do que o modelo apresentado neste estudo.

55

Em relação ao desempenho do mapeamento de espécies invasoras a partir do índice

NGRDI, a maior precisão de classificação foi de OAR 79%, porém o Kappa foi baixo com

0,233 de acurácia. Isso demonstra que usar apenas a informação espectral da banda do visível

(RGB), mesmo quando resumida em um índice de vegetação que use dessas bandas (NGRDI),

não tem capacidade de diferenciar alvos de vegetação diferentes, minimizando assim a

separabilidade entre classes de vegetação (espécies invasoras, vegetação remanescente), sendo

que esse problema poderia ser minimizado com o uso de bandas multiespectrais, mas ainda

assim não garantindo grande precisão na diferenciação. O índice de vegetação por diferença

normalizada (NDVI) é amplamente utilizado na agricultura de precisão e na gestão ambiental

(KYRATZIS et al., 2017; BAENA et al., 2017; YANG et al., 2017) por sua simplicidade

(muitas vezes na ausência de uma avaliação quantitativa das alternativas), entretanto requer

equipamento mais sofisticado (sensores multiespectrais) o que acarreta em elevar o custo do

equipamento para realizar um trabalho como este. De fato, o NDVI é altamente sensível a

mudanças abruptas do solo nu para a presença de culturas, quando há um forte contraste entre

o solo e a planta em refletância do infravermelho próximo (NIR), como na fase pós-

emergência (HUETE, 1988). Porém quando se trata de diferenciar os diferentes substratos da

vegetação, o NDVI é deficiente. Em contraste, os índices que utilizam de bandas

multiespectrais (índice de vegetação ajustado ao solo SAVI, NDVI e o índice de vegetação

ajustado ao solo modificado MSAVI) forneceram resultados mais precisos do que o NGRDI

quando usado para mapeamento direto de espécies invasoras (MATESE; DI GENNARO,

2018; WAN et al., 2018).

O baixo custo e a facilidade de criar visualizações 3D com imagens derivadas de drones

(RPA) devem aumentar seu uso nos próximos anos. A possibilidade de uma rápida estimativa

da altura do dossel da vegetação durante a recuperação de áreas protegidas com presença de

espécies invasoras ou o crescimento da cultura agrícola fornecerá ao gestor ambiental e ao

agricultor uma ferramenta para decidir prontamente sobre as estratégias de manejo do dossel e

tomadas de decisão. Uma desvantagem do método CHIS+GPS/GLONASS para criar

conjuntos de dados 3D com maior precisão é a necessidade do RTK, equipamento de difícil

manuseio e de alto valor comercial, no entanto, informações coletadas a partir do GNSS do

drone é uma opção viável, já que o algoritmo possui a capacidade em identificar a altura do

dossel com precisão. Este estudo confirma a viabilidade de uma avaliação rápida preliminar

da altura do dossel da vegetação obtida por imagens de alta resolução. Os métodos

56

tradicionais de estimativa da altura do dossel usados pelos gestores ambientais e agricultores

costumam consumir muito tempo e dinheiro. Por exemplo, a análise da madeira de poda e o

comprimento e o peso da parte aérea são métodos de amostragem de solo que consomem

tempo e são destrutivos. Esses métodos também exigem procedimentos difíceis em campo e

em laboratório. Por outro lado, a avaliação da altura da copa usando imagens baseadas em

RPA permite um método não destrutivo e espacial, benéfico para o meio ambiente.

3.5 CONSIDERAÇÕES FINAIS

Para os modelos convencionais (classificação não supervisionada e índices de

vegetação) discriminarem as classes cultura, vegetação remanescente, e espécies invasoras,

torna-se muito difícil, pois todas elas têm propriedades espectrais muito semelhantes. O

sistema proposto, CHIS+GPS/GLONASS, faz uso de um algoritmo de segmentação e uma

técnica de seleção de padrões baseados em altura da copa das plantas. Embora ambas (plantas

remanescentes e espécies invasoras) apresentem propriedades espectrais muito semelhantes, o

método é capaz de distingui-las com precisão usando apenas uma seleção de dados da altura

da copa, características fáceis de calcular. A representação gráfica dos resultados mostra que o

uso da abordagem não é apenas promissor para a detecção de espécies invasoras emergentes

em áreas em recuperação ambiental, mas também entre as linhas de cultura agrícola.

Em nossa opinião, o método proposto abre um novo caminho para cenários ambientais e

agronômicos e especialmente para a Restauração Ecológica, que lida com o manejo de

espécies invasoras. Mapas que mostram a presença de plantas invasoras, particularmente

gramíneas exóticas em áreas de cerrado stricto sensu e florestas, podem ser facilmente

produzidos de forma ágil, a tempo para intervenções rápidas em áreas agrícolas, como

também em áreas de reserva legal e de preservação permanente degradadas.

Um importante tópico de pesquisa futuro será avaliar o potencial de generalização dos

métodos desenvolvidos - em outras palavras, usar os estimadores treinados em outros campos

sem dados de treinamento in situ. Esse é um tópico altamente relevante para desenvolver

ferramentas de sensoriamento remoto eficientes com o mínimo de esforços in situ.

57

4 CAPÍTULO 2: Detecção e monitoramento de gramíneas exóticas e

invasoras em áreas de cerrado por meio de Aeronaves Remotamente

Pilotadas.

RESUMO: O objetivo desse capítulo foi comparar a precisão dos resultados do modelo CHIS+GPS/GLONASS

do capítulo 1, sem correção de acurácia posicional com RTK (Real-time Kinematic), com os resultados do

modelo CHIS corrigidos. Houve a produção dos modelos de elevação MDS e MDT a partir das imagens

coletadas em campo com aeronave remotamente pilotada (RPA) conhecida popularmente como drone, que

foram processadas para geração de ortomosaico corrigido com pontos de controle, obtidos por RTK. A produção

do CHIS se deu por meio da subtração dos Modelo Digital de Superfície (MDS) e do Modelo Digital do Terreno

(MDT). Para aferir a precisão do modelo CHIS+GPS/GLONASS foi gerado o modelo CHIS+RTK como

variável observada. A comparação entre os modelos se deu em duas áreas amostrais representadas por vegetação

típica de cerrado e capim Braquiária. Os testes estatísticos adotados foram: coeficientes de correlação de

Spearman (SCC), erro quadrático médio da raiz da altura de dossel (RMSEz), erro absoluto médio da altura de

dossel (MAEz) e teste de Wilcoxon. A interpretação visual das imagens classificadas demonstrou que o modelo

CHIS+GPS/GLONASS apresentou falhas na identificação da cobertura do solo representada por gramíneas

invasoras, quando comparado ao modelo CHIS+RTK, sendo menos preciso na classificação das alturas de dossel

das espécies invasoras. Os testes estatísticos indicaram que o modelo CHIS+GPS/GLONASS demonstrou

diferenças significativas na identificação de espécies invasoras, com maior erro de altura (0.24 cm) na área

amostral. A partir desses resultados verifica-se que o modelo CHIS+RTK é mais assertivo na detecção de

cobertura do solo composta por gramíneas exóticas que o modelo CHIS+GOS/GLONASS.

Palavras-chave: drones; gestão ambiental; plantas invasoras; sensoriamento remoto

IMAGES DIGITAL PROCESSING OF REMOTELY PILOTED AIRCRAFT FOR DETECTION OF

INVASIVE SPECIES

ABSTRACT: The purpose of this chapter was to compare the accuracy of the CHIS+GPS/GLONASS model

without the positional accuracy correction by RTK (Real-time Kinematic) with that of the CHIS+RTK model

with positional correction. DSM and DTM elevation models were produced from images collected in the field by

remotely piloted aircraft (RPA), popularly known as drone, and these images were processed in order to produce

orthomosaic corrected by control points obtained using RTK. The production of CHIS occurred through the

subtraction of the Digital Surface Model (DSM) and the Digital Terrain Model (DTM). In order to assess the

accuracy of the CHIS+GPS/GLONASS model, the CHIS+RTK model was generated as the observed variable.

The comparison between the models took place in two sample areas represented by typical vegetation of Cerrado

and Brachiaria grass. The statistical tests adopted were: Spearman correlation coefficients (SCC), root-mean-

square error of the canopy height (RMSEz), mean absolute error of the canopy height (MAEz) and Wilcoxon

test. The visual interpretation of the selected images showed that the CHIS+GPS/GLONASS model presented

58

errors in the identification of the ground cover represented by invasive grasses when compared to the

CHIS+RTK model, being less accurate in the classification of the canopy heights of the invasive species.

Statistical tests indicated that the CHIS+GPS/GLONASS model showed significant differences in the

identification of invasive species, with greater height error (0.24 cm) in the sample area. From these results it can

be seen that the CHIS+RTK model is more assertive in detecting ground cover composed by exotic grasses than

the CHIS+GOS/GLONASS model.

Keywords: drones, environmental management, invasive plants, remote sensing.

59

4.1 INTRODUÇÃO

Áreas protegidas são espaços naturais de elevado valor ecológico, que visam

salvaguardar a biodiversidade, preservar serviços ecossistêmicos e garantir a integridade do

patrimônio natural. A conservação desses ecossistemas requer rotinas de monitoramento

ambiental. Porém, a obtenção de recursos financeiros para lidar com uma variedade crescente

de atividades relacionadas ao manejo de seus recursos ambientais, geralmente é insuficiente

(WATSON et al., 2014), afetando seriamente a eficácia dos resultados finais dos projetos

(JUFFE-BIGNOLI et al., 2014).

As áreas protegidas sujeitas a acordos internacionais e nacionais devem resolver suas

responsabilidades adquiridas para manter seu status legal (GONÇALVES et al., 2016), ou

seja, os projetos de conservação desses espaços devem ser efetivos e perenes. Existe uma

demanda por iniciativas econômicas, versáteis e práticas para atender uma disparidade de

requisitos para garantir a conservação, incluindo uma ampla gama de soluções

(LOPOUKHINE et al., 2012), avanços tecnológicos e métodos ou aplicações inovadoras de

tecnologias existentes (LÓPEZ; MULERO-PÁZMÁNY, 2019).

Na última década, as aeronaves remotamente pilotadas (RPAs) também conhecidas

popularmente como drones, têm sido objeto de um crescente interesse na esfera civil e

científica, sendo consideradas uma tecnologia disruptiva dentro do sensoriamento remoto

(MELESSE et al., 2007; LÓPEZ; MULERO-PÁZMÁNY, 2019), inclusive para os estudos

ambientais (WHITEHEAD; HUGENHOLTZ, 2014).

Os drones representam uma estratégia com relativo baixo risco de acidentes e reduzido

custo financeiro, para observar de forma rápida e sistemática os fenômenos naturais em alta

resolução espaço-temporal (RODRÍGUEZ et al., 2012; LÓPEZ; MULERO-PÁZMÁNY,

2019). Por estas razões, os drones se tornaram recentemente uma grande tendência nas

pesquisas sobre a vida selvagem (LINCHANT et al., 2015; CHRISTIE et al., 2016) e no

manejo ambiental (MULERO-PÁZMÁNY et al., 2014; CHABO; BIRD, 2015).

Considerando a ampla gama de possibilidades, não é de surpreender que algumas áreas

protegidas estejam adotando drones para várias aplicações. Por exemplo, no monitoramento

de espécies de plantas invasoras (MICHEZ et al., 2016; DVORÁK et al., 2015; HUNG et al.,

2014; WAN et al., 2014; KNOTH et al., 2013; PEÑA et al., 2013; ZAMAN et al., 2011); para

documentar a extração ilegal de madeira e mineração (KOH; WICH, 2012); nos métodos de

60

classificação através da altura do dossel (MATESE et al., 2017; STROPPIANA et al., 2018;

ZILIANI et al., 2018; VILJANEN et al., 2018; DE SÁ et al., 2018; MARTIN et al., 2018),

inclusive para identificar espécies de interesse por meio de imagens suborbitais.

Recentemente, uma equipe de cientistas descobriu um hotspot de biodiversidade usando

drones (LÓPEZ; MULERO-PÁZMÁNY, 2019), o que poderia ser discutido como um

procedimento conveniente para expandir adequadamente as áreas protegidas, conforme

estabelecido pelo Aichi Target 11 (JUFFE-BIGNOLI et al., 2014).

Estamos testemunhando um desenvolvimento contínuo de drones sofisticados e

métodos engenhosos que visam ações específicas de conservação, como o combate a

incêndios florestais (KRULL et al., 2012; MERINO et al., 2012; ZHANG et al., 2015) e o

plantio de sementes para reflorestamento (FORTES, 2017). O ritmo acelerado dos avanços

tecnológicos e das novas aplicações provavelmente excedeu as expectativas anteriores, mas

também dá origem a circunstâncias singulares que devem ser colocadas no contexto da

administração (LÓPEZ; MULERO-PÁZMÁNY, 2019).

O objetivo deste capítulo é comparar a diferença dos resultados do modelo

CHIS+GPS/GLONASS do capítulo 1, sem a correção do mosaico de imagens realizada com

sistema de posicionamente global de precisão centimétrica, com os resultados do modelo

CHIS corrigido com pontos de controle obtidos com RTK (Real-time Kinematic). Com essa

comparação pretende-se responder a seguinte pergunta: diante dos resultados expostos é

necessário o uso de RTK para uma identificação mais assertiva de gramíneas invasoras em

área de cerrado, a partir do processamento de imagens aéreas de alta resolução espacial?

Os principais objetivos são: i) estratificar no modelo CHIS faixas de altura em relação

ao solo, que indique a localização de manchas de gramíneas exóticas (Urochloa ssp); ii)

relacionar os resultados do modelo CHIS+GPS/GLONASS com o modelo CHIS+RTK e

fornecer informações de alto nível que demonstrem qual a precisão entre os dois modelos na

identificação de espécies invasoras.

61

4.2 METODOLOGIA

4.2.1 Descrição da área de estudo

A área de estudo localiza-se na Universidade Federal de Rondonópolis (Figura 44), em

Rondonópolis, Mato Grosso, Brasil. O local estudado apresenta elementos de vegetação

remanescente de Cerrado stricto sensu, trechos com solo exposto e ambientes com presença

de espécies exóticas e invasoras, predominantemente a espécie Urochloa ssp. A área estudada

abrangeu três hectares. A característica climática local é definida como CWA (clima

subtropical úmido) com média anual em precipitação de 1500 mm e na temperatura de 25°C

(SOUZA et al., 2013; PEEL et al., 2007).

Figura 44. Localização geral da área de estudo. Em a) sítio experimental com o ortomosaico de imagens obtidas

pelo RPA. Sistema de Coordenadas UTM, SIRGAS 2000, 21S.

62

Informações como classe de solo, clima, temperatura e a precipitação média anual, longitude

e latitude, bioma e altitude do local de estudo são apresentados na Tabela 12.

Tabela 12. Dados de latitude, longitude, tipo de solo, precipitação e temperatura média anual, clima e altitude da

área de estudo.

Fonte: Dados de temperatura e precipitação (SOUZA et al., 2013); dados de clima (PEEL et al., 2007);

dados de solo (EMBRAPA, 2006). Legenda: CWA (Clima Subtropical Úmido).

4.2.2 Aquisição dos dados em campo

Para a aquisição das imagens foi realizado o plano de voo executado pela plataforma

DroneDeploy, disponível em: https://support.dronedeploy.com/lang-pt-BR, no dia 2 de

fevereiro de 2019, usando a RPA Phantom 4 Pro da DJI montada com uma câmera regular

RGB, sensor de 20 megapixels (MP).

Coletaram-se dados de referência compostos por pontos e medidas, rotulados como

Urochloa ssp. A coleta dos pontos foi realizada a partir de um receptor GPS Garmin 76CSx.

Ao todo foram coletados 18 pontos de referência em campo, os quais estavam associados a

medidas da altura das espécies invasoras, medidas essas mensuradas por meio de trena

métrica.

4.2.3 Coleta de pontos de controle com RTK

Foram coletados sete pontos de controle no solo (GCPs, Ground Control Points). Esses

pontos foram materializados por meio de placas de plástico quadradas brancas de 0,4 m,

colocadas na área de estudo para garantir a correção da acurácia posicional das coordenadas

centrais de fotografia obtida pelo sistema de geolocalização do drone. Normalmente essas

coordenadas possuem erro posicional que pode variar de cinco a dez metros, nos eixos X

(longitude), Y (latitude) e Z (altitude). Os GCPs foram georreferenciados com sistema RTK

da marca Topcon Hiper V, que possui precisão média nos eixos XYZ de ±0,005 m. Na etapa

de elaboração do mosaico de fotos, os GCPs foram utilizados para ajustar o erro de

posicionamento das imagens, a partir da técnica de pós-processamento de acurácia posicional

PPK (Post Processed Kinematic). Os pontos de referência (GCPs) foram inseridos nas

Precipitação Temperatura

Cerrado 293 m 16°27'40'' 54°34'52'' CwaLatossolo Vermelho

Distrófico1500 mm 25°C

Média AnualBioma Altitude Latitude Longitude Classe de SoloClima

63

imagens manualmente no software Agisoft Photoscan Profissional (version 1.4.0, Agisoft, St.

Petersburg, Russia).

4.2.4 Processamento dos dados

4.2.4.1 Imagens

Todos os dados da RPA foram pré-processados e entregues usando o Structure from

Motion (SfM) disponível no Agisoft Photoscan. Além de disponibilizar as ortofotografias da

área de estudo com 3 bandas (RGB), os subprodutos SfM do Modelo Digital da Superfície

(MDS) e Modelo Digital do Terreno (MDT) também foram elaborados. O MDT foi obtido

por métodos de classificação semi-supervisionados da nuvem densificada de pontos. O

modelo de altura do dossel (CHM) foi obtido a partir da subtração do MDT e MDS no

software R (R CORE TEAM, 2019) com o pacote raster (HIJMANS, 2017).

4.2.4.2 Espécies invasoras (CHIS)

Para calcular o modelo de altura de dossel das espécies invasoras foi necessário

selecionar no modelo CHM, a altura estabelecida para as espécies invasoras, sendo nesse caso

definidos os valores mínimos de 49 cm e valores máximos de 110 cm para Urochloa ssp.

conforme dados levantados em campo. Entretanto, optou-se em definir valores diferentes aos

observados em campo, para mais e para menos, de modo a considerar as possíveis diferenças

no modelo (erros). Desta maneira, foi informado ao programa para selecionar valores que

compreendessem desde 20 cm até 140 cm. Os procedimentos foram realizados no software R

(R CORE TEAM, 2019) com os pacotes: (i) processamento dos dados pacote raster

(HIJMANS, 2017), rgdal (BIVAND, 2018); (ii) plotagem dos resultados pacote lattice

(DEEPAYAN, 2008), rasterVis (LAMIGUEIRO; HIJMANS, 2018), gridExtra (AUGUIE,

2017), RColorBrewer (NEUWIRTH, 2014).

4.2.5 Validação

4.2.5.1 Comparação visual dos resultados

Optou-se por fazer a comparação dos resultados a partir de duas áreas amostrais (Figura

45), apenas locais onde há presença de plantas invasoras e vegetação remanescente

confirmadas nos trabalhos de campo.

64

Figura 45. Localização das áreas amostrais usadas para comparação dos resultados de ambos modelos

(CHIS+GPS/GLONASS e CHIS+RTK).

4.2.5.2 Análise estatística

Para validar a precisão do modelo CHIS+GPS/GLONASS comparado ao modelo

CHIS+RTK, foi necessário selecionar 1000 pontos amostrais de cada uma das áreas a partir

de uma grade de pixels (Figura 46), gerada a partir do software R. Nele é informado o a

quantidade de números que deve ser recolhido num determinado dado raster, sendo que cada

ponto da grade representa uma média dos valores de pixels correspondente ao raster

analisado. Os valores das médias dos pontos recolhidos foram lançados num arquivo data

frame e posteriormente realizada a exclusão dos pontos onde havia ausência de informação,

pois em alguns locais da grade não havia presença de informação conforme pode ser

verificado na Figura 46.

65

Figura 46. Exemplo da grade gerada para recolher 1000 pontos amostrais. Cada quadrado da grade equivale a

um ponto amostral. Em (a) área amostral 1 com GPS/GLONASS e em (b) área amostral 1 com RTK.

Para calcular a precisão do modelo CHIS+GPS/GLONASS comparado ao modelo

CHIS+RTK foram realizados testes estatísticos, tais como: coeficientes de correlação de

Spearman (SCC), erro quadrático médio da raiz da altura de dossel (RMSEZ), erro absoluto

médio da altura de dossel (MAEZ) e teste de Wilcoxon.

O coeficiente de correlação de Spearman é um teste de classificação não paramétrico

(livre de distribuição) proposto como uma medida da força da associação entre duas variáveis.

É uma medida de uma associação monótona que é usada quando a distribuição de dados torna

o coeficiente de correlação de Pearson indesejável ou enganoso (HAUKE; KOSSOWSKI,

2011).

A relação (ou correlação) entre as duas variáveis é denotada pela letra r e quantificada

com um número que varia entre -1 e +1. Zero significa que não há correlação, onde 1 (um)

significa uma correlação completa ou perfeita. O sinal do r mostra a direção da correlação.

Um r negativo significa que as variáveis estão inversamente relacionadas. A força da

correlação aumenta de 0 para +1 e de 0 para -1 (AKOGLU, 2018). A interpretação da força da

correlação está representada na Tabela 13.

66

Tabela 13. Interpretação do coeficientes de correlação de Spearman segundo Akoglu (2018) e Fowler (2009).

O RMSE tem sido usado como uma métrica estatística para medir o desempenho do

modelo em meteorologia, qualidade do ar e estudos de clima. O MAE é outra medida útil

amplamente utilizada em avaliações de modelos. Embora ambos tenham sido usados para

avaliar o desempenho do modelo por muitos anos, não há consenso sobre a métrica mais

apropriada para erros de modelo. No campo das geociências, muitos apresentam o RMSE

como uma métrica padrão para erros de modelo (MCKEEN et al., 2005; SAVAGE et al.,

2013; CHAI et al., 2013), enquanto outros optam por evitar RMSE e apresentam apenas o

MAE (CHAI; DRAXLER, 2014). Neste estudo optou-se por escolher os dois testes como

medida métrica para fornecer dados de erros na distribuição dos valores atribuídos.

O teste de Wilcoxon é uma hipótese estatística não paramétrica usada para comparar

duas amostras relacionadas, amostras pareadas ou medições repetidas em uma única amostra

para avaliar se suas classificações médias populacionais diferem. Ele pode ser usado como

uma alternativa para o teste t de estudantes emparelhados, teste t para pares combinados ou o

teste t para amostras dependentes quando a população não pode ser considerada como sendo

normalmente distribuída. É um teste não paramétrico que pode ser usado para determinar se

duas amostras dependentes foram selecionadas de populações com a mesma distribuição

(KLOBE; MCKEAN, 2014).

Todos os procedimentos descritos nos parágrafos acima foram realizados usando o

software R 3.6.1. Pacotes usados para: (i) extração dos dados para análise estatística, pacotes

raster (HIJMANS; 2017), rgdal (BIVAND et al., 2018) e dplyr (WICKHAM et al., 2019); (ii)

testes estatísticos, pacotes HydroGOF (ZAMBRANO-BIGIARINI, 2017), e stats (R CORE

TEAM, 2019); (iii) plot dos gráficos, pacote ggpubr (KASSAMBARA, 2019), e hexbin

(CARR, 2019).

00

Perfeita

Forte

Moderada

Fraca

Nenhuma

+ 1 - 1

- 0,70 a - 0,90+ 0,70 a + 0,90

- 0,40 a - 0,60+ 0,40 a + 0,60

+ 0,10 a + 0,30 - 0,10 a - 0,30

Coeficiente de de Correlação Força de correlação

67

4.3 RESULTADOS

4.3.1 Avaliação da precisão do modelo CHIS+GPS/GLONASS em relação ao modelo

CHIS+RTK

A observação visual do mosaico de imagens permite identificar diferenças entre os dois

modelos, principalmente quando se compara a parte inferior esquerda e a parte superior das

figuras. De modo geral, percebe-se que houve diferença na espacialização e interpretação das

alturas das espécies invasoras nos modelos analisados.

A Figura 47 apresenta os modelos das alturas do dossel das espécies invasoras da área

amostral 1 gerados neste trabalho. Na Figura 47a (esquerda), tem-se o modelo

CHIS+GPS/GLONASS e na Figura 47b, o modelo CHIS+RTK. A partir de interpretação

visual, verificam-se diferenças relacionadas à altura, comparando as Figuras 47a e 47b.

principalmente na parte inferior esquerda da Figura 47a e na parte superior da Figura 47a.

Percebe-se na Figura 47b (CHIS+RTK) que houve diferença na espacialização e intepretação

das alturas das espécies invasoras comparado à Figura 47a.

Figura 47. Comparação entre os modelos CHIS+GPS/GLONASS (a), e CHIS+RTK (b) na área amostral 1.

68

As regiões apresentadas na Figura 48 foram os locais onde ocorreram diferenças visuais

mais pronunciadas nas alturas do dossel das espécies invasoras, ocorrendo também em alguns

lugares ausência de informação (provavelmente valores abaixo de 20 cm) no modelo

CHIS+GPS/GLONASS (Figura 48a e Figura 48c) comparado ao modelo CHIS+RTK (Figura

48b e Figura 48d).

Figura 48. Em (a) e (b) recorte da parte superior da Figura 48 (e); (a) representa o modelo

CHIS+GPS/GLONASS e (b) representa modelo CHIS+RTK. Em (c) e (d) recorte da parte inferior da Figura 48

(e) (modelo CHIS+GPS/GLONASS); (c) representa o modelo CHIS+GPS/GLONASS e (d) representa modelo

CHIS+RTK.

A Figura 48a representa a parte superior da Figura 48e (modelo

CHIS+GPS/GLONASS). Nessa região verificou-se falhas no modelo, para adequada

identificação de espécies invasoras quando comparada com a Figura 48b (CHIS+RTK). Essa

69

ausência de informação pode estar relacionada à precisão do modelo CHIS+RTK, uma vez

que a altura registrada nessa região foi de valores muito baixos (entre 20 cm a 40 cm),

necessitando de maior precisão para identificar vegetação de menor porte.

Também foi notável a diferença entre as Figuras 48c e 48d. Na Figura 48c houve maior

hetereogenidade nas alturas comparado com a Figura 48d, na qual as alturas estão mais

homogêneas. Na parte esquerda da Figura 48c há presença de valores baixos (20 cm a 40 cm),

sendo que esta escala de altura só esteve presente nas bordas (corredor entre os dois

fragmentos de vegeteção) e na parte inferior direita (região com presença de herbáceas) da

Figura 48d.

O modelo CHIS+RTK foi mais sensível na identificação de espécies de pequeno porte

(até 40 cm) quando comparado ao modelo avaliado (CHIS+GPS/GLONASS). O uso do

modelo CHIS+RTK é essencial como produto para tomada de decisão no manejo agrícola,

quando for necessário avaliar áreas com presença de plantas invasoras de porte graminóide,

conhecidas na área agrícola como plantas daninhas, que geralmente possuem porte baixo. Já

com o modelo CHIS+GPS/GLONASS isso talvez não seria possível, uma vez que os erros de

altura são mais variáveis.

A área amostral 2 apresentou mais claramente a diferença entre os dois modelos (Figura

49).

Figura 49. Comparação entre os modelos CHIS+GPS/GLONASS (a) e CHIS+RTK (b) na área amostral 2.

70

Assim como na área amostral 1, constata-se na Figura 49a diferenças de classificação do

modelo, ou seja, ausência de informação de altura do dossel das espécies invasoras em

algumas regiões da figura quando comparado à Figura 49b. Na Figura 49b a distribuição das

alturas está mais coerente com as informações levantadas em campo, conforme pode ser

verificado nos pontos de controle presentes nas figuras.

A Figura 50 ilustra a área na qual ocorreu grande diferença nas alturas do dossel das

espécies invasoras. Conforme verifica-se na Figura 50a, existe ausência de informação da

altura numa região onde os valores são muito baixos (20 cm a 30 cm), comparando-se com a

Figura 50b. Como são valores muito baixos, é de se esperar que ocorrerá imprecisão a partir

do modelo CHIS+GPS/GLONASS. Além da ausência, pode-se também ser analisado que os

valores de altura do dossel não são semelhantes à Figura 50b, na qual as alturas estão mais

bem distribuídas e coerentes com os dados coletados em campo (Figura 50b).

Figura 50. Em (a) e (b) recorte da parte inferior central da Figura 50 (c); (a) representa o modelo

CHIS+GPS/GLONASS e (b) representa modelo CHIS+RTK.

4.3.2 Resultados da análise estatística

A classificação de correlação de Spearman entre o modelo estimado

(CHIS+GPS/GLONASS) e o observado (CHIS+RTK) para as duas áreas amostrais está

apresentada na Figura 51.

71

Figura 51. Correlação de Spearman entre os modelos CHIS+GPS/GLONASS e CHIS+RTK. Em (a) área

amostral 1 e em (b) área amostral 2. Em (a) foram analisados 684 pontos e em (b) foram analisados 506 pontos.

A diferença de pontos entre as duas áreas se deve pela ausência de informação (NA) em alguns locais da área.

Os dados mostram uma força de correlação mediana e significativa para a área amostral

1 (r = 0,56, p < 0,001) e para a área amostral 2 (r = 0,55, p < 0,001). A correlação foi

significativa, porém moderada. Isso se deve por conta da precisão do processo de medição de

dossel a partir da calibração com o RTK (modelo CHIS+RTK). Esse modelo é mais preciso

em todos os eixos espaciais com baixa margem de erro. Os dados de medidas a partir do

GPS/GLONASS da RPA foram calculados com maior imprecisão em todos os eixos espaciais

(Tabela 14) ao calcular a nuvem densa de pontos no PhotoScan, o que pode explicar algumas

diferenças nos modelos comparados.

Tabela 14. Erro nos eixos espaciais a partir dos dados do GPS/GLONASS e dos dados a partir do RTK.

PPK Erro X

(cm)

Erro Y

(cm)

Erro Z

(cm)

Erro XY

(cm) Erro Total (cm)

GNSS+GPS/GLONASS 169 79 75 186 201

RTK 4,86 4,82 0,57 6,85 6,87

Fonte: Relatório de erros gerado no software Agisoft PhotoScan 1.4.0.

Os testes estatísticos não paramétricos de erros no modelo avaliado (MAEZ e RMSEZ) e

o teste de Wilcoxon para ambas as áreas amostrais estão representados na Tabela 15.

72

Tabela 15. Testes estatísticos entre a variável estimada (CHIS+GPS/GLONASS) e a variável observada

(CHIS+RTK).

A Tabela 15 apresenta os valores de RMSEZ e MAEZ entre os dados observados (RTK)

e os dados estimados (GPS/GLONASS) para cada uma das áreas amostrais. A área amostral 1

foi a que apresentou métrica com menor erro, com 0,12 cm de erro para MAEZ, e 0,17 cm de

erro para RMSEZ, enquanto a área amostral 2 apresentou maior erro, variando de 0,19 cm

para MAEZ a 0,24 para RMSEZ. As estimativas da RPA a partir do GPS/GLONASS

(CHIS+GPS/GLONASS) apresentaram maiores erros na precisão da altitude do dossel das

espécies invasoras na área amostral 2. Esse maior erro se deve pelo fato de que nessa área

ocorreu maior número de áreas com ausência de informações em locais onde havia presença

de espécies invasoras (50a).

Considerando as duas áreas amostrais, os resultados dos testes de diferença significativa

entre amostras relacionadas foram significativas. No teste de Wilcoxon, considerando que os

resultados para ambas as amostras resultaram a um nível de significancia inferiror a α = 0.05.

É possível concluir que as distribuições das alturas das espécies invasoras são diferentes

entre as duas áreas amostrais estudadas. Isso pode ser facilmente verificado nas Figuras 48 e

50, onde é possível notar que há uma diferença visual na distribuição das alturas das espécies

invasoras nos dois modelos analisados para ambas áreas amostrais, e esse fenômeno se deve à

precisão dos modelos comparados. Pode ser constatada na Figura 52 a presença de espécies

invasoras para ambas as áreas amostrais, locais nos quais foram recolhidos os pontos das

medidas de altura da Urochloa spp. encontrada no local e fotografado os pontos de coleta.

Área Amostral RMSEZ (cm) MAEZ (cm) Wilcoxon

1 0,17 0,12 0,0117

2 0,24 0,19 p < 0,001

73

Figura 52. Em (a) área amostal 1 com presença de Urochloa spp. Em (b) área amostral 2 com presença de

Urochloa spp. misturada com fragmentos de vegetação.

4.4 DISCUSSÃO

Em relação ao objetivo desta pesquisa, analisar a precisão do modelo

CHIS+GPS/GLONASS de um padrão de altitude do dossel de espécies invasoras e sua

distribuição, foi verificado um comportamento diferente nas duas áreas amostrais de teste. Na

área amostral 1, a variação de altura do dossel das gramíneas exóticas foi reduzida em ambos

os modelos. A principal razão para isso é provavelmente que a área amostral 1 apresenta

topografia mais homogênea que a área amostral 2. Além do mais, foi observada no campo a

presença de espécies invasoras em ambas as áreas amostrais, as quais apresentaram presença

de espécies invasoras no modelo de referência (CHIS+RTK) e em algumas partes da área

amostral 1 e mais evidentemente da área amostral 2, ocorreu ausência de espécies invasoras

no modelo estimado (CHIS+GPS/GLONASS).

O erro de acurácia do modelo nos eixos XYZ é menor quando utilizado o modelo

CHIS+RTK. A área amostral 2 apresentou padrão diferente na precisão do modelo

CHIS+GPS/GLONASS no componente Z (altura) provavelmente devido às diferenças

naturais de elevação do terreno.

O método CHIS+GPS/GLONASS é menos preciso que o modelo CHIS+RTK

apresentando um deslocamento sistemático devido às fontes de erro combinadas do

deslocamento dos eixos XYZ, alinhado à falta de qualquer ponto de referência de fundo

(RTK).

74

O modelo CHIS+GPS/GLONASS com diferença máxima observada no teste de média

de erros (RMSEz) foi de 24 cm, é inadequado para trabalhos pelos quais exige maior acurácia

posicional, como a agricultura de precisão, por exemplo.

O custo econômico, o tempo investido e as exigências de cada modelo são diferentes e

podem servir a vários propósitos de detecção remota. Destaca-se que, mesmo que a operação

em campo seja apenas com o GPS/GLONASS, podem assim ser reamostradas para um

tamanho de pixel mais grosseiro para absorver a incerteza geométrica, que é tipicamente o

erro radial, ou seja, isso permitiria usar o modelo para análises numa escala de análise mais

grosseira, como por exemplo, para determinar variações médias de altura de dossel em

hectares, mas não em metros quadrados.

De todas essas descobertas, foi possível extrair alguns resultados importantes para na

prática usar o modelo CHIS+GPS/GLONASS. Em primeiro lugar, se o terreno não mostrar

muita ondulação, o modelo CHIS+GPS/GLONASS torna-se viável, pelo menos em parte,

como por exemplo, quando o levantamento de dossel não exija alturas mínimas como aquelas

usadas nesse estudo. A inclusão de observações de posição de imagem baseada em RTK no

fluxo de trabalho de processamento de RPA acabou por ter um efeito positivo, em particular

no componente de altura.

A rotina de correção geométrica do mosaico de imagens com RTK apresenta maior

custo operacional, pois exige técnico especializado para operar o equipamento (base e rover),

e o custo de aquisição de um RTK é elevado. Por exemplo, o custo médio num levantamento

com GPS/GLONASS tendo apenas uma RPA convencional é em média R$6.000,00. Apenas

o equipamento RTK convencional custa em torno de R$80.000,00, e uma RPA equipada com

RTK em torno de R$45.000,00.

No futuro, espera-se que as todas as RPA no mercado estejam equipadas com

hardwares de tageamento (geolocalização) das imagem da RPA, que possam corrigir em

escala centimétrica os erros de posicionamento das fotografias aéreas. Espera-se também que

áreas como a Ecologia da Restauração e a Restauração Ecológica incorpore em suas rotinas

de pesquisa e trabalho dados multitemporais com alta resolução espacial, temporal e de

acurácia posicional, para o monitoramento de vegetação em recuperação. Porém, mesmo que

distorções posicionais dos dados, essas atividades ainda sim, tem acesso a dados robustos para

estudos em ecossistemas degradados (PÁDRO et al., 2019).

75

Em algumas áreas, como na agricultura, o levantamento do dossel de plantas daninhas,

muito comum na agricultura, a partir do GPS/GLONASS da RPA pode não ser possível, pois

o porte desse tipo de vegetação é muito pequeno, e o georreferenciamento preciso é

indispensável. Uma sugestão para melhorar a precisão de levantamentos como desse estudo,

incluiria a integração de um dispositivo RTK-GPS/GLONASS como o Trimble BD 935, em

uma plataforma de asa rotativa, potencialmente montada diretamente no gimbal, ou mesmo na

câmera. Se fosse possível também aproximar a atitude do eixo óptico, além de uma posição

precisa, pode-se esperar pelo menos uma orientação mais rápida e eficiente da câmera.

Alsadik et al. (2013) já mostraram que o conhecimento dos locais aproximados da câmera e

da direção de visualização, que pode diminuir o tempo de processamento tremendamente e, ao

mesmo tempo, aumentar a confiabilidade geral (GERKE et al., 2016).

De todos os pontos analisados em ambas as áreas amostrais (18 pontos), 14 pontos

(78%) apresentaram valores diferentes da realidade no modelo CHIS+GPS/GLONASS.

Todos eles estiveram com valores mais baixos do que a real altura daqueles pontos de coleta.

Esse número é significativo e mostra que mesmo que o modelo CHIS+GPS/GLONASS seja

promissor, ainda há imprecisão quando os valores são de centímetros. Considerando que a

margem de erro máximo foi de 24 cm, as alturas dos pontos variaram entre 25 cm a 30 cm

para menos.

4.5 CONSIDERAÇÕES FINAIS

Neste trabalho foi testada a precisão do modelo CHIS+GPS/GLONASS e demonstrado

que os dados espaciais de altura (z) foram relativamente precisos quando comparados aos

dados obtidos por meio de abordagens de referência padrão (CHIS+RTK). Fatores adicionais

podem ter uma influência supostamente significativa na precisão, como as diferenças de

altitude do terreno. Mais especificamente, foi investigado neste estudo o impacto do

levantamento de espécies invasoras sem a estação de controle convencional RTK/PPK. Os

resultados a partir do RTK/PPK são mais precisos e menos propensos a erros.

Quando a abordagem é realizar um levantamento da altura de plantas ordem dos

centímetros, por exemplo, ervas daninhas na agricultura, recomenda-se que o levantamento

seja a partir do RTK/PPK. A técnica do levantamento da altura de dossel é interessante para

medir indicadores de recuperação de áreas vegetadas e projetos de recomposição de Áreas

76

Degradas e Alteradas (PRADA). Aumentar o número de GCPs (Ground Points Control)

provavelmente levaria a aumentos na precisão, mas tal abordagem é mais viável quando a

exigência de trabalhos seja de precisão mínimas. Nas duas áreas amostrais, os RMSEs e

MAEs horizontais (z) do método CHIS+GPS/GLONASS não excederam os 30 cm,

demostrando uma relativa precisão. Os resultados sugerem que o método

CHIS+GPS/GLONASS pode fornecer dados com precisão satisfatória em comparação com as

abordagens GCP, independentemente das medições terrestres, para aplicações que não exigem

acurácia posicional centimétrica.

Esse modelo pode ser estratégico para a detecção remota de áreas florestais inacessíveis

e perigosas que não exigem alta precisão espacial, possibilitando mensurar a variação de

dossel e presença de clareiras, ou seja, aspectos ecológicos do ecossistema. Se a questão

principal era saber se o método CHIS+GPS/GLONASS pode ser a melhor solução em termos

econômicos, flexibilidade e tempo para mapear áreas de difícil acesso e que não exigem alta

precisão, a resposta poderia ser: sim. Entretanto, além de testes adicionais de ambigüidades de

exatidão, também os parâmetros técnicos da RPA (tempo de vôo máximo, operação

autônoma, etc.) devem ser ajustados para obter todos os benefícios dessas possibilidades.

O método aqui analisado pode ser útil quando se trata de preparar inventários para áreas

com vegetação nativa degradada, que são geralmente feitos manualmente e ocularmente pelo

homem, e também é um meio de monitorá-las em intervalos definidos, buscando identificar a

presença de espécies que inibem o desenvolvimento e crescimento de áreas em recuperação

ambiental. A tecnologia de RPA é altamente rentável, flexível e móvel, além do

processamento fotogramétrico totalmente automatizado, pode ser implantado com baixíssimo

para uso operacional.

77

5 REFERÊNCIAS

ASRAR, G.; FUCHS, M.; KANEMASU, E. T.; HATFIELD, J. L. Estimating absorbed

photosynthetic radiation and leaf area index from spectral reflectance in wheat. Agron.

Journal, v.76, p. 300-306, 1984.

ALEXANDRIDIS, T. K.; TAMOURIDOU, A. A.; PANTAZI, X. E.; LAGOPODI, A. L.;

KASHEFI, J.; OVAKOGLOU, G.; POLYCHRONOS, V.; MOSHOU, D. Novelty Detection

Classifiers in Weed Mapping: Silybum marianum Detection on UAV Multispectral Images.

Sensors, v.17, n.9, p. 2007, 2017.

AKOGLU, H. User's guide to correlation coefficients. Turkish Journal of Emergency

Medicine, v.18, p. 91-93, 2018. DOI: 10.1016/j.tjem.2018.08.001

ADÃO, T.; HRUSKA, J.; PÁDUA, L.; BESSA, J.; PERES, E.; MORAIS, R.; SOUZA, J. J.

Hyperspectral Imaging: A Review on UAV-Based Sensors, Data Processing and Applications

for Agriculture and Forestry. Remote Sensing, v.9, n.1110, p. 1-31, 2017.

AGISOFT PHOTOSCAN PROFESSIONAL (Version 1.4.0) (Software). (2017). Retrieved

from http://www.agisoft.com/downloads/installer/

ALBORNOZ, C.; GIRALDO, L.F. Trajectory design for efficient for crop irrigation with a

UAV. In: Proceedings of the Colombian Conference on Automatic Control (CCAC),

Cartagena, Colombia, 2017, p. 1-6.

ALVAREZ-TABOADA, F.; PAREDES, C.; JULIÁN-PELAZ, J. Mapping of the Invasive

Species Hakea sericea Using Unmanned Aerial Vehicle (UAV) and WorldView-2 Imagery

and an Object-Oriented Approach. Remote Sens., v.9, p. 913, 2017.

ARROYO, J. A.; GOMEZ-CASTANEDA, C.; RUIZ, E.; DE COTE, E. M.; GAVI, F.;

SUCAR, L. E. Assessing nitrogen nutrition in corn crops with airborne multispectral sensors.

In: Proceedings of the International Conference on Industrial, Engineering and Other

Applications of Applied Intelligent Systems (IEA/AIE), Arras: France, 2017. p. 259-267.

ASUERO, A. G.; SAYAGO, A.; GONZÁLEZ, A. G. The Correlation Coefficient: An

Overview. Critical Reviews in Analytical Chemistry, v.36, p. 41–59, 2006.

ALSALAM, B. H. Y.; MORTON, K.; CAMPBELL, D.; GONZALEZ, F. Autonomous UAV

with vision based on-board decision making for remote sensing and precision agriculture. In:

IEEE Aeropace Conference, 2017, Big Sky. Anais... Big Sky: Montana, 2017. p. 1–12.

ALLRED, B.; EASH, N.; FREELAND, R.; MARTINEZ, L.; WISHART, D. Effective and

efficient agricultural drainage pipe mapping with uas thermal infrared imagery: A case study.

Agric. Water Manag., v.197, p. 132-137, 2018.

ALKAABI, K.; ABUELGASIM, A. Applications of Unmanned Aerial Vehicle (UAV)

Technology for Research and Education in UAE. International Journal of Social Sciences

Arts and Humanities, v.5, n.1, p. 4-11, 2017.

78

ANDERSON, K.; GASTON, K. J. Lightweight unmanned aerial vehicles will revolutionize

spatial ecology. Frontiers in Ecology and the Environment, v.11, n.3, p. 138-146, 2013.

ATZBERGER, C. Advances in Remote Sensing of Agriculture: Context Description, Existing

Operational Monitoring Systems and Major Information Needs. Remote Sensing, v.5, n.8, p.

949-981, 2013.

BAENA, S.; MOAT, J.; WHALEY, O.; BOYD, D. S. Identifying species from the air: UAVs

and the very high resolution challenge for plant conservation. PLoS ONE, v.12, p. e0188714,

2017.

BARUCH, Z.; LUDLOW, M.M.; DAVIS, R. Photosynthetic responses of native introduced

C4 grasses from Venezuela savannas. Oecologia, v.67, p. 388-393, 1985.

BENDIG, J.; YU, K.; AASEN, H.; BOLTEN, A.; BENNERTZ, S.; BROSCHEIT, J.; Gnyp,

M. L.; Bareth, G. Combining uav-based plant height from crop surface models, visible, and

near infrared vegetation indices for biomass monitoring in barley. Int. J. Appl. Earth Obs.,

v.39, 79-87, 2015.

BARET, E.; GUYOT, G. Potentials and limits of vegetation indices for LAI and APAR

assessment. Remote Sensing of Environment, v.35, p. 161-173, 1991.

BANNARI, A.; MORIN, D.; BONN, F. A Review of Vegetation Indices. Remote Sensing

Reviews, v.13, p. 95-120, 1995.

BASSO, B.; CAMMARANO, D.; DE VITA, P. REMOTELY SENSED VEGETATION

INDICES: THEORY AND APPLICATIONS FOR CROP MANAGEMENT. Rivista

Italiana di Agrometeorologia, v.1, p. 36-53, 2004.

BERNI, J. A. J.; ZARCO-TEJADA, P. J.; SUAREZ, L.; FERERES, E. Thermal and

narrowband multispectral remote sensing for vegetation monitoring from an unmanned aerial

vehicle. IEEE Transactions on Geoscience and Remote Sensing, v.47, n.3, p. 722-738,

2009.

BAROTT, K.; SMITH, J.; DINSDALE, E.; HATAY, M.; SANDIN, S.; ROHWER, F.

Hyperspectral and physiological analyses of coralalgal interactions. PLoS ONE, v.4, n.11, p.

e8043, 2009.

BARALDI, A.; BLONDA, P.; PARMIGGIANI, F.; SATALINO, G. Contextual clustering for

image segmentation. Optical Engineering, v.39, p. 1-17, 2000.

BALL, G.; HALL, D. A clustering technique for summarizing multivariate data. Behavior

Science, v.12, p. 153-155, 1967.

AUGUIE, B. (2017). gridExtra: Miscellaneous Functions for "Grid" Graphics. R package

version 2.3. https://CRAN.R-project.org/package=gridExtra

79

BARRERO, O.; PERDOMO, S. A. RGB and multispectral UAV image fusion for Gramineae

weed detection in rice fields. Precision Agric., v. 19, p. 809–822, 2018.

BACHAR, A.; POLERECKY, L.; FISCHER, J. P.; VAMVAKOPOULOS, K.; BEER, D. D.;

JONKERS, H. M. Two-dimensional mapping of photopigment distribution and activity of

chloroflexus-like bacteria in a hypersaline microbial mat. FEMS Microbiol. Ecol. v.65, n.3,

p. 434-448, 2008.

BINCH, A.; FOX, C. W. Controlled comparison of machine vision algorithms for Rumex and

Urtica detection in grassland. Comput. Electron. Agric., v.140, p. 123-138, 2017.

BIVAND, R.; KEITT, T.; ROWLINGSON, B. (2018). rgdal: Bindings for the 'Geospatial'

Data Abstraction Library. R package version 1.3-4. https://CRAN.R-

project.org/package=rgdal

BORRA-SERRANO, I. PEÑA, J. M.; TORRES-SÁNCHEZ, J.; MESAS-CARRASCOSA, F.

J.; LÓPEZ-GRANADOS, F. Spatial Quality Evaluation of Resampled Unmanned Aerial

Vehicle-Imagery for Weed Mapping. Sensors, v.15, p. 19688-19708, 2015.

BOSSE, M.; NEWMANN, P.; LEONARD, J.; SOIKA, M.; FEITEN, W.; TELLER, S. An

Atlas framework for scalable mapping. In: IEEE International Conference on Robotics and

Automation,Instituteof Electrical Engineers, Piscataway. Anais... Piscataway, USA, 2003.

BARESEL, J. P.; RISCHBECK, P.; HU, Y.; KIPP, S.; HU, Y.; BARMEIER, G.; MISTELE,

B.; SCHMIDHALTER, U. 2017. Use of a digital camera as alternative method for non-de-

structive detection of the leaf chlorophyll content and the nitrogen nutrition status in wheat.

Computers and Electronics in Agriculture, v.140, p. 25-33, 2017.

BAENA, S.; BOYD, D.; MOAT, J. UAVs in pursuit of plant conservation - Real world

experiences. Ecological Informatics, v.47, p. 2-9, 2017.

BRYSON, M.; SUKKARIEH, S. Inertial Sensor-Based Simultaneous Localization and

Mapping for UAVs. In: VALAVANIS, K. P.; VACHTSEVANOS G. J. (Org.). Handbook of

Unmanned Aerial Vehicles. New York: Springer, 2015. p. 401-430.

BORDOGNA, G.; KLIMENT, T.; FRIGERIO, L.; BRIVIO, P. A.; CREMA, A.;

STROPPIANA, D.; BOSCHETTI, M.; STERLACCHINI, S. Spatial Data Infrastructure

Integrating Multisource Heterogeneous Geospatial Data and Time Series: A Study Case in

Agriculture.” ISPRS International Journal of Geo-Information, v.5, n.5, p.1-27, 2016.

DOI: 10.3390/ijgi5050073.

CAMPBELL, J. B. Introduction to Remote Sensing. New York: The Guilford Press, 1987.

551 p.

CARR, D. ported by Nicholas Lewin-Koh, Martin Maechler and contains copies of lattice

functions written by Deepayan Sarkar. 2019. hexbin: Hexagonal Binning Routines. R

package version 1.27.3. https://CRAN.R-project.org/package=hexbin.

80

CARLSON, T. N.; GILLIES, R. R.; PERRY, E. M. A method to make use of thermal infrared

temperature and NDVI measurements to infer surface soil water content and fractional

vegetation cover. Remote Sensing Reviews, v.9, n.1-2, p. 161-173, 1994.

CASTALDI, F.; PELOSI, F.; PASCUCCI, S.; CASA, R. Assessing the potential of images

from unmanned aerial vehicles (UAV) to support herbicide patch spraying in maize. PRECIS

AGRIC. v.18, n.1, p. 76-94, 2017.

DE CASTRO, A. I.; TORRES-SÁNCHEZ, J.; PEÑA, J. M.; JIMÉNEZ-BRENES, F. M.;

CSILLIK, O.; LÓPEZ-GRANADOS, F. An Automatic Random Forest-OBIA Algorithm for

Early Weed Mapping between and within Crop Rows Using UAV Imagery. Remote Sens.,

v.10, p. 285, 2018.

CASELLES, V.; SOBRINO, A.; COLI, C. On the use of satellite termal data for determining

evapotranspiration in partially vegetated areas. International Journal of Remote Sensing,

v.13, n.14, p. 2669-2682, 1992.

CHRISTIE, K.S.; GILBERT, S.L.; BROWN, C.L.; HATFIELD, M.; HANSON, L.

Unmanned aircraft systems in wildlife research: Current and future applications of a

transformative technology. Front. Ecol. Environ., v.14, p. 241–251, 2016.

CHABOT, D.; BIRD, D.M. Wildlife research and management methods in the 21st century:

Where do unmanned aircraft fit in? J. Unmanned Veh. Syst., v.3, p. 137–155, 2015.

CHAI, T.; DRAXLER, R. R. Root mean square error (RMSE) or mean absolute error

(MAE)? – Arguments against avoiding RMSE in the literature. Geosci. Model Dev., v.7, p.

1247-1250, 2014. DOI: 10.5194/gmd-7-1247-2014

CHAI, T.; KIM, H. C.; LEE, P.; TONG, D.; PAN, L.; TANG, Y.; HUANG, J.; MCQUEEN,

J.; TSIDULKO, M.; STAJNER, I. Evaluation of the United States National Air Quality

Forecast Capability experimental real-time predictions in 2010 using Air Quality System

ozone and NO2 measurements, Geosci. Model Dev., v.6, p.1831-1850, 2013.

DOI:10.5194/gmd-6-1831-2013

CRUSIOL, L. G. T., NANNI, M. R.; SILVA, G. F. C.; FURLANETTO, R. H.; SILVA

GUALBERTO, A. A. da S.; GASPAROTTO, A. de C.; PAULA, de M. N. Semi Professional

Digital Camera Calibration Techniques for Vis/NIR Spectral Data Acquisition from an

Unmanned Aerial Vehicle. International Journal of Remote Sensing, v.38, n.8-10, p. 2717-

2736, 2017.

CHRISTIANSEN, M. P.; LAURSEN, M. S.; JORGENSEN, R. N.; SKOVSEN, S.; GISLUM,

R. Designing and testing a UAV mapping system for agricultural field surveying. Sensors,

v.17, n.12, p. 2703, 2017.

COLOMINA, I.; MOLINA, P. Unmanned aerial systems for photogrammetry and remote

sensing: A review. ISPRS Journal of Photogrammetry and Remote Sensing, v.92, p. 79-

97, 2014.

81

COUTINHO, L.M. Aspectos ecológicos da saúvano cerrado - os murundus de terra, as

caracteristicas psamofiticas das espécies de sua vegetação e a sua invasão pelo capim-gordura.

Revista Brasileira de Botânica, v.42, p. 147-153, 1982.

CANDIAGO, S.; REMONDINO, F.; GIGLIO, M.; DUBBINI, M.; GATTELLI, M.

Evaluating multispectral images and vegetation indices for precision farming applications

from UAV images. Remote Sensing, v.7, n.4, p. 4026-4047, 2015.

COLWELL, R. Determining the Prevalence of Certain Cereal Crop Diseases by Means of

Aerial Photography. Hilgardia, v.26, n.5, p. 223-286, 1956.

DAVID, L. C. G.; BALLADO, A. H. J. Vegetation Indices and Textures in Object-based

Weed Detection from UAV imagery. In: 2016 6th IEEE International Conference on Control

System, Computing and Engineering, Penang, Malaysia, 2016. p. 25–27.

DENG, L.; MAO, Z.; LI, X.; HU, Z.; DUAN, F.; YAN, Y. UAV-based multispectral remote

sensing for precision agriculture: A comparison between diferent cameras. ISPRS Journal of

Photogrammetry and Remote Sensing, v.146, p. 124-136, 2018

D'ANTONIO C. M.; VITOUSEK P. M. Biological invasions by exotics grasses, the grass/fire

cycle, and global change. Annual Review of Ecology and Systematics, v.63, p. 63-87, 1992.

DORAISWAMY, P. C.; MOULIN, S.; COOK, P. W.; STERN, A. Crop Yield Assessment

From Remote Sensing. Photogrammetric Engineering & Remote Sensing, v.69, n.6, p.

665-674, 2003.

DVORÁK, P., MULLEROVÁ, J.; BARTALOS, T.; BRUNA, J. Unmanned Aerial Vehicles

For Alien Plant Species Detection And Monitoring. In The International Archieves Of The

Photogrammetry. Remote Sensing and Spatial Information Sciences, v.XL-1/W4, 2015.

DEMOTES-MAINARD, S.; BOUMAZA, R.; MEYER, S.; CEROVIC, Z. G. Indicators of

nitrogen status for ornamental woody plants based on optical measurements of leaf epidermal

polyphenol and chlorophyll contents. Scientia Horticulturae, v.115, n.4, p. 377-385, 2008.

DE SÁ, N. C.; CASTRO, P.; CARVALHO, S.; MARCHANTE, E.; LÓPEZ-NÚNEZ, F. A.;

MARCHANTE, H. Mapping the Flowering of an Invasive Plant Using Unmanned Aerial

Vehicles: Is There Potential for Biocontrol Monitoring?. Frontiers in Plant SciencE, v.9, p.

283, 2018.

DALAMAGKIDIS, K. Definitions and Terminology. In: VALAVANIS, K. P.;

VACHTSEVANOS G. J. (Org.). Handbook of Unmanned Aerial Vehicles. New York:

Springer, 2015. p. 43–55.

DEFENSE WEB AND FORECAST INTERNATIONAL. UAV market to see major

growth in next decade forecast international. 2014. Disponível em:

<http://www.defenceweb.co.za/index.php?option=com_content&vie%20w=article&id=34420

:uav-market-to-see-major-growth-in

82

nextdecade%E2%80%94forecast%20international&catid=35:Aerospace&Itemid=107>.

Acesso em 08 jan. 2019, 07:45:20.

DOERING, D.; BENENMANN, A.; LERM, R.; DE FREITAS, E. P.; MULLER, I.;

WINTER, J. M.; PEREIRA, C. E. Design and optimization of a heterogeneous platform for

multiple uav use in precision agriculture applications. IFAC Proc., v.47, p. 12272-12277,

2014.

DAUGHTRY, C. S. T.; WALTHALL, C. L.; KIM, M. S.; DE COLSTOUN, E. B.;

MCMURTREY, J. E. Estimating Corn Leaf Chlorophyll Concentration from Leaf and

Canopy Reflectance. Remote Sensing of Environment, v.74, n.2, p. 229-239, 2000.

DEEPAYAN, S. (2008) Lattice: Multivariate Data Visualization with R. Springer, New York.

ISBN 978-0-387-75968-5.

DISSANAYAKE, M; NEWMAN, P.; CLARK, S.; DURRANT-WHYTE, H.; CSORBA, M.

A solution to the simultaneous localization and map building (SLAM) problem. IEEE Trans.

Robot. Autom., v.17, n.3, p. 229-241, 2001.

DAUGHTRY, C. S. T.; WALTHALL, C. L.; KIM, M. S.; BROWN DE COLSTOUN, E.;

MCMURTREY III, J. E. Estimating Corn Leaf Chlorophyll Concentration from Leaf and

Canopy Reflectance. REMOTE SENS. ENVIRON. v.74, p. 229-239, 2000.

DASH, J.; CURRAN, P. J. The MERIS terrestrial chlorophyll index. International Journal

of Remote Sensing, v.25, p. 5403-5413, 2004.

EVANS, L. J.; JONES, T. H.; PENG, K.; EVANS, M. N.; SAIMIN, S.; GOOSSENS, B. Use

of drone technology as a tool for behavioral research: a case study of crocodilian nesting.

Herpetol. Conserv. Biol., v.10, p. 90-98, 2015.

EMPRESA BRASILEIRA DE PESQUISA AGROPECUÁRIA-EMBRAPA. Sistema

brasileiro de classificação de solos. 3ª. ed. Rio de Janeiro: EMBRAPA-SPI, 2006.

ELVIDGE, C. D.; CHEN, Z. Comparison of Broad-Band and Narrow-Band Red and

NearInfrared Vegetation Indices. Remote Sensing of Environment, v.54, n.1, p. 38-48,

1995.

FREITAS, S.; SILVA, H.; ALMEIDA, J.; SILVA, E. Hyperspectral Imaging for Real-Time

Unmanned Aerial Vehicle Maritime Target Detection. J Intell Robot Syst, v.90, p. 551-570,

2018.

FRANZONI, C.; SAUERMANN, H. Crowd Science: The Organization of Scientific Research

in Open Collaborative Projects. Research Policy, v.43, n.1, p.1–20, 2014. DOI:

10.1016/j.respol.2013.07.005.

FREITAS, G. K. Invasão biológica pelo capim-gordura (Melinis minutiflora Beauv.) em um

fragmento de cerrado (A.R.I.E. Cerrado Pé-de-Gigante, Santa Rita do Passa Quatro, SP).

83

1999. 147p. Dissertação (Mestrado na área de Ecologia) - Universidade de São Paulo, São

Paulo, 1999.

FITZGERALD, G.; RODRIGUE, D.; O’LEARY, G. Measuring and Predicting Canopy

Nitrogen Nutrition in Wheat Using a Spectral Index—The Canopy Chlorophyll Content Index

(CCCI). Field Crops Research, v.116, n.3, p. 318-324, 2010.

FAIÇAL, B. S.; FREITAS, H.; GOMES, P. H.; MANO, L.Y.; PESSIN, G.; DE

CARVALHO, A. C.; KRISHNAMACHARI, B.; UEYAMA, J. An adaptive approach for

UAV-based pesticide spraying in dynamic environments. Comput. Electron. Agric., v.138,

p. 210-223, 2017.

FRANCHI, A.; SECCHI, C.; SON, H. I.; BULTHOFF, H. H.; GIODANO, P. R. Bilateral

teleoperation of groups of mobile robots with time-varying topology. IEEE Trans. Robot.,

v.28, n.5, p. 1019-1033, 2012.

FEDERAL AVIATION ADMINISTRATION. Unmanned aircraft systems operations in

the U. S. national airspace system. Interim Operational Approval Guidance 08-01, 2008. 18

p.

FENG, Q.; LIU, J.; GONG, J. UAV remote sensing for urban vegetation mapping using

random forest and texture analysis. Remote Sens., v.7, p. 1074-1094, 2015.

FORTES, E. P. Seed Plant Drone for Reforestation. The Graduate Review, v.2, p.13-26,

2017.

FLOREANO, D.; WOOD, R. J. Science, technology and the future of small autonomous

drones. Nature, v.521, p. 460-466, 2015.

FOWLER, J.; COHEN, L.; JARDIS, P. Practical Statistics for Field Biology. 2. ed.

Loughborough: Wiley, 2009. 132 p.

FOUNTAS, S.; SORENSEN, C. G.; TSIROPOULOS, Z.; CAVALARIS, C.; LIAKOS, V.;

GEMTOS, T. Farm machinery management information system. Computers and

Electronics in Agriculture, v.110, p. 131-138, 2015.

GOLÇALVES, M. L.; NETTO, M. L. A.; COSTA, J.A A. F.; ZULLO JÚNIOR, J. An

unsupervised method of classifying remotely sensed images using Kohonen self‐organizing

maps and agglomerative hierarchical clustering methods. International Journal of Remote

Sensing, v.29, n.11, p. 3171-3207, 2008.

GONÇALVES, M. L.; NETTO, M. L. A.; COSTA, J. A. F; ZULLO JÚNIOR, J. Automatic

remotely sensed data clustering by tree-structured self-organizing maps. In: Proceedings of

IEEE International Geoscience and Remote Sensing Symposium (IGARSS’05), Seoul Korea,

2005. p. 1-4.

GONÇALVES, J.; HENRIQUES, R.; ALVES, P.; SOUSA-SILVA, R.; MONTEIRO, A.T.;

LOMBA, Â.; MARCOS, B.; HONRADOO, J. Evaluating an unmanned aerial vehicle-based

84

approach for assessing habitat extent and condition in fine-scale early successional mountain

mosaics. Appl. Veg. Sci., 19, 132–146, 2016.

GOKTOGAN, A. H.; SUKKARIEH, S.; BRYSON, M.; RANDLE, J.; LUPTON, T.; HUNG,

C. A rotary-wing unmanned air vehicle for aquatic weed surveillance and management. J.

Intell. Robot. Syst., v.57, p. 467-484, 2010.

GINI, R.; SONA, G.; RONCHETTI, G.; PASSONI, D.; PINTO, L. Improving Tree Species

Classification Using UAS Multispectral Images and Texture Measures. ISPRS Int. J. Geo-

Inf., v.7, p. 315, 2018.

GITELSON, A. A.; KAUFMAN, Y. J.; STARK, R.; RUNDQUIST, D. Novel algorithms for

remote estimation of vegetation fraction. Remote Sens. Environ., v.80, p. 76-87, 2002.

GITELSON, A. A. Wide dynamic range vegetation index for remote quantifi cation of

biophysical characteristics of vegetation. Journal of Plant Physiology, v.161, p. 165-173,

2004.

GITELSON, A. A.; KAUFMAN, Y. J.; MERZLYAK, M. N. Use of a green channel in

remote sensing of global vegetation from EOS-MODIS. Remote Sensing of Environment,

v.58, p. 289-298, 1996.

GITELSON, A. A.; VIÑA, A.; CIGANDA, V.; RUNDQUIST, D. C.; ARKEBAUER, T. J.

Remote estimation of canopy chlorophyll content in crops. Geophysical Research Letters,

v.32, p. L08403, 2005.

GITELSON, A. A.; VIÑA, A.; ARKEBAUER, T. J.; RUNDQUIST, D. C.; KEYDAN, G.;

LEAVITT, B. Remote estimation of leaf area index and green leaf biomass in maize canopies.

Geophysical Research Letters, v.30, n.5, p. 1248, 2003.

GITELSON, A. A.; GRITZ, Y.; MERZLYAK, M. N. Relationships between leaf chlorophyll

content and spectral refl ectance and algorithms for non-destructive chlorophyll assessment in

higher plant leaves. Journal of Plant Physiology, v.160, p. 271-282, 2003.

GITELSON, A. A.; VIÑA, A.; CIGANDA, V.; RUNDQUIST, D. C.; ARKEBAUER, T. J.

Remote Estimation of Canopy Chlorophyll Content in Crops. Geophysical Research Letters,

v.32, n.8, p. L08403, 2005.

GONZÁLES-DUGO, V.; ZARCO-TEJADA, P.; NICOLA, S. E.; NORTES, P. A.;

ALARCO, N. J. J.; INTRIGLIOLO, D. S.; et al. Using High Resolution UAV Thermal

Imagery to Assess the Variability in the Water Status of Five Fruit Tree Species Within A

Commercial Orchard. Precis Agric. Springer US, v.14, n.6, p. 660-678, 2013.

GUIVANT, J.; NEBOT, E. Optimization of the simultaneous localization and map-building

algorithm for real-time implementation. IEEE Trans. Robot. Autom., v.17, n.3, p. 242-257,

2001.

85

GUTMANN, J.; KONOLIGE, K. Incremental mapping of large cyclic environments, in

International Symposium on Computational Intelligence. In: Robotics and Automation,

Institute of Electrical Engineers, Piscataway. Anais... Piscataway, USA, 1999.

GAO, J.; LIAO, W.; NUYTTENS, D.; LOOTENS, P.; VANGEYTE, J.; PIZURICA, A.; HE,

Y.; PIETERS, J. G. Fusion of pixel and object-based features for weed mapping using

unmanned aerial vehicle imagery. International Journal of Applied Earth Observation,

v.67, 43-53, 2018.

GROUND TRUTH 2.0. 2017. Land Use Mapper. Accessado em 30 novembro de 2018.

http://gt20.eu/land-usemapper/

HARDIN, P. J.; JACKSON, M. W.; ANDERSON, V. J.; JOHNSON, R. Detecting Squarrose

Knapweed (Centaurea virgata Lam. Ssp. squarrosa Gugl.) using a Remotely Piloted Vehicle:

A Utah case study. GIsci. Remote Sens., v.44, p. 203-219, 2007.

HAUKE, J.; KOSSOWSKI, T. Comparison of values of Pearson’s and Spearman’s

correlation coefficients on the same sets of data. Quaestiones Geographicae, v.30, n.2, p. 87-

93, 2011.

HIJMANS, R. J. (2017). raster: Geographic Data Analysis and Modeling. R package

version 2.6-7. https://CRAN.R-project.org/package=raster.

HYNDAMAN, R.; ATHANASOPOULOS, G.; BERGMEIR, C.; CACERES, G.; CHHAY,

L.; O'HARA-WILD, M.; PETROPOULOS, F.; RAZBASH, S.; WANG, E.; YASMEEN, F.

(2019). forecast: Forecasting functions for time series and linear models. R package version

8.5, <URL: http://pkg.robjhyndman.com/forecast>.

HAGUE, T.; TILLETT, N. D.; WHEELER, H. Automated crop and weed monitoring in

widely spaced cereals. Precis. Agric., v.7, p. 21-32, 2006.

HORLER, D. N. H.; DOCKRAY, M.; BARBER, J. The Red Edge of Plant Leaf Reflectance.

International Journal of Remote Sensing, v.4, n.2, p. 273-288, 1983.

HUETE, A. R.; JUSTICE, C.; VAN LEEUWEN, W. MODIS Vegetation index (MOD 13),

EOS MODIS Algorithm Theoretical Basis Document. Maryland: NASA Goddard Space

Flight Center, 1996. 115 p.

HUETE, A. R. A Soil-Adjusted Vegetation Index (SAVI). Remote Sensing of Environment,

v.25, n.3, p.295–309, 1988. DOI:10.1016/0034-4257(88)90106-X.

HUETE, A. R.; LIU, H. Q.; BATCHILY, K.; VANLEEUWEN, W. A comparison of

vegetation indices global set of TM images for EOS-MODIS. Remote Sensing of

Environment, v.59, p. 440-451, 1997.

HUANG, K. The use of a newly developed algorithm of divisive hierarchical clustering for

remote sensing image analysis. International Journal of Remote Sensing, v.23, p. 3149-

3168, 2002.

86

HUNG, C.; XU, Z.; SUKKARIEH, S. Feature Learning Based Approach for Weed

Classification Using High-Resolution Aerial Images from a Digital Cameral Mounted on a

UAV. Remote Sensing, v.6. p. 12037–12054, 2014.

HUANG, H.; DENG, J.; LAN, Y.; YANG, A.; DENG, X.; ZHANG, L. A fully convolutional

network for weed mapping of unmanned aerial vehicle (UAV) imagery. PLoS ONE, v.13,

n.4, p. e0196302, 2018.

HONGOH, D.; KAJIWARA, K.; HONDA, Y. Developing Ground Truth Measurement

System Using RC Helicopter and BRDF Model in Forest Area. In: 22nd Asian Conference on

Remote Sensing, Singapore. Anais... Singapore: Singapore Institute of Surveyors and Valuers

(SISV), 2001. p. 1-6.

HUNT, E. R.; DAUGHTRY, C. S. T. What good are unmanned aircraft systems for

agricultural remote sensing and precision agriculture?. International Journal of Remote

Sensing, v.39, n.15-16, p. 5345-5376, 2018.

HABOUDANE, D.; MILLER, J.R.; PATTEY, E.; ZARCO‑TEJADA, P.J.; STRACHAN, I.B.

Hyperspectral vegetation indices and novel algorithms for predicting green LAI of crop

canopies: modeling and validation in the context of precision agriculture. Remote Sensing of

Environment, v.90, p. 337‑352, 2004. DOI: 10.1016/j.rse.2003.12.013.

HAYAT, S.; YANMAZ, E.; MUZAFFAR, R. Survey on Unmanned Aerial Vehicle Networks

for Civil Applications: A Communications Viewpoint. IEEE Communications Surveys &

Tutorials, v.18, n.4, p. 2624-2661, 2016.

IVOSEVIC, B.; HAN, Y.; CHO, Y.; KWON, O. The use of conservation drones in ecology

and wildlife research. J. Ecol. Environ., v.38, n.1, p. 113-118, 2015.

INOUE, Y.; MORINAGA, S.; TOMITA, A. A Blimp-Based Remote Sensing System for

LowAltitude Monitoring of Plant Variables: A Preliminary Experiment for Agricultural and

Ecological Applications. International Journal of Remote Sensing, v.21, n.2, p. 379-385,

2000,

IDRIES, A.; MOHAMED, N.; JAWHAR, I.; MOHAMED, F. AL-JAROODI, J. Challenges

of Developing UAV Applications: A Project Management View. In: International Conference

on Industrial Engineering and Operations Management (IEOM), 2015. p. 1-10.

JI, M. Using fuzzy sets to improve cluster labeling in unsupervised classification.

International Journal of Remote Sensing, v.24, p. 657-671, 2003.

JU, C.; SON, H. Multiple UAV systems for agricultural applications: control,

implementation, and evaluation. Electronics, v.7, n.9, p. 2-19, 2018.

JACKSON, R. D. Remote Sensing of Vegetation Characteristics for Farm Management.

SPIE Critical Reviews of Technology Series: Remote Sensing, v.475, p. 81-96, 1984.

87

JACKSON, R. D.; YOUNGBLOOD, J. W. Agriculture’s Eye in the Sky. Forever Plane Could

Give Continuous Crop Data. Crop & Soils Magazine, v.36, n.1, p. 15-18, 1983.

JANNOURA, R.; BRINKMANN, K.; UTEAU, D.; BRUNS, C.; JOERGENSEN, R. G.

Monitoring of crop biomass using true colour aerial photographs taken from a remote

controlled hexacopter. Biosyst. Eng., v.129, p. 341-351, 2015.

JORDAN, C. F. Derivation of leaf area index from quality of light on the forest floor.

Ecology, v.50, p. 663-666, 1969.

JOS, B.; NICOLS, M.; DANILO, C.; EDUARDO, A. Multispectral ndvi aerial image system

for vegetation analysis by using a consumer câmera. In: 2014 IEEE International Autumn

Meeting on Power, Electronics and Computing (ROPEC), 2014, p. 1-6.

JORDAN, C. F. Derivation of leaf-area index from quality of light on forest floor. Ecology,

v.50, n.4, p. 663-666, 1969.

JUFFE-BIGNOLI, D.; BURGESS, N.D.; BINGHAM, H.; BELLE, E.M.S.; de LIMA, M.G.;

DEGUIGNET, M.; BERTZKY, B.; MILAM, N.; MARTINEZ-LOPEZ, J.; LEWIS, E.; et al.

Protected Planet Report 2014. UNEP-WCMC: Cambridge, UK, 2014, 69 p.

KEOGH, M.; HENRY, M. The Implications of Digital Agriculture and Big Data for

Australian Agriculture. Sydney: Australian Farm Institute, 2016. 68 p.

KANEKO, K.; NOHARA, S. Review of Effective Vegetation Mapping Using the UAV

(Unmanned Aerial Vehicle) Method. Journal of Geographic Information System, v.6, p.

733-742, 2014.

KASSAMBARA, A. 2019. ggpubr: 'ggplot2' Based Publication Ready Plots. R package

version 0.2.1. https://CRAN.R-project.org/package=ggpubr.

KYRATZIS, A. C.; SKARLATOS, D. P.; MENEXES, G. C.; VAMVAKOUSIS, V. F.;

KATSIOTIS, A. Assessment of Vegetation Indices Derived by UAV Imagery for Durum

Wheat Phenotyping under a Water Limited and Heat Stressed Mediterranean Environment.

Frontiers in Plant Science, v.8, n.1114, p.1-14, 2017. DOI: 10.3389/fpls.2017.01114

KOH, L. P.; WICH, S. A. Dawn of drone ecology: low-cost autonomous aerial vehicles for

conservation. Tropical Conservation Science, v.5, n.2, p. 121-132, 2012.

KOGAN, F. N. Remote Sensing of Weather Impacts on Vegetation in Nonhomogeneous

Areas. International Journal of Remote Sensing, v.11, n.8, p. 1405-1419, 1990.

KEITH, C. J.; REPASKY, K. S.; LAWRENCE, R. L.; JAY, S. C.; CARLSTEN, J. L.

Monitoring effects of a controlled subsurface carbon dioxide release on vegetation using a

hyperspectral imager. Int. J. Greenh. Gas Control, v.3, n.5, p. 626-632, 2009.

KUHL, M.; POLERECKY, L. Functional and structural imaging of phototrophic microbial

communities and symbioses. Aquat. Microb. Ecol. v.53, p. 99-118, 2008.

88

KRULL, W.; TOBERA, R.; WILLMS, I.; ESSEN, H.; WAHL, N. V. 2012 International

Symposium on Safety Science and Technology Early forest fire detection and verification

using optical smoke, gas and microwave sensors. Procedia Engineering, v.45, p.584-594,

2012. DOI: 10.1016/j.proeng.2012.08.208.

KLOBE, J.; MCKEAN, J. W. Nonparametric Statistical Methods Using R. 1. ed. Flórida:

CRC Press, 2014. 287 p.

KHUN, K.; VIGNEAULT, P.; FALLON, E.; TREMBLAY, N.; CODJIA, C.; CAVAYAS, F.

Estimating Corn Biomass from RGB Images Acquired with an Unmanned Aerial Vehicle. In:

14th International Conference on Precision Agriculture, Montreal, Quebec, 2018. p. 1-9.

KUHN, M. Contributions from Jed Wing, Steve Weston, Andre Williams, Chris Keefer,

Allan Engelhardt, Tony Cooper, Zachary Mayer, Brenton Kenkel, the R Core Team, Michael

Benesty, Reynald Lescarbeau, Andrew Ziem, Luca Scrucca, Yuan Tang, Can Candan and

Tyler Hunt. (2018). caret: Classification and Regression Training. R package version 6.0-81.

https://CRAN.R-project.org/package=caret

KOH, L. P.; WICH, S. A. Dawn of drone ecology: low-cost autonomous aerial vehicles for

conservation. Tropical Conservation Science, v.5, n.2, p. 121-132, 2012.

KNOTH, C.; KLEIN, B.; PRINZA, T.; KLEINBECKER, T. Unmanned Aerial Vehicles as

Innovative Remote Sensing Platforms for High-Resolution Infrared Imagery to Support

Restoration Monitoring in Cut-Over Bogs. Applied Vegetation Science, v.16, p. 509-517,

2013.

LALIBERTE, A. S.; GOFORTH, M. A.; STEELE, C. M.; RANGO, A. Multispectral Remote

Sensing from Unmanned Aircraft: Image processing workflows and applications for

rangeland environment. Remote Sens., v.3, p. 2529-2551, 2011.

LAMIGUEIRO, O. P.; HIJMANS, R. (2018), rasterVis. R package version 0.45.

LEHMANN, J. R. K.; PRINZ, T.; ZILLER, S. R.; THIELE, J.; HERINGER, G.; MEIRA-

NETO, J. A. A.; BUTTSCHARDT, T. K. Open-source processing and analysis of aerial

imagery acquired with a low-cost unmanned aerial system to support invasive plant

management. Front. Environ. Sci., v.5, n.44, p. 1-16, 2017

LUCIEER, A.; ROBINSON, S.; TURNER, D.; HARWIN, S.; KELCEY, J. Using a micro-

UAV for ultra-high resolution multi-sensor observations of Antarctic moss beds. In:

Proceedings of the 2012 XXII ISPRS Congress, Melbourne, Australia, 2012. p. 429-433.

LIU, W. T.; KOGAN, F. N. Monitoring Regional Drought Using the Vegetation Condition

Index. International Journal of Remote Sensing, v.17, n.14, p. 2761-2782, 1996.

LI, W.; NIU, Z.; CHEN, H.; LI, D.; WU, M.; ZHAO, W.; Remote estimation of canopy

height and aboveground biomass of maize using high-resolution stereo images from a low-

cost unmanned aerial vehicle system. Ecological Indicators, v. 67, p. 637-648, 2016.

89

LINCHANT, J.; LISEIN, J.; SEMEKI, J.; LEJEUNE, P.; VERMEULEN, C. Are unmanned

aircraft systems (UASs) the future of wildlife monitoring? A review of accomplishments and

challenges. Mamm. Rev., v.45, p. 239-252, 2015.

LIAKOS, K. G.; BUSATO, P.; MOSHOU, D.; PEARSON, S.; BOCHTIS, D. Machine

Learning in Agriculture: A Review. Sensors, v.18, p. 2674, 2018.

LIU, A.; BICHENG, L.; CHEN, G.; ZHANGIU, X. A new ART neural networks for remote

sensing image classification. Lecture Notes in Computer Science, v.3611, p. 37-42, 2005.

LIEW, C. F.; DELATTE, D.; TAKEISHI, N.; YAIRI, T. Recent Developments in Aerial

Robotics: A Survey and Prototypes Overview. arXiv:1711.10085 [cs.RO], p. 1-14, 2017.

LO, C. P.; QUATTROCHI, D. A.; LUVALL, J. C. Application of high-resolution thermal

infrared remote sensing and GIS to assess the urban heat island effect. International Journal

of Remote Sensing, v.18, n.2, p. 287-304, 1997.

LÓPEZ, J. J.; MULERO-PÁZMÁNY, M. Drones for Conservation in Protected Areas:

Present and Future. Drones, v.3, p. 10, 2019.

LEE, E.; YOON, H.; HYUN, S. P.; BURNETT, W. C.; KOH, D.; HA, K.; KIM, D.; KIM, Y.;

KANG, K. Unmanned aerial vehicles (UAVs)-based thermal infrared (TIR) mapping, a novel

approach to assess groundwater discharge into the coastal zone. Limnol. Oceanogr.:

Methods, v.14, p. 725-735, 2016.

LI, F.; MIAO, Y.; FENG, G.; YUAN, F.; YUE, S.; GAO, X.; LIU, Y.; LIU, B.; USTIN, S. L.;

CHEN, X. Improving Estimation of Summer Maize Nitrogen Status with Red Edge-Based

Spectral Vegetation Indices. Field Crops Research, v.157, p. 111-123, 2014.

LEBOURGEOIS, V.; BÉGUÉ, A.; LABBÉ, S.; MALLAVAN, B.; PRÉVOT, L.; ROUX, B.

Can Commercial Digital Cameras Be Used as Multispectral Sensors? A Crop Monitoring

Test. Sensors, v.8, p. 7300-7322, 2008.

LONG, D.; MRCARTHY, C.; JENSEN, T. Row and water front detection from UAV

thermal-infrared imagery for furrow irrigation monitoring. In: Proceedings of the

International Conference on Advanced Intelligent Mechatronics (AIM), Banff, AB, Canada,

2016. p. 300-305.

LEE, D.; FRANCHI, A.; SON, H. I.; HA, C.; BULTHOFF, H. H.; GIORDANO, P. R.

Semiautonomous haptic teleoperation control architecture of multiple unmanned aerial

vehicles. IEEE/ASME Trans. Mechatron., v.18, n.4, p. 1334-1345, 2013.

LELONG, C. C. D.; BURGER, P.; JUBELIN, G.; ROUX, B.; LABBEA, S.; BARET, F.

Assessment of Unmanned Aerial Vehicles Imagery for Quantitative Monitoring of Wheat

Crop in Small Plots. Sensors. Molecular Diversity Preservation International, v.8, n.5, p.

3557-3585, 2008.

90

LOPOUKHINE, N.; CRAWHALL, N.; DUDLEY, N.; FIGGIS, P.; KARIBUHOYE, C.;

LAFFOLEY, D.; LONDOÑO, J.M.; MACKINNON, K.; SANDWITH, T. Protected areas:

providing natural solutions to 21st Century challenges. Surveys and Perspectives

Integrating Environment and Society, v.5, p.1-16, 2012.

LU, B.; HE, Y. 2017. Species classification using Unmanned Aerial Vehicle (UAV)-acquired

high spatial resolution imagery in a heterogeneous grassland. Isprs J. Photogramm. v.128, p.

73-85, 2017.

MAGNEY, T. S.; VIERLING, L. A.; EITEL, J. U. H.; HUGGINS, D. R. H.; GARRITY, A.

R. Response of High Frequency Photochemical Reflectance Index (PRI) Measurements to

Environmental Conditions in Wheat. Remote Sensing of Environment, v.173, p. 84-97,

2016.

MEJIAS, L.; LAI, J.; BRUGGEMANN, T. Sensors for Missions. In: VALAVANIS, K. P.;

VACHTSEVANOS G. J. (Org.). Handbook of Unmanned Aerial Vehicles. New York:

Springer, 2015. p. 385-399.

MAHAJAN, U.; BUNDEL, B. R. Drones for Normalized Difference Vegetation Index

(NDVI), to Estimate Crop Health for Precision Agriculture: A Cheaper Alternative for Spatial

Satellite Sensors. In: International Conference on Innovative Research in Agriculture, Food

Science, Forestry, Horticulture, Aquaculture, Animal Sciences, Biodiversity, Ecological

Sciences and Climate Change (AFHABEC-2016), Jawaharlal Nehru University, Índia, 2016.

p. 38-41.

MATOS, D. M. S.; PIVELLO, V. R. O impacto das espécies invasoras nos recursos naturais

de ambientes terrestres: alguns casos brasileiros. Ciência e Cultura, v. 61, n.1, p. 27-30,

2009.

MICHEZ, A.; PIÉGAY, H.; JONATHAN, L.; CLAESSENS, H.; LEJEUNE, P. Mapping of

Riparian Invasive Species with Supervised Classification of Unmanned Aerial System (UAS)

Imagery. International Journal of Applied Earth Observation and Geoinformation, v.44,

p. 88–94, 2016.

MATESE, A.; GENNARO, S. F. D. Practical Applications of a Multisensor UAV Platform

Based on Multispectral, Thermal and RGB High Resolution Images in Precision Viticulture.

Agriculture, v.8, n.116, p.1-13, 2018. DOI: 10.3390/agriculture8070116

MONTES, A. de O.; ARREOLA, L.; FLORES, A.; SANCHEZ, J.; FLORES, G. Low-cost

multispectral imaging system for crop monitoring. In: ICUAS’18 The 2018 International

Conference on Unmanned Aircraft Systems, Dallas, TX, USA, 2018. p. 1-9.

MORAN, M. S.; BRYANT, R.; THOME, K.; NI, W.; NOUVELLON, Y; GONZALEZ-

DUGO, M. P.; QI, J.; CLARK, T. R. ARefined Empirical Line Approach for Reflectance

Factor Retrieval for Landsat-5 TM and Landsat-7 ETM+. Remote Sensing of Environment,

v.78, n.1, p. 71-82, 2001.

91

MOZGERIS, G.; JONIKAVICIUS, D.; JOVARAUSKAS, D.; ZINKEVICIUS, R.;

PETKEVICIUS, S.; STEPONAVICIUS, D. Imaging from manned ultra‑light and unmanned

aerial vehicles for estimating properties of spring wheat. Precision Agriculture, v.19, n.5, p.

876-894, 2018.

MELESSE, A.; WENG, Q.; PRASAD, S.; SENAY, G. Remote Sensing Sensors and

applications in environmental resources mapping and modelling. Sensors, v.7, p. 3209-3241,

2007.

MULERO-PÁZMÁNY, M.; STOLPER, R.; VAN ESSEN, L.D.; NEGRO, J.J.; SASSEN, T.

Remotely piloted aircraft systems as a rhinoceros anti-poaching tool in Africa. PLoS One,

v.9, p. 1-10, 2014.

MULLA, D. J. 2013. Twenty-Five Years of Remote Sensing in Precision Agriculture: Key

Advances and Remaining Knowledge Gaps. Biosystems Engineering, v.114, n.4, p. 358-371,

2013.

MÜLLEROVÁ, J.; BRUNA, J.; BARTALOS, T.; DVORÁK, P.; VÍTKOVÁ, M.; PYSÉK, P.

Timing Is Important: unmanned aircraft vs. Satellite Imagery in Plant Invasion Monitoring.

Front. Plant Sci., v.8, n.887, p. 1-13, 2017.

MARRIS, E. Fly, and bring me data. Nature, v.498, p. 156-158, 2013.

MARINO, S.; ALVINO, A. Proximal sensing and vegetation indices for site-specific

evaluation on an irrigated crop tomato. European Journal of Remote Sensing, v.47, p. 271-

283, 2014.

MARINO, S.; ALVINO, A. Detection of homogeneous wheat areas using multi-temporal

UAS images and ground truth data analyzed by cluster analysis. European Journal of

Remote Sensing, v.51, n.1, p. 266-275, 2018.

MATESE, A.; GENNARO, S. F. D.; BERTON, A. Assessment of a canopy height model

(CHM) in a vineyard using UAV-based multispectral imaging. INTERNATIONAL

JOURNAL OF REMOTE SENSING, v.38, n.8, p. 2150-2160, 2017.

MARTIN, F.; MULLERONÁ, J.; BORGNIET, L.; DOMMANGET, F.; BRETON, V.;

EVETTE, A. Using Single- and Multi-Date UAV and Satellite Imagery to Accurately

Monitor Invasive Knotweed Species. Remote Sens. v.10, p. 1662, 2018.

MANGIAFICO, S. (2019). rcompanion: Functions to Support Extension Education Program

Evaluation. R package version 2.1.1. https://CRAN.R project.org/package=rcompanion

MAIMAITIJIANG, M.; GHULAM, A.; SIDIKE, P.; HARTLING, S.; MAIMAITIYIMING,

M.; PETERSON, K.; SHAVERS, E.; FISHMAN, J.; PETERSON, J.; KADAM, S.;

BURKEN, J.; FRITSCHI, F. Unmanned Aerial System (UAS)-based phenotyping of soybean

using multi-sensor data fusion and extreme learning machine. ISPRS Journal of

Photogrammetry and Remote Sensing, v.134, p. 43-58, 2017.

92

MAECHLER, M.; ROUSSEEUW, P.; STRUYF, A.; HUBERT, M.; HORNIK, K. (2018).

cluster: Cluster Analysis Basics and Extensions. R package version 2.0.7-1.

MCHUGH, M. L. Interrater reliability: the kappa statistic. Biochemia Medica, v.22, n.3, p.

276-282, 2012.

MCKEEN, S. A.; WILCZAK, J.; GRELL, G.; DJALALOVA, I.; PECKHAM, S.; HSIE, E.;

GONG, W.; BOUCHET, V.; MENARD, S.; MOFFET, R.; MCHENRY, J.; MCQUEEN, J.;

TANG, Y.; CARMICHAEL, G. R.; PAGOWSKI, M.; CHAN, A.; DYE, T.; FROST, G.,

LEE, P.; MATHUR, R. Assessment of an ensemble of seven realtime ozone forecasts over

eastern North America during the summer of 2004. J. Geophys. Res., v.110, D21307, 2005.

DOI:10.1029/2005JD005858

MERINO, L.; CABALLERO, F.; MARTÍNEZ-DE-DIOS, J. R.; MAZA, I.; OLLERO, A. An

Unmanned Aircraft System for Automatic Forest FireMonitoring and Measurement. J Intell

Robot Syst, v.65, p.533-548, 2012. DOI: 10.1007/s10846-011-9560-x.

MORAIS, M.; MARCHANTE, E.; MARCHANTE, H. Big troubles are already here: Risk

assessment protocol shows high risk of many alien plants present in Portugal. J. Nat.

Conserv., v.35, p. 1-12, 2017.

MULLA, D. J. Twenty-Five Years of Remote Sensing in Precision Agriculture: Key

Advances and Remaining Knowledge Gaps. Biosystems Engineering, v.114, n.4, p. 358-371,

2013.

NANSEN, C.; ZHAO, G.; DAKIN, N.; ZHAO, C.; TURNER, S. R. Using hyperspectral

imaging to determine germination of native australian plant seeds. J. Photochem. Photobiol.

B: Biol., v.145, p. 19-24, 2015.

NEBIKER, S.; LACK, N.; ABACHERLI, M.; LADERACH, S. LIGHT-WEIGHT

MULTISPECTRAL UAV SENSORS AND THEIR CAPABILITIES FOR PREDICTING

GRAIN YIELD AND DETECTING PLANT DISEASES. In: XXIII ISPRS Congress,

Prague, Czech Republic, 2016. p. 963-970.

NEUWIRTH, E. (2014). RColorBrewer: ColorBrewer Palettes. R package version 1.1-2.

https://CRAN.R-project.org/package=RColorBrewer

NGUY-ROBERTSON, A. L.; BRINLEY BUCKLEY, E. M.; SUYKER, A. S.; AWADA, T.

N. Determining Factors that Impact the Calibration of Consumer-Grade Digital Cameras Used

for Vegetation Analysis. International Journal of Remote Sensing, v.37, n.14, p. 3365-

3383, 2016.

NORIEGA, A.; ANDERSON, R. Linear-optimization-based path planning algorithm for an

agricultural UAV. In: Proceeding of the Infotech of American Institute of Aeronautics and

Astronautics (AIAA), San Diego, CA, 2016. p. 1003.

NEWCOME, L. R. Unmanned aviation: A brief history of unmanned aerial vehicles.

Virginia: American Institute of Aeronautics and Astronautics, 2004. 172 p.

93

NATIONAL MUSEUM OF THE USAF. Radioplane/northrop MQM-57 falconer

factsheet. 2009. Disponível em: <https://www.nationalmuseum.af.mil/Visit/Museum-

Exhibits/Fact-Sheets/Display/Article/195784/radioplanenorthrop-mqm-57-falconer/>. Acesso

em 07 jan. 2019, 09:24:30.

OZDOGAN, B.; GACAR, A.; AKTAS, H. Digital agriculture practices in the context of

agriculture 4.0. Journal of Economics, Finance and Accounting, v.4, n.2, p. 184-191, 2017.

O’CONNOR, J.; SMITH, M. J.; JAMES, M. R. Cameras and Settings for Aerial Surveys in

the Geosciences: Optimising Image Data. Progress in Physical Geography, v.41, n.3, p.

325-344, 2017.

PANTAZI, X. E.; MOSHOU, D.; BRAVO, C. Active learning system for weed species

recognition based on hyperspectral sensing. Biosyst. Eng., v.146, p. 193-202, 2016.

PANTAZI, X. E.; TAMOURIDOU, A. A.; ALEXANDRIDIS, T. K.; LAGOPODI, A. L.;

KASHEFI, J.; MOSHOU, D. Evaluation of hierarchical self-organising maps for weed

mapping using UAS multispectral imagery. Comput. Electron. Agric., v.139, p. 224-230,

2017.

PENG, Z. R.; WANG, D.; WANG, Z.; GAO, Y.; LU, S. A study of vertical distribution

patterns of PM2.5 concentrations based on ambient monitoring with Unmanned Aerial

Vehicles: A case in Hangzhou, China. Atmos. Environ., v.123, p. 357-369, 2015.

PEÑA, J. M.; TORRES-SÁNCHEZ, J.; DE CASTRO, A. I.; KELLY, M.; LÓPEZ-

GRANADOS, F. Weed Mapping in Early-Season Maize Fields Using Object-Based Analysis

of Unmanned Aerial Vehicle (UAV) Images. PlosOne, v.8, n.10, p. e77151, 2013.

PÉREZ-ORTIZ, M.; PEÑA, J. M.; GUTIERREZ, P. A.; TORRES-SANCHEZ, J.; HERVAS-

MARTÕNEZ, C.; LOPEZ-GRANADOS, F. A semi-supervised system for weed mapping in

sunflower crops using unmanned aerial vehicles and a crop row detection method. APPL

SOFT COMPUT., v.37, p. 533-544, 2015.

PEEL, M. C.; FINLAYSON, B. L.; MCMAHON, T. A. Updated world map of the K¨oppen-

Geiger climate classification. Hydrol. Earth Syst. Sci., v.11, p. 1633–1644, 2007.

PIVELLO, V. R.; CARVALHO, V. M. C.; LOPES P. F.; PECCININI, A. A.; ROSSO, S.

Abundance and distribution of native and invasive alien grasses in a “cerrado” (Brazilian

savanna) biological reserve. Biotropica, v.31, p. 71-82, 1999 (a).

PIVELLO, V. R.; SHIDA, C. N.; MEIRELLES S. T. Alien grasses in Brazilian savannas: a

threat to the biodiversity. Biodiversity and Conservation, v.8, p. 1281-1294, 1999 (b).

PIVELLO, V. R. Invasões biológicas no Cerrado brasileiro: efeitos da introdução de espécies

exóticas sobre a biodiversidade. Ecologia.Info, v.33, 2011. Disponível em:

<http://ecologia.info/cerrado.htm>. Acesso em: 27 de mar. 2019.

94

POLERECKY, L.; BISSETT, A.; AL-NAJJAR, M.; FAERBER, P.; OSMERS, H.; SUCI, P.

A.; STOODLEY, P.; DE BEER, D. Modular spectral imaging system for discrimination of

pigments in cells and microbial communities. Appl. Environ. Microbiol. v.75, n.3, p. 758-

771, 2008.

PROCTOR, C.; HE, Y. Workflow for Building A Hyperspectral Uav: Challenges And

Opportunities. ISPRS Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci., v.XL-1/W4, p.

415-419, 2015.

PINTER, P. J.; HATFIEL, J. L.; SCHEPERS, J. S.; BARNES, E. M.; MORAN, M. S.;

DAUGHTRY, C. S. T.; UPCHURCH, D. R. Remote Sensing for Crop Management.

Photogrammetric Engineering & Remote Sensing, v.69, n.6, p. 647-664, 2003.

QUATTROCHI, D. A.; LUVALL, J. C. Thermal infrared remote sensing for analysis of

landscape ecological processes: methods and applications. Landscape Ecology, v.14, p. 577-

598, 1999.

QUILTER, M. C.; ANDERSON, V. J. Low Altitude/Large Scale Aerial Photographs: A Tool

for Range and Resource Managers. Rangelands, v.22, n.2, p. 13-17, 2000.

RANGO, A.; LALIBERTE, A. S.; HERRICK, J. E.; WINTERS, C.; HAVSTAD, K.;

STEELE, C.; BROWNING, D. Unmanned aerial vehicle-based Remote Sensing for rangeland

assessment, monitoring, and management. J. Appl. Remote Sens., v.3, p. 1-15, 2009.

R CORE TEAM (2018). R: A language and environment for statistical computing. R

Foundation for Statistical Computing, Vienna, Austria. URL: https://www.R-project.org/.

R CORE TEAM (2019). R: A language and environment for statistical computing. R

Foundation for Statistical Computing, Vienna, Austria. URL: https://www.R-project.org/.

ROUSE, J. W.; HAAS, R. H. Jr.; SCHELL, J. A.; DEERING, D. W. Monitoring

vegetationsystems in the Great Plains with ERTS. Third ERTS-1 Symposium, v.1, p. 309-

317, 1974.

RICHARDSON, A.; SIGNOR, B. M.; LIDBURY, B. A.; BADRICK, T. Clinical chemistry in

higher dimensions: Machine-learning and enhanced prediction from routine clinical chemistry

data. Clin. Biochem., v.49, p. 1213-1220, 2016.

RICHARDSON, D. M.; VAN WILGEN, B.; MITCHELL, D. T. Aspects of the reproductive

ecology of four Australian Hakea species (Proteaceae) in South Africa. Oecologia, v.71, p.

1432-1939, 1987.

RONDEAUX, G.; STEVEN, M.; BARET, F. Optimization of soil-adjusted vegetation

indices. Remote Sensing of Environment, v.55, p. 95-107, 1996.

RIBERA, J.; HE, F.; CHEN, Y.; HABIB, A. F.; DELP, E. J. Estimating Phenotypic Traits

From UAV Based RGB Imagery. In: 22nd ACM SIGKDD Conference on Knowledge

Discovery and Data Mining, San Francisco, California, 2016. p. 1-8.

95

ROMERO, M.; LUO, Y.; SU, B.; FUENTES, S. Vineyard water status estimation using

multispectral imagery from an UAV platform and machine learning algorithms for irrigation

scheduling management. Comput. Electron. Agric., v.147, p. 109–117, 2018.

REICH, P. B.; TILMAN, D.; ISBELL, F.; MUELLER, K.; HOBBIE, S. E., DAN, F. B. F.;

EISENHAUER, N. Impacts of biodiversity loss escalate through time as redundancy fades.

Science, v.336, p. 589–592, 2012.

RODRÍGUEZ, A.; NEGRO, J.J.; MULERO, M.; RODRÍGUEZ, C.; HERNÁNDEZ-

PLIEGO, J.; BUSTAMANTE, J. The Eye in the Sky: Combined Use of Unmanned Aerial

Systems and GPS Data Loggers for Ecological Research and Conservation of Small Birds.

PLoS One, v.7, n.12, p. 1-6, 2012.

SOUZA, A. P.; MOTA, L. L.; ZAMADEI, T.; MARTIM, C. C.; ALMEIDA, F. T., Paulino, J.

Classificação climática e balanço hídrico climatológico no Estado de Mato Grosso. Nativa,

v.1, n.1, p. 34-43, 2013.

SPANGLER, L. H.; DOBECK, L. M., REPASKY, K. S.; et al. A shallow subsurface

controlled release facility in bozeman, montana, USA, for testing near surface CO2 detection

techniques and transport models. Environ. Earth Sci., v.60, n.2, p. 227-239, 2009.

STARK, D.; VAUGHAN, I. P.; EVANS, L. J.; KLER, H.; GOOSSENS, B. Combining

drones and satellite tracking as an effective tool for informing policy change in riparian

habitats: a proboscis monkey case study. Remote Sensing in Ecology and Conservation,

v.4, n.1, p. 44-52, 2018.

STROPPIANA, D.; VILLA, P.; SONA, G.; RONCHETTI, G.; CANDIANI, G.; PEPE, M.;

BUSETTO, L.; MIGLIAZZI, M.; BOSCHETTI, M. Early season weed mapping in rice crops

using multi-spectral UAV data. INTERNATIONAL JOURNAL OF REMOTE SENSING,

v.39, p. 5432-5452, 2018.

SHAH, C. A.; ARORA, M. K.; VARSHNEY, P. K. Unsupervised classification of

hyperspectral data: an ICA misture model based approach. International Journal of Remote

Sensing, v.25, p. 481-487, 2004.

SHENG, H.; CHAO, H.; COOPMANS, C.; HAN, J.; MCKEE, M.; CHEN, Y. Low-Cost

UAV-Based Thermal Infrared Remote Sensing: Platform, Calibration and Applications. In:

Proceedings of 2010 IEEE/ASME International Conference on Mechatronic and Embedded

Systems and Applications, MESA, 2010. p. 38-43.

SOER, G. J. R. Estimation of regional evapotranspiration and soil moisture conditions using

remotely sensed crop surface temperatures. Remote Sensing of Environment, v.9, n.1, p. 27-

45, 1980.

SMIGAJ, M.; GAULTON, R.; BARR, S. L.; SUÁREZ, J. C. UAV-BORNE THERMAL

IMAGING FOR FOREST HEALTH MONITORING: DETECTION OF DISEASE-

INDUCED CANOPY TEMPERATURE INCREASE. In: The International Archives of the

96

Photogrammetry, Remote Sensing and Spatial Information Sciences, v.XL-3/W3, 2015. p.

349-354.

SMITH, M. O.; USTIN, S. L.; ADAMS, J. B,; GILLESPIE, A. R. Vegetation in Deserts: I. A

Regional Measure of abundance from Multiespectral Images. Remote Sensing of

Environment, v.31, p. 1-26, 1990.

SHI, Y.; MURRAY, S. C.; ROONEY, W. L.; VALASEK, J.; OLSENHOLLER, J.; PUGH,

N. A.; et al. Corn and Sorghum Phenotyping Using a Fixed-Wing UAV-Based Remote

Sensing System. Proc. SPIE, Autonomous Air and Ground Sensing Systems for

Agricultural Optimization and Phenotyping, v.9866, p. 98660E, 2016.

SANTESTEBAN, L.; DI GENNARO, S.; HERRERO-LANGREO, A.; MIRANDA, C.;

ROYO, J.; MATESE, A. High-resolution UAV-based thermal imaging to estimate the

instantaneous and seasonal variability of plant water status within a vineyard. Agric. Water

Manag., v.183, p. 49-59, 2017.

SHAFIAN, S.; RAJAN, N.; SCHNELL, R.; BAGAVATHIANNAN, M.; VALASEK, J.; SHI,

Y.; OLSENHOLLER, J. Unmanned aerial systems-based remote sensing for monitoring

sorghum growth and development. PloS ONE, v.13, n.5, p. 1-15, 2018.

SHAKHATREH, H.; SAWALMEH, A.; AL-FUQAHA, A.; DOU, Z.; ALMAITA, E.;

KHALIL, I.; OTHMAN, N. S.; KHREISHAH, A.; GUIZANI, M. Unmanned Aerial Vehicles:

A Survey on Civil Applications and Key Research Challenges. arXiv:1805.00881 [cs.RO], p.

1-58, 2018.

SCHIRRMANN, M.; GIEBEL, A.; GLEINIGER, F.; PFLANZ, M.; LENTSCHKE, J.;

DAMMER, K. H. Monitoring agronomic parameters of winter wheat crops with lowcost

UAV imagery. Remote Sensing, v.8, n.9, p. 1-19, 2016.

SCHIFFMAN, R. Drones Flying high as new tool for field biologists. Science, v.344, n.6183,

p. 459-459, 2014.

SALAMÍ, E.; BARRADO, C.; PASTOR, E. UAV flight experiments applied to the remote

sensing of vegetated areas. Remote Sensing, v.6, p. 11051-11081, 2014.

SANDBROOK, C. The social implications of using drones for biodiversity conservation.

Ambio, v.44, p. 636-647, 2015.

STABLER, B. (2013). shapefiles: Read and Write ESRI Shapefiles. R package version 0.7.

https://CRAN.R-project.org/package=shapefiles

SAVAGE, N. H.; AGNEW, P.; DAVIS, L. S.; ORDÓÑEZ, C.; THORPE, R.; JOHNSON, C.

E.; O’CONNOR, F. M.; DALVI, M. Air quality modelling using the Met Office Unified

Model (AQUM OS24-26): model description and initial evaluation. Geosci. Model Dev., v.6,

p.353-372, 2013. DOI:10.5194/gmd-6-353-2013

97

TURNER, D.; LUCIEER, A.; MALENOVSKY, Z.; KING, D. H.; ROBINSON, S. A. Spatial

co-registration of ultra-high resolution visible, multispectral and thermal images acquired with

a micro-UAV over Antarctic moss beds. Remote Sens., v.6, p. 4003-4024, 2014.

TRIPATHY, G. K.; GHOSH, T. K. SHAH, S. D. Monitoring of Desertification Process in

Karnataka State of India Using MultiTemporal Remote Sensing and Ancillary Information

Using GIS. International Journal of Remote Sensing, v.17, n.12, p. 2243-2257, 1996.

TOKEKAR, P.; HOOK, V. J.; MULLA, D.; ISLER, V. Sensor planning for a symbiotic UAV

and UGV system for precision agriculture. IEEE Trans. Robot., v.32, n.6, 1498-1511, 2016.

TORRES-SANCHEZ, J.; LÓPEZ-GRANADOS, F.; DE CASTRO, A. I.; PEÑA-

BARRAGÁN, J. M. Configuration and specifications of an unmanned aerial vehicle (UAV)

for early site specific weed management. PLoS ONE, v.8, n.3, p. e58210, 2013.

TAMOURIDOU, A.; ALEXANDRIDIS, T.; PANTAZI, X.; LAGOPODI, A.; KASHEFI, J.;

KASAMPALIS, D.; KONTOURIS, G.; MOSHOU, D. Application of Multilayer Perceptron

with Automatic Relevance Determination on Weed Mapping Using UAV Multispectral

Imagery. Sensors, v.17, n.12, p. 2307, 2017.

TORRES-SÁNCHEZ, J.; LÓPEZ-GRANADOS, F.; SERRANO, N.; ARQUERO, O.; PEÑA,

J. M. High-throughput 3-d monitoring of agricultural-tree plantations with unmanned aerial

vehicle (UAV) technology. PLoS ONE, v.10, n.6, e0130479, 2015.

TOMLINS, G. F.; LEE, Y. J. Remotely Piloted Aircraft ‒ an Inexpensive Option for

LargeScale Aerial Photography in Forestry Applications. Canadian Journal of Remote

Sensing, v.9, n.2, p. 76-85, 1983.

THRUN, S.; LUI, Y.; Results for outdoor-SLAM using sparse extended information filters.

In: IEEE International Conference on Robotics and Automation,

InstituteofElectricalEngineers, Piscataway. Anais... Piscataway, USA, 2003.

TORRESAN, C.; BERTON, A.; CAROTENUTO, F.; DI, S. F.; GIOLI, B.; MATESE, A.;

MIGLIETTA, F.; VAGNOLI, C.; ZALDEI, A.; WALLACE, L. 2016. Forestry applications

of UAVs in Europe: a review. International Journal of Remote Sensing, v.38, n.8, p. 2427-

2447.

TORRES-SANCHEZ, J.; PENA, J. M.; DE CASTRO, A. I.; LOPEZGRANADOS, F. Multi-

temporal mapping of the vegetation fraction in early-season wheat fields using images from

UAV. Computers and Electronics in Agriculture, v.103, p. 104-113, 2014.

TSO, B.; OLSEN, R. C. Combining spectral and spatial information into hidden Markov

models for unsupervised image classification. International Journal of Remote Sensing,

v.26, p. 2113–2133, 2005.

UTO, K.; SEKI, H.; SAITO, G.; KOSUGI, Y. Characterization of Rice Paddies by a UAV-

Mounted Miniature Hyperspectral Sensor System. IEEE J. Sel. Top. Appl. Earth Obs.

Remote Sens., v.6, n.2, p. 851-860, 2013.

98

UNITED STATES AIR FARCE. Operational risk management (ORM) guidelines and tools.

Air Force Pamphlet, p. 91-215, 1998.

VERRELST, J.; SCHAEPMAN, M. E.; KOETZ, B.; KNEUBUEHLER, M. Angular

sensitivity analysis of vegetation índices derived from chris/proba data. Remote Sens.

Environ., v.12, p. 2341-2353, 2008.

VIÑA, A.; GITELSON, A. A.; NGUY-ROBERTSON, A. L.; PENG, Y. Comparison of

different vegetation indices for the remote assessment of green leaf area index of crops.

Remote Sensing of Environment, v.115, p. 3468-3478, 2011.

VEGA, F. A.; RAMIREZ, F. C.; SAIZ, M. P.; ROSÚA, F. O. Multi-temporal imaging using

an unmanned aerial vehicle for monitoring a sunflower crop. Biosyst. Eng., v.132, p. 19-27,

2015.

VIEIRA, A. J.; GARRET, J. M. Understanding Interobserver Agreement: The Kappa

Statistic. Research Series, v.37, n.5, p. 360-363, 2005.

VALASEK, J. HENRICKSON, J. V.; BOWDEN, E.; SHI, Y.; MORGAN, C. L. S.; NEELY,

H. L. Multispectral and DSLR Sensors for Assessing Crop Stress in Corn and Cotton Using

Fixed-Wing Unmanned Air Systems. Proc. SPIE, Autonomous Air and Ground Sensing

Systems for Agricultural Optimization and Phenotyping, v.9866, p. 98660L, 2016.

VALAVANIS, K. P.; VACHTSEVANOS, G. J. Introduction to the Handbook on UAVs. In:

VALAVANIS, K. P.; VACHTSEVANOS G. J. (Org.). Handbook of Unmanned Aerial

Vehicles. New York: Springer, 2015. p. 6-42.

VILJANEN, N.; HONKAVAARA, E.; NASI, R.; HAKALA, T.; NIEMELAINEN, O.;

KAIVOSOJA, J. A Novel Machine Learning Method for Estimating Biomass of Grass

Swards Using a Photogrammetric Canopy Height Model, Images and Vegetation Indices

Captured by a Drone. Agriculture, v.8, p. 70, 2018.

VAN, S. M.; HAHL, T.; WAGG, C.; DE, G. D.; FLYNN, D.; ZUPPINGERDINGLEY, D.;

SCHMID, B. Community evolution increases plant productivity at low diversity. Ecology

Letters, v.21, n.1, p. 128-137, 2018.

VISHWANATH, N.; RAMESH, B.; SREENIVASA, R. P. Unsupervised classification of

remote sensing images using K-means algorithm. International Journal of Latest Trends in

Engineering and Technology (IJLTET), v.7, n.2, p. 548-552, 2016.

VERGER, A.; VIGNEAU, N.; CHÉRON, C.; GILLIOT, J. M.; COMAR, A.; BARET, F.

Green area index from an unmanned aerial system over wheat and rapeseed crops. Remote

Sensing of Environment, v.152, p. 654-664, 2014.

WANG, X.; WANG, M.; WANG, S.; WU, Y. Extraction of vegetation information from

visible unmanned aerial vehicle images. Trans. Chin. Soc. Agric. Eng., v.31, p. 152-159,

2015.

99

WILDENHAIM, J.; SPITZER, M.; DOLMA, S.; JARVIK, N.; WHITE, R.; ROY, M.;

GRIFFITHS, E.; BELLOWS, D. S.; WRIGHT, G. D.; TYERS, M. Prediction of Synergism

from Chemical-Genetic Interactions by Machine Learning. Cell Syst., v.1, p. 383-395, 2015.

WATSON, J.E.M.; DUDLEY, N.; SEGAN, D.B.; HOCKINGS, M. The performance and

potential of protected areas. Nature, v.515, p.67–73, 2014.

WESTER-EBBINGHAUS, W. Aerial Photography by Radio Controlled Model Helicopter.

The Photogrammetric Record, v.10, n.55, p. 85-92, 1980.

WAN, L.; LI, Y.; CEN, H.; ZHU, J.; YIN, W.; WU, W.; ZHU, H.; SUN, D.; ZHOU, W.; HE,

Y. Combining UAV-Based Vegetation Indices and Image Classification to Estimate Flower

Number in Oilseed Rape. Remote Sensing, v.10, n.9, p. 1-18, 2018.

WAN, H.; WANG, Q.; JIANG, D.; FU, J.; YANG, Y.; LIU, X. 2014. Monitoring the

Invasion of Spartina Alterniflora Using Very High Resolution Unmanned Aerial Vehicle

Imagery in Beihai, Guangxi (China). The Scientific World Journal, v.2014, p. 1–7, 2014.

WICKHAM, H.; FRANÇOIS, R.; HENRY, L.; MULLER, K. (2019). dplyr: A Grammar of

Data Manipulation. R package version 0.8.3. https://CRAN.R-project.org/package=dplyr.

WHITEHEAD, K.; HUGENHOLTZ, C.H. Remote sensing of the environment with small

unmanned aircraft systems (UASs), part 1: A review of progress and challenges. J.

Unmanned Veh. Syst., v.2, p. 69-85, 2014.

XUE, J.; SU, B. Significant Remote Sensing Vegetation Indices: A Review of Developments

and Applications. Journal of Sensors, v. 2017, p. 1-17, 2017.

XIANG, H.; TIAN, L. Development of a Low-cost Agricultural Remote Sensing System

Based on an Autonomous Unmanned Aerial Vehicle (UAV). Biosyst Eng., v.108, n.2, p. 174-

190, 2011.

XIANG, M.; HUNG, C.; PHAM, M.; KUO, B.; COLEMAN, T.; 2005, Parallelepiped

multispectral image classifier using genetic algorithms. In: Proceedings of IEEE International

Geoscience and Remote Sensing Symposium (IGARSS’05), Seoul, Korea, 2005. p. 1-4.

YUE, J.; YANG, G.; LI, C.; LI, Z.; WANG, Y.; FENG, H.; XU, B. Estimation of Winter

Wheat Above-Ground Biomass Using Unmanned Aerial Vehicle-Based Snapshot

Hyperspectral Sensor and Crop Height Improved Models. Remote Sens., v.9, p. 708, 2017.

YANE, D. Research and Analysis about System of Digital Agriculture Based on a Network

Platform. In: International Conference on Computer and Computing Technologies in

Agriculture, Springer Berlin Heidelberg, 2010. p. 274-282.

YADAV, R.; SHARMA, A. Advanced Methods to Improve Performance of K-Means

Algorithm: A Review. Global Journals Inc. (USA), v.12, n.9, p. 47-52, 2012.

100

YANG, G.; LIU, J.; ZHAO, C.; LI, Z.; HUANG, Y.; YU, H.; XU, B.; YANG, X.; ZHU, D.;

ZHANG, X.; ZHANG, R.; FENG, H.; ZHAO, X.; LI, Z.; LI, H.; YANG, H. Unmanned

Aerial Vehicle Remote Sensing for Field-Based Crop Phenotyping: Current Status and

Perspectives. Frontiers in Plant Science, v.8, n.1111, p.1-26, 2017. DOI:

10.3389/fpls.2017.01111

YOUNGBLOOD, J. W., JACKSON, R. D. Airborne Reconnaissance in the Civilian Sector:

Agricultural Monitoring from High-Altitude Powered Platforms. Proceedings of SPIE 424,

182-189, 1983.

ZAMBRANO-BIGIARINI, M. 2017. hydroGOF: Goodness-of-fit functions for

comparison of simulated and observed hydrological time series. R package version 0.3-10.

URL http://hzambran.github.io/hydroGOF/. DOI:10.5281/zenodo.840087.

ZHANG, Q.; QIN, R.; HUANG, X.; FANG, Y.; LIU, L. Classification of ultra-high

resolution orthophotos combined with DSM using a dual morphological top hat profile.

Remote Sens., v.7, p. 16422-6440, 2015.

ZAMAN, B.; JENSEN, A. M.; MCKEE, M. Use of High-Resolution Multi-Spectral Imagery

Acquired with an Autonomous Unmanned Aerial Vehicle to Quantify the Spread of an

Invasive Wetlands Species. In: Proc. IEEE Int. Geoscience and Remote Sensing Symp.

(IGARSS), 2011. p. 803-806.

ZILIANI, M. G.; PARKES, S. D.; HOTEIT, I.; MCCABE, M. F. Intra-Season Crop Height

Variability at Commercial Farm Scales Using a Fixed-Wing UAV. Remote Sens., v.10, p.

2007, 2018.

ZHANG, Q.; MIDDLETON, E. M.; CHENG, Y. B.; HUEMMRICH, K. F.; COOK, B. D.;

CORP, L. A.; KUSTAS, W. P.; RUSS, A. L.; PRUEGER, J. H.; YAO, T. Integrating

Chlorophyll fAPAR and Nadir Photochemical Reflectance Index from EO-1/Hyperion to

Predict Cornfield Daily Gross Primary Production. Remote Sensing of Environment, v.186,

p. 311-321, 2016.

ZARCO-TEJADA, P. J.; GONZÁLEZ-DUGO, V.; BERNI, J. A. J. Fluorescence,

Temperature and Narrow-Band Indices Acquired from a UAV Platform for Water Stress

Detection Using a MicroHyperspectral Imager and a Thermal Camera. Remote Sensing of

Environment, v.117, p. 322-337, 2012.

ZHANG, X.; NANSEN, C.; ARYAMANESH, N.; YAN, G.; BOUSSAID, F. Importance of

spatial and spectral data reduction in the detection of internal defects in food products. Appl.

Spectrosc., v.69, n.4, p. 473-480, 2015.

ZHENG, H.; CHENG, T.; LI, D.; ZHOU, X.; YAO, X.; TIAN, Y.; CAO, W.; ZHU, Y.

Evaluation of RGB, Color-Infrared and Multispectral Images Acquired from Unmanned

Aerial Systems for the Estimation of Nitrogen Accumulation in Rice. Remote Sensing, v.10,

p. 1-17, 2018.

101

ZARCO-TEJADA, P. J.; GUILLÉN-CLIMENT, M.; HERNÁNDEZ-CLEMENTE, R.;

CATALINA, A.; GONZÁLEZ, M.; MARTIN, P. Estimating leaf carotenoid content in

vineyards using high resolution hyperspectral imagery acquired from an unmanned aerial

vehicle (UAV). Agric. For. Meteorol., v.171, p. 281-294, 2013.

ZHANG, C.; WALTERS, D.; KOVACS, J. M. 2014. Applications of Low Altitude Remote

Sensing in Agriculture upon Farmers’ Requests– A Case Study in Northeastern Ontario,

Canada. PLOS ONE, v.9, n.11, p. 1-9, 2014.

ZALOGA, S. J. Unmanned Aerial Vehicles: Robotic Air Warfare 1917-2007. New York:

Osprey, 2008. 48 p.

ZHANG, C.; KOVACS, J. M. The application of small unmanned aerial systems for precision

agriculture: a review. Precis. Agric., v.13, p. 693-712, 2012.

ZHOU, X.; ZHENG, H. B.; XU, X. Q.; HE, J. Y.; GE, X. K.; YAO, X.; CHENG, T.; ZHU,

Y.; CAO, W. X.; TIAN, Y. C. Predicting grain yield in rice using multi-temporal vegetation

indices from uav-based multispectral and digital imagery. ISPRS J. Photogramm., v.130, p.

246-255, 2017.

ZHANG, Y.; SU, Z.; SHEN, W.; JIA, R.; LUAN, J. Remote monitoring of heading rice

growing and nitrogen content based on UAV images. Int. J. Smart Home, v.10, n.7, p. 103-

114, 2016.

ZHANG, L.; WANG, B.; PENG, W.; LI, C.; LU, Z.; GUO, Y. Forest Fire Detection Solution

Based on UAV Aerial Data. International Journal of Smart Home, v.9, n.8, 2015), p.239-

250, 2015. DOI: 10.14257/ijsh.2015.9.8.25.