otimização e metodos numericos(1)
TRANSCRIPT
-
7/23/2019 Otimizao e metodos numericos(1)
1/262
METODOS COMPUTACIONAIS
DE OTIMIZACAO
Jose Mario Martnez
Sandra Augusta Santos
Departamento de Matematica AplicadaIMECC-UNICAMP
1995Atualizado em dezembro de 1998
-
7/23/2019 Otimizao e metodos numericos(1)
2/262
INDICE
1. INTRODUCAO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1 UMA CLASSIFICACAO INFORMAL . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 UM PROBLEMA DE ESTIMACAO DE PARAMETROS ...... 31.3 DEFININDO MINIMIZADORES ............................... 7
2. CONDICOES DE OTIMALIDADE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.1 RESTRICOES EM FORMATO GERAL .. . . . . . . . . . . . . . . . . . . . . 122.2 RESTRICOES DE IGUALDADE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.3 RESTRICOES DE DESIGUALDADE .. . . . . . . . . . . . . . . . . . . . . . . . 202.4 RESTRICOES DE IGUALDADE E DESIGUALDADE . . . . . . . 22
3. CONVEXIDADE E DUALIDADE .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253.1 CONVEXIDADE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263.2 DUALIDADE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4. MINIMIZACAO DE QUADRATICAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374.1 QUADRATICAS SEM RESTRICOES . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.1 USANDO FATORACOES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414.1.2 O CASO ESPARSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444.1.3 METODOS ITERATIVOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 QUADRATICAS EM BOLAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 544.3 QUADRATICAS EM CAIXAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 0
5. SISTEMAS DE EQUACOES NAO-LINEARES . . . . . . . . . . . . . . . . . . . . 735.1 O METODO DE NEWTON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 745.2 METO D O S Q U A S E- N EWTO N .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 765.3 METODOS DE NEWTON INEXATOS . . . . . . . . . . . . . . . . . . . . . . . 795.4 CONVERGE N C I A L O C A L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 3
5.4.1 O TEOREMA DAS DUAS VIZINHANCAS . . . . . . . . . . . . . 855.4.2 CONVERGENCIA QUADRATICA DE NEWTON . . . . . . 875.4.3 CONVERGENCIA DOS QUASE-NEWTON ............ 895.4.4 CONVERGENCIA DOS NEWTON INEXATOS . . . . . . . . 95
6. MINIMIZACAO IRRESTRITA E BUSCA LINEAR . . . . . . . . . . . . . . . 99
i
-
7/23/2019 Otimizao e metodos numericos(1)
3/262
6.1 ALGORITMOS GERAIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 996.2 O METODO DE NEWTON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1076.3 METO D O S Q U A S E- N EWTO N .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1126.4 METODOS DE NEWTON TRUNCADOS ................... 122
7. REGIOES DE CONFIANCA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1257 . 1 A L G O R I T M O G E R A L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 67.2 METODO DE NEWTON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1277.3 MINIMIZACAO EM CAIXAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
8. MINIMIZACAO UNIDIMENSIONAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1458.1 METODOS DIRETOS PARA REDUCAO DE INCERTEZA . 1458.2 APROXIMACOES POLINOMIAIS . . . . . . . . . . . . . . . . . . . . . . . . . . 1488.3 TECNICAS DE MINIMIZACAO GLOBAL . . . . . . . . . . . . . . . . . . 152
9. RESTRICOES LINEARES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
9.1 IGUALDADES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1569.2 ESTRATEGIA DE RESTRICOES ATIVAS . . . . . . . . . . . . . . . . . . 1589.3 SAINDO DA FACE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1619.4 REDUCAO A CAIXAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1639.5 PONTOS INTERIORES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
1 0 . P E N A L I D A D E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 7 110.1 METODOS DE BARREIRAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17210.2 PENALIDADE EXTERNA .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17910.3 LAGRANGIANO AUMENTADO . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
11. GRADIENTE REDUZIDO GENERALIZADO ................... 19511.1 RESTRICOES DE IGUALDADE . . . . . . . . . . . . . . . . . . . . . . . . . . . 19611.2 GRG COM DESIGUALDADES ............................ 20011.3 IMPLEMENTACAO COMPUTACIONAL . . . . . . . . . . . . . . . . . . 202
12. PROGRAMACAO QUADRATICA SEQUENCIAL .............. 20512.1 PROGRAMACAO QUADRATICA SEQUENCIAL PURA 20612.2 FORCANDO SOLUBILIDADE DO SUBPROBLEMA . . . . . . 20812.3 A FUNCAO DE ME R I T O . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1 012.4 DECRESCIMO SUFICIENTE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21312.5 O PARAMETRO DE PENALIDADE ....................... 21612.6 O ALGORITMO ESTA BEM DEFINIDO .. . . . . . . . . . . . . . . . . 219
12.7 A PROVA DE CONVERGENCIA GLOBAL . . . . . . . . . . . . . . . . 223
ii
-
7/23/2019 Otimizao e metodos numericos(1)
4/262
12.8 A HESSIANA DA QUADRA T I C A . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 612.9 OUTRAS FUNCOES DE MERITO . . . . . . . . . . . . . . . . . . . . . . . . . 22912.10 NOTAS HISTO R I C A S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 3 3
BIBLIOGRAFIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
iii
-
7/23/2019 Otimizao e metodos numericos(1)
5/262
Chapter 1
Introducao
Otimizacao e um problema matematico com muitas aplicacoes no mundoreal. Consiste em encontrar os mnimos ou maximos de uma funcao devarias variaveis, com valores dentro de uma determinada regiao do espaco
multi-dimensional. Os responsaveis pela tomada de decisoes nos mais vari-ados campos da atividade humana defrontam-se, cotidianamente, com essetipo de necessidade. As vezes, a ndole do problema, a demanda de re-sultados precisos, ou a propria curiosidade, leva a formalizar variaveis, re-stricoes e objetivos, de maneira que a natureza matematica do problemaemerge. Esse e o processo de modelagem, que descobre isomorfismos entrea realidade emprica e o idealismo dos objetos matematicos. No entanto,a correspondencia entre experiencia e modelo formal esta longe de ser per-feita: a traducao esta sujeita a erros, simplificacoes e falhas de comunicacao.Notavelmente, a problematica de adequar um modelo matematico a umasituacao real tambem pode ser formulada como um problema matematico,
quase sempre de otimizacao.
1.1 Uma classificacao informal
O problema a ser considerado neste livro e o seguinte:
Minimizar f(x) sujeita a x IRn. (1.1.1)
A funcao f e chamada funcao objetivo e o conjunto , frequentementedefinido por um conjunto de igualdades e desigualdades, e o conjunto factvel.
Os pontos de serao os pontos factveis de (1.1.1).
1
-
7/23/2019 Otimizao e metodos numericos(1)
6/262
2 CHAPTER 1. INTRODUC AO
De fato, estamos tao interessados em minimizarcomo em maximizarfuncoes,mas falaremos apenas de minimizar dado que, claramente, maximizar f(x)em uma regiao qualquer do espaco IRn e equivalente a minimizar f(x) namesma regiao. As solucoes x do problema (1.1.1) serao chamadas min-imizadores e os valores correspondentes f(x) sao os mnimos do problema.
Quase sempre assumiremos a continuidade de f e, com frequencia um p oucomenor, a existencia de derivadas primeiras contnuas. As vezes, vamos suportambem que f tem derivadas segundas contnuas.Conforme as caractersticas do conjunto , teremos os diferentes problemasde otimizacao:
Problema
IRn minimizacao sem restricoes{x IRn | l x u} minimizacao em caixas
{x
IRn
|Ax = b, A
IRm
n
}minimizacao com restricoes
lineares de igualdade{x IRn | Ax = b,Cx d} minimizacao com restricoes
lineares
{x IRn | h(x) = 0, h : IRn IRm} minimizacao com restricoesde igualdade
{x IRn | h(x) = 0, h : IRn Rm problema geral dee g(x) 0, g : IRn IRp} programacao nao linear
Quando v e w sao vetores, a notacao v w significara sempre vi wi paratodas suas coordenadas. Assim, quando falamos da caixa l x u,entendemos o conjunto dos x
IRn tais que li
xi
ui para todo i =
1, . . . , n. O problema geral de programacao nao linear pode ser reduzidosempre a uma forma padrao mediante a introducao de variaveis de folga.Com efeito, observamos que o conjunto dos x IRn tais que h(x) = 0 eg(x) 0 coincide com o conjunto
{x IRn | h(x) = 0 e g(x) + z = 0 para algum z 0}.Portanto, o problema
Minimizar f(x) sujeita a h(x) = 0, g(x) 0, (1.1.2)onde h : IRn IRm, g : IRn IRp, e equivalente a
Minimizar f(x) sujeita a h(x) = 0, g(x) + z = 0, z 0. (1.1.3)
-
7/23/2019 Otimizao e metodos numericos(1)
7/262
1.2. UM PROBLEMA DE ESTIMAC AO DE PARAMETROS 3
Agora, mudando os nomes de variaveis e funcoes, (1.1.3) tem a forma geral
Minimizar f(x) sujeita a h(x) = 0, x 0. (1.1.4)
A forma (1.1.4) de um problema de programacao nao linear se denomina
forma padrao. Quando um problema do tip o (1.1.2) e transformado na suaforma padrao, o numero de variaveis e aumentado em p. As vezes, isso euma desvantagem. No entanto, a transformacao muitas vezes se justificapor consideracoes algortmicas, como veremos em captulos futuros.
Neste livro a enfase estara colocada em funcoes objetivo f(x) nao lineares.Quando f e linear (f(x) = cTx para algum c IRn) o problema de min-imizacao com restricoes lineares e chamado de problema de programacaolinear. Na sua forma padrao, este problema e
Minimizar cTxAx = bx
0 .
(1.1.5)
O conteudo deste livro se aplica a programacao linear, embora, p ela especifi-cidade deste problema, muito desse conteudo seja superfluo. Por outro lado,as particularidades do problema (1.1.5) permitem um tratamento muito maisrico e detalhado, que nao sera feito aqui. Em menor medida, essa observacaovale tambem no caso em que a funcao objetivo e quadratica e as restricoeslineares, chamado problema de programacao quadratica.
1.2 Um problema de estimacao de parametros
Quando o ponto de partida e um problema real, podem existir varios prob-lemas matematicos de otimizacao associados, vinculados a diferentes for-mulacoes ou a diferentes tecnicas de resolucao. Nesta secao apresentamosum problema de estimacao de parametros originado na Otica, para o qualexibimos algumas formulacoes sob o ponto de vista da otimizacao. Ver [189],[33].
Um filme e um material muito fino, cuja espessura, ndices de refracao e coe-ficientes de absorcao se deseja estimar. Esses parametros nao sao suscetveisde medicao direta, ou seja, devem ser inferidos da medicao de outra magni-tude fsica. O experimento que gera a medicao indireta consiste, brevemente,no seguinte: coloca-se o material em cima de um substrato transparente e
atravessa-se filme e substrato com luz de diferentes comprimentos de onda.
-
7/23/2019 Otimizao e metodos numericos(1)
8/262
4 CHAPTER 1. INTRODUC AO
Para fixar ideias, esses comprimentos podem ir desde 800 ate 2000, com in-tervalos de 10, nas unidades adequadas. Para cada comprimento de onda ,mede-se a transmissao T() [0, 1], isto e, o quociente, adimensional, entrea luz que atravessa o filme e a luz emitida. Teoricamente, T() se relacionacom a espessura (d), o coeficiente de absorcao (()) e o ndice de refracao
do filme (n()) atraves das seguintes formulas (por simplicidade, escrevemosT = T(), n = n(), = ()):
T =Ax
B Cx + Dx2 , (1.1.6)onde
A = 16s(n2 + k2) (1.1.7)
B = [(n + 1)2 + k2][(n + 1)(n + s2) + k2] (1.1.8)
C = [(n2 1 + k2)(n2 s2 + k2) 2k2(s2 + 1)]2 cos
k[2(n2
s2 + k2) + (s2 + 1)(n2
1 + k2)]2 sin (1.1.9)
D = [(n 1)2 + k2][(n 1)(n s2) + k2] (1.1.10) = 4nd/, x = exp(d), k = /(4). (1.1.11)
Nas formulas (1.1.6)(1.1.11) s e o ndice de refracao do substrato, supostoconhecido e constante para todo . O experimento fsico fornece uma tabelade dados onde a coluna da esquerda sao os comprimentos de onda i usados,desde 1 = 800 ate m = 121 = 2000, e a coluna da direita esta formadapelas medidas correspondentes de transmissao (Ti). As formulas (1.1.6)(1.1.11) definem a funcao teorica T(,d,n,). Portanto, a primeira vista,o objetivo parece ser encontrar d e ni, i, i = 1, . . . , m tais que, para todoi = 1, . . . , m,
T(i, d , ni, i) = Ti. (1.1.12)
Agora, para cada valor possvel da espessura d, a equacao (1.1.12) temduas incognitas, ni e i. Portanto, o mais provavel e que tenha infinitassolucoes e que, de fato, nao seja difcil encontrar p elo menos uma. Por ex-emplo, fixando arbitrariamente ni e resolvendo (1.1.12) para a agora unicaincognita i. Claro que esse nao pode ser o procedimento que resolva oproblema fsico. Fsicamente, o problema deve ter solucao unica, enquantoda maneira descrita, infinitas solucoes diferentes poderiam ser encontradas.De fato, os graus de liberdade inerentes a (1.1.12) sao drasticamente reduzi-dos incorporando informacoes fisicamente conhecidas, algumas obvias, sobre
d, e n. Essas informacoes sao:
-
7/23/2019 Otimizao e metodos numericos(1)
9/262
1.2. UM PROBLEMA DE ESTIMAC AO DE PARAMETROS 5
(a) Tanto a espessura como os coeficientes ni e i sao positivos. Mais ainda,os ndices de refracao sao maiores ou iguais a 1.(b) () deve ser uma funcao decrescente e convexa (derivada segunda pos-itiva).(c) n() deve ser uma funcao decrescente e, tambem, com derivada segunda
positiva.As condicoes (a), (b) e (c) devem ser traduzidas como restricoes do prob-lema de estimar os parametros. Ou seja, devem ser encontradas expressoesmatematicas envolvendo d, i e ni que espelhem essas condicoes. Discretizandoas derivadas segundas de () e n(), essas expressoes sao:
d 0, ni 1, i 0 para todo i = 1, . . . , n; (1.1.13)
i+1 i e ni+1 ni para todo i = 1, . . . , m 1; (1.1.14)
ni ni1 + ni+1 ni1i+1 i1 (i i+1) e i i1 +
i+1 i1i+1 i1 (i i+1)
(1.1.15)para todo i = 2, . . . , m 2.Considerando o objetivo (1.1.12) e as restricoes (1.1.13), (1.1.14) e (1.1.15),o problema de estimacao dos parametros pode agora ser modelado assim:
Minimizarmi=1
[T(i, d , ni, i) Ti]2 sujeita a (1.1.13), (1.1.14) e (1.1.15).(1.1.16)
Observamos que (1.1.16) e um problema de minimizacao com restricoes lin-eares onde ha 2m + 1 variaveis. Se a tabela de dados (i, Ti) obedecesseperfeitamente as formulas teoricas deveria existir uma solucao de (1.1.16)onde o valor da funcao objetivo seria 0. Com dados experimentais naoe isso o que acontece. De fato, o que se observa nesse caso, usando ometodo adequado para resolver (1.1.16) e a aparicao de solucoes ondea funcao objetivo toma um valor sensivelmente maior que 0. Isto se deve,alem dos erros de medicao que neste caso sao, provavelmente, desprezveis, aque a suposicao substrato transparente com s constante e essencialmentefalsa. Com efeito, para determinadas zonas do espectro (valores de ) o sub-strato usado tem um coeficiente de absorcao positivo (nao e transparente)e, portanto, para essas zonas as equacoes (1.1.6)-(1.1.11) nao se aplicam.
Pior ainda, a distincao entre valores de para os quais o substrato nao e
-
7/23/2019 Otimizao e metodos numericos(1)
10/262
6 CHAPTER 1. INTRODUC AO
transparente daqueles para os quais e, nao e totalmente clara. O grau deaplicabilidade de (1.1.6)-(1.1.11) e de fato, um contnuo, variando entre aaplicabilidade e a nao aplicabilidade absoluta. Um experimento adicional,que mede a transmissao produzida apenas pelo substrato (sem o filme), per-mite quantificar o grau de aplicabilidade das f ormulas. Diremos, entao, que
algumas equacoes (1.1.12) devem ser satisfeitas com um peso alto e outrascom um peso muito baixo. Atribuindo efetivamente um peso i > 0 a cadaequacao, de acordo com a transparencia do substrato para o comprimentode onda i, o problema (1.1.16) e substitudo por
Minimizarmi=1
i[T(i, d , ni, i)Ti]2 sujeita a (1.1.13), (1.1.14) e (1.1.15).(1.1.17)
A atribuicao de pesos as diferentes linhas da tabela original tem o efeitopratico de eliminar a influencia dos pontos onde o modelo esta claramenteerrado. Isto aumenta os graus de liberdade do sistema total, e possibilita aexistencia de muitas solucoes de (1.1.17), onde a funcao objetivo tem prati-camente o mesmo valor. O metodo de otimizacao encontrou uma dessassolucoes. As vezes, pela observacao da solucao obtida, o fsico tem condicoesde decidir se ela e razoavel ou nao. Neste problema particular, nosso exper-imentador encontra uma caracterstica da funcao considerada indesejavele sem sentido fsico: apesar de ser decrescente e convexa, a funcao obtidaesta formada por 4 segmentos de reta, violando uma suavidade adicionalesperavel no coeficiente de absorcao real. Como os pontos de quebra dosdiferentes segmentos de reta podem ser considerados como pontos onde acurvatura da funcao e muito grande, optamos por limitar o raio de curvaturade e incluir explicitamente essa limitacao no modelo. O calculo elementarnos ensina que o raio de curvatura R() de () e dado por
1
R()=
()
(1 + ()2)3
2
. (1.1.18)
Discretizando e da forma usual, para todo i, i = 2, . . . , m 1, eestabelecendo uma limitacao > 0 para a curvatura obtemos as novasrestricoes
(i)
(1 + (i)2)3
2
, (1.1.19)
onde as derivadas devem ser interpretadas como sua discretizacao usandoi1, i+1 e i.Acrescentando (1.1.19) no modelo (1.1.17) passamos a ter m
2 restricoes
adicionais, todas elas nao lineares. O problema ficou sensivelmente mais
-
7/23/2019 Otimizao e metodos numericos(1)
11/262
1.3. DEFININDO MINIMIZADORES 7
difcil, mas sua solucao tem maiores chances de possuir sentido fsico. Umaalternativa, motivada pelo fato de que, estritamente falando, a cota earbitraria, consiste em incorporar as restricoes (1.1.19) na funcao objetivo.Assim, a funcao objetivo de (1.1.17) passaria a ser
mi=1
i[T(i, d , ni, i) Ti]2 + m
1
i=2
(i)(1 + (i)2)
3
2
. (1.1.20)
Em (1.1.20), e um parametro que castiga o fato de se ter uma curvaturagrande em i. Desta maneira, nao e necessario acrescentar as restricoes(1.1.19) no problema (1.1.17).A inclusao de (1.1.19) na sua forma original ou sob a forma (1.1.20) reduz,claramente, os graus de liberdade do problema e, em consequencia, aumentaa probabilidade de encontrar coeficientes com sentido fsico. Se isso e efeti-vamente conseguido depende de (muita) experimentacao numerica, dialogocom os cientistas experimentais e sensibilidade especfica. A construcao deum bom modelo de otimizacao raramente se esgota em dois ou tres passosde dialogo.
1.3 Definindo minimizadores
Daremos sentidos precisos aos termos minimizador e mnimo usados nassecoes anteriores. Basicamente, veremos que esses termos podem ter doissignificados:
(a) Dizemos que x e minimizador global de (1.1.1) se f(x) f(x) paratodo x
. Neste caso, f(x
) e chamado mnimo de f em .
(b) Dizemos que x e minimizador local de (1.1.1) se existe > 0 tal quef(x) f(x) para todo x tal que x x .
Tambem, costuma-se dizer que x e minimizador local estrito de (1.1.1) seexiste > 0 tal que f(x) < f(x) para todo x tal que 0 < x x .
Claramente, todos os minimizadores globais tambem sao minimizadores lo-cais. E facil ver que, por outro lado, apesar de poder admitir muitos mini-mizadores globais, o valor do mnimo global e sempre o mesmo. Por exemplo,numa funcao constante, todos os pontos de sao minimizadores globais, mas
em todos eles o valor de f e igual.
-
7/23/2019 Otimizao e metodos numericos(1)
12/262
8 CHAPTER 1. INTRODUC AO
Lembramos que um conjunto compacto e tal que toda sequencia {xk} admite uma subsequencia convergente. O limite dessa subsequencia devepertencer a . Por outro lado, em IRn, os conjuntos compactos sao ex-atamente os fechados e limitados. Como a imagem inversa de conjuntosfechados por funcoes contnuas e fechada, o conjunto factvel do problema
geral de programacao linear e fechado no caso usual em que as funcoes gi ehi sao contnuas. Portanto, para ser compacto, esse conjunto precisa, ap e-nas, ser limitado. O seguinte teorema, de prova bastante simples, e o maisimportante da minimizacao global.
Teorema 1.3.1 - Bolzano-Weierstrass
Se e compacto, e f : IR e contnua, ent ao existe x minimizadorglobal do problema (1.1.1).
Prova: Consideremos primeiro a possibilidade de que f nao seja limitadainferiormente em . Entao, para cada k N, existe xk tal que
f(xk) k,
portanto,
limk
f(xk) = . (1.1.21)
Como e compacto, existe K1 um subconjunto infinito de N tal que asubsequencia {xk}kK1 converge a um ponto de , digamos x. Pela con-tinuidade de f, isto implica que
limkK1
f(xk) = f(x),
o que entra em contradicao com (1.1.21).
Podemos aceitar, portanto, que f e limitada inferiormente em . Seja
= infx
f(x) > .
Pela definicao de nfimo, para todo k N, existe xk tal que
f(xk) + 1k
,
portanto
limk f(xk) = .
-
7/23/2019 Otimizao e metodos numericos(1)
13/262
1.3. DEFININDO MINIMIZADORES 9
Seja {xk}kK1 uma subsequencia convergente de {xk} e seja x seu limite.Entao, pela continuidade de f,
= limkK1
f(xk) = f(x).
Ou seja, f(x) assume o valor nfimo de f no conjunto . Isto implica quex e minimizador global de (1.1.1). QED
Exerccio 1.1: As restricoes do problema (1.1.17) podem ser expressascomo Ax b, l x u. Identificar a matriz A e os vetores b, l e u.
Exerccio 1.2: Encontrar exemplos onde todos os pontos de sao mini-mizadores locais mas f(x) = f(y) se x = y.
Exerccio 1.3: Desenhar conjuntos em IR2 e curvas de nvel de funcoesf tais que existam varios minimizadores locais, globais, locais e globais, etc.
Exerccio 1.4: Demonstrar o teorema Bolzano-Weierstrass para o caso emque f e semi-contnua inferiormente.
Exerccio 1.5: Mostrar, com exemplos, que acontece quando as hipotesesde continuidade e compacidade do teorema Bolzano-Weierstrass sao elimi-nadas.
Exerccio 1.6: Provar que se f e contnua em IRn e limx
f(x) = entaof tem minimizador global em IRn.
Exerccio 1.7: Provar que se f e contnua em IRn
e, dado x0 IRn
, o con-junto de nvel {x IRn | f(x) f(x0)} e limitado, entao f tem minimizadorglobal em IRn.
-
7/23/2019 Otimizao e metodos numericos(1)
14/262
10 CHAPTER 1. INTRODUC AO
-
7/23/2019 Otimizao e metodos numericos(1)
15/262
-
7/23/2019 Otimizao e metodos numericos(1)
16/262
12 CHAPTER 2. CONDIC OES DE OTIMALIDADE
primeiras contnuas em um ab erto que contem o conjunto . Denotamos
f(x) = f(x)T = ( fx1
(x), . . . ,f
xn(x))T.
Indicamos, como e usual, f
Ck() para expressar que f tem derivadas
contnuas ate a ordem k no aberto que contem . A expressao f Ckindica que f tem derivadas contnuas ate a ordem k num aberto que contemo domnio nao especificado de f.A notacao A 0 para A IRnn indica que A e semidefinida positiva. Damesma forma, A > 0 significa que A e definida positiva.
2.1 Restricoes em formato geral
Consideremos o problema
Minimizar f(x)x . (2.1.1)
As curvas no conjunto desempenham um papel importante na derivacaode condicoes praticas de otimalidade. A primeira condicao de otimalidadeque obteremos esta baseada apenas no comportamento da funcao objetivoem cima de curvas factveis que passam pelo ponto considerado. Apesar desua generalidade, esta condicao de otimalidade e usada no desenvolvimentode algoritmos modernos de minimizacao (pontos limite desses algoritmossatisfazem a condicao). Ver [142], [144].
Definicao 2.1.1Dado x , chamamos curva em partindo de x a uma funcao contnua : [0, ] tal que > 0 e (0) = x.
Definicao 2.1.2Dado x , chamamos curva em de classe Ck partindo de x a umafuncao : [0, ] tal que > 0, (0) = x e Ck[0, ].
Teorema 2.1.3 - Condicao necessaria de primeira ordem baseadaem curvasSeja x minimizador local de (2.1.1), e uma curva em de classe C1
partindo de x
. Entao
f(x
)T(0)
0.
-
7/23/2019 Otimizao e metodos numericos(1)
17/262
-
7/23/2019 Otimizao e metodos numericos(1)
18/262
14 CHAPTER 2. CONDIC OES DE OTIMALIDADE
Dado x , dizemos que e uma curva em de classe Ck passando por xse : [, ] , > 0, (0) = x e Ck.
Lema 2.1.8Se x
e um minimizador local de (2.1.1) e e uma curva em de
classe C1 passando por x, entao f(x)T(0) = 0.Prova: Definimos 1 : [0, ] por 1(t) = (t) e 2 : [0, ] por2(t) = (t). Pelo Teorema 2.1.3,
f(x)T1(0) 0 e f(x)T2(0) 0.
Mas 1(0) = (0) e 2(0) = (0), logo f(x)T(0) = 0. QED
Corolario 2.1.9 - Condicao necessaria de segunda ordem para xno interior de (ou = IRn).Seja x
minimizador local de (2.1.1), x
ponto interior de . Se f tem
derivadas segundas contnuas numa vizinhanca de x entao f(x) = 0 e2f(x) 0.
Prova: Seja d IRn, d = 0, arbitrario. Seja : [, ] a curva definidapor (t) = x + td. Pelo Corolario 2.1.4 e o Lema 2.1.8,
f(x)Td f(x)T(0) = 0.
Como d e arbitrario, segue que f(x) = 0. Definindo : [, ] IR por(t) = f[(t)], temos (0) = f(x)T(0) = 0 e pelo Teorema 2.1.6,
0
(0) = (0)T
2f(x
)(0) = dT
2f(x
)d.
Novamente, a arbitrariedade de d implica em 2f(x) 0. QED
Teorema 2.1.10 - Condicao suficiente de segunda ordem para xno interior de (ou = IRn) Seja f C2() e x ponto interior de tal que f(x) = 0 e 2f(x) > 0. Entao x e minimizador local estrito doproblema (2.1.1).
Prova: Escrevendo a expansao de Taylor para f em torno de x, comof(x) = 0, temos:
f(x) = f(x) +1
2 (x x)T2f(x)(x x) + o(x x2) ,
-
7/23/2019 Otimizao e metodos numericos(1)
19/262
-
7/23/2019 Otimizao e metodos numericos(1)
20/262
16 CHAPTER 2. CONDIC OES DE OTIMALIDADE
Definicao 2.2.1 Se x , chamamos conjunto tangente a por x (deno-tado por M(x)) ao conjunto dos vetores tangentes a curvas em passandopor x, ou seja:
M(x) =
{v
IRn
|v = (0) para alguma curva passando por x
}.
Utilizando a notacao
h(x) =
h1x1
(x) . . . h1xn (x)...hmx1
(x) . . . hmxn (x)
= h
1(x)
...hm(x)
= h1(x)
T
...hm(x)T
,podemos relacionar M(x) com o nucleo do Jacobiano de h(x), denotado porN(h(x)), pelo seguinte lema:
Lema 2.2.2
Para todo x , M(x) N(h(x)).Prova: Seja v M(x) e : [, ] tal que (0) = v, (0) = x.Definimos (t) = h((t)), para todo t [, ]. Portanto, (t) = 0 paratodo t [, ]. Logo, (t) (1(t), . . . , m(t))T = 0 para todo t (, ). Mas, pela regra da cadeia, (t) = h((t))(t), portanto
h((t))(t) = 0
para todo t (, ). Logo, 0 = h(x)(0) = h(x)v, ou seja, v N(h(x)).QED
E natural que nos indaguemos sobre a validade da recproca do Lema 2.2.2:N(h(x)) M(x) ? Em geral esta relacao nao e verdadeira, conforme ilus-tra o seguinte exemplo. Consideremos h(x1, x2) = x1x2 , x = ( 0, 0 )
T.Entao M(x) = {v IR2 | v1v2 = 0}, mas h(x) = (0, 0) e, claramente,N(h(x)) = IR2.
Definicao 2.2.3Dizemos que x {x IRn | h(x) = 0} e um ponto regular se o posto deh(x) e igual a m ({h1(x), . . . , hm(x)} e um conjunto linearmente inde-pendente).
Teorema 2.2.4
-
7/23/2019 Otimizao e metodos numericos(1)
21/262
-
7/23/2019 Otimizao e metodos numericos(1)
22/262
-
7/23/2019 Otimizao e metodos numericos(1)
23/262
2.2. RESTRIC OES DE IGUALDADE 19
x seja maximizador de f restrita a variedade tangente afim.
Teorema 2.2.8 - Condicoes necessarias de segunda ordem para re-stricoes de igualdade.
Suponhamos que f, h
C2, x e minimizador local regular de (2.2.1) e e
o vetor de multiplicadores de Lagrange definido no Teorema 2.2.6. EntaovT2xx(x, )v 0, para todo v N(h(x)).
Prova: Pelo Teorema 2.2.6,
f(x) + h(x)T = 0 (2.2.5)
Seja v N(h(x)). Pelo Teorema 2.2.4, existe uma curva em declasse C2 passando por x ((0) = x) e tal que v = (0). Tambem,(0) N(h(x)). Definindo (t) = f((t)), pelo Lema 2.1.8, (0) =f(x)T(0) = 0 e entao pelo Teorema 2.1.6,
(0) = (0)T2f(x)(0) + f(x)T(0) 0 (2.2.6)
Agora, definindo i(t) = ihi((t)), i = 1, . . . , m, temos que i(t) = 0 para
todo t (, ), portanto
i (0) = (0)Ti2hi(x)(0) + ihi(x)(0) = 0 .
Logo
mi=1
i (0) = (0)T
mi=1
i2hi(x)(0) + Th(x)(0) = 0 . (2.2.7)
Somando (2.2.7) e (2.2.6), por (2.2.5) segue que
(0)T(2f(x) +mi=1
i2hi(x))(0) 0.
Por ser v arbitrario a prova esta completa. QED
Teorema 2.2.9 - Condicoes suficientes de segunda ordem para re-stricoes de igualdade.Se f, h C2, x satisfaz as condicoes necessarias de primeira ordempara (2.2.1), e o vetor de multiplicadores de Lagrange e yT
2xx(x, )y > 0
para todo y N(h(x)), y = 0, entao x e minimizador local estrito para
-
7/23/2019 Otimizao e metodos numericos(1)
24/262
20 CHAPTER 2. CONDIC OES DE OTIMALIDADE
(2.2.1).
Exerccio 2.10: Usando a reducao a problemas irrestritos atraves do Teo-rema da Funcao Implcita, provar os Teoremas 2.2.8 e 2.2.9.
Exerccio 2.11: Considerar o problema perturbado MRI()
Minimizar f(x)h(x) =
e seja x solucao regular de MRI(0). Chamando x = x(0) e usando ascondicoes de otimalidade de MRI() e o Teorema da Funcao Implcita paradefinir x(), provar que fi (x(0)) = i, i = 1, . . . , m.
2.3 Restricoes de desigualdade
Consideremos agora o problema de minimizacao com restricoes gerais dedesigualdade:
Minimizar f(x)c(x) 0 (2.3.1)
onde c : IRn IRp.
Definicao 2.3.1Para cada x = {x IRn | c(x) 0}, chamamos de restricoes ativasem x aquelas para as quais ci(x) = 0. Analogamente, chamamos restricoesinativas em x aquelas para as quais ci(x) < 0. Como na definicao 2.2.4,
chamaremos ponto regular a um ponto de onde os gradientes das restricoesativas sao linearmente independentes.
A prova do seguinte lema e evidente.
Lema 2.3.2Se x e minimizador local de (2.3.1) e I = {i {1, . . . , p} | ci(x) = 0},entao x e minimizador local do problema
Minimizar f(x)ci(x) = 0, i I .
-
7/23/2019 Otimizao e metodos numericos(1)
25/262
2.3. RESTRIC OES DE DESIGUALDADE 21
Com base no Lema 2.3.2, podemos aplicar ao problema (2.3.1) resultados jaconhecidos para o problema de minimizacao com restricoes de igualdade.
Lema 2.3.3Se x e minimizador local de (2.3.1), I =
{i
{1, . . . , p
} |ci(x) = 0
}e
{ci(x), i I} e um conjunto linearmente independente, entao para todoi I existe i IR tal que
f(x) +iI
ici(x) = 0 .
Prova: Analoga a do Teorema 2.2.6. QED
O Lemma 2.3.3 nos diz que o gradiente de f e combinacao linear dos gradi-entes das restricoes ativas num minimizador local regular do problema. Oteorema seguinte mostra que sabemos algo sobre os sinais dos coeficientesdessa combinacao linear.
Teorema 2.3.4 - Condicoes Karush-Kuhn-Tucker (KKT).Se x e minimizador local regular de (2.3.1) (I = {i {1, . . . , p} | ci(x) =0} e {ci(x), i I} e um conjunto linearmente independente) entao exis-tem unicos i IR, i 0, i I tais que
f(x) +iI
ici(x) = 0 .
Prova: Tendo em vista o Lema 2.3.3, existem i IR , i I tais quef(x) +
iI
ici(x) = 0 . (2.3.2)
Falta apenas mostrar que i 0, i I. Suponhamos que exista k I talque k < 0. Chamemos
I = {x IRn | ci(x) = 0, i I},
k = {x IRn | ci(x) = 0, i I, i = k},MI(x
) o conjunto tangente a I por x
e Mk(x
) o conjunto tangente a
k por x. Pela regularidade de x, ck(x) nao e combinacao linear dos
-
7/23/2019 Otimizao e metodos numericos(1)
26/262
22 CHAPTER 2. CONDIC OES DE OTIMALIDADE
outros gradientes de restricoes ativas em x. Portanto, existe y Mk(x)tal que
ck(x)Ty < 0 . (2.3.3)Seja (t) uma curva em k passando por x com (0) = y. Entao, parat
0 suficientemente pequeno, (t)
{x
IRn
|c(x)
0}
. Chamando(t) = f((t)), temos que (0) = f(x)Ty. Logo, por (2.3.2), (2.3.3) ek < 0 segue que
(0) < 0, o que contradiz o fato de x ser minimizadorlocal. QED
2.4 Restricoes de igualdade e desigualdade
Consideremos agora o problema geral de programacao nao linear:
Minimizar f(x)h(x) = 0
c(x) 0(2.4.1)
onde h : IRn IRm e c : IRn IRp.
Podemos estabelecer condicoes analogas as do Teorema (2.3.4) para o prob-lema (2.4.1). De maneira similar aos casos anteriores, definimos ponto reg-ular do conjunto factvel como um ponto onde os gradientes das restricoesativas sao linearmente independentes.
Teorema 2.4.1 - Condicoes Karush-Kuhn-Tucker gerais.Sejax um minimizador local regular de (2.4.1). SejaI = {i {1, . . . , p} | ci(x) =0}
. Suponhamos que{
hi(x
), . . . ,
hm(x
)}{
ci(x
), i
I}
e um con- junto linearmente independente. Entao existem unicos 1 . . . , m IR ei 0 para todo i I tais que
f(x) +mi=1
ihi(x) +iI
ici(x) = 0 .
Exerccio 2.13: Demonstrar o Teorema 2.4.1.
Desta forma, se x e um ponto regular e minimizador local para o problema(2.4.1), definindo i = 0 se i
I, podemos reescrever as condicoes KKT da
seguinte forma:
-
7/23/2019 Otimizao e metodos numericos(1)
27/262
2.4. RESTRIC OES DE IGUALDADE E DESIGUALDADE 23
f(x) +mi=1
ihi(x) +pi=1
ici(x) = 0 (2.4.2)
h(x) = 0 (2.4.3)
ici(x) = 0 , i = 1, . . . , p (2.4.4)
i 0 , i = 1, . . . , p (2.4.5)ci(x) 0 , i = 1, . . . , p (2.4.6)
As n + m + p equacoes (2.4.2) - (2.4.4) formam um sistema nao linear nasincognitas x IRn, IRm e IRp. As solucoes deste sistema que satis-fazem (2.4.5) e (2.4.6) sao os pontos estacionarios de (2.4.1)
Teorema 2.4.2 - Condicoes necessarias de segunda ordem ( re-stricoes de igualdade e desigualdade).Seja x
ponto regular e minimizador local de (2.4.1). Seja A a matriz cujas
linhas sao os gradientes das restricoes ativas em x, excluindo os gradientesdaquelas restricoes de desigualdade cujo multiplicador e zero. Entao, se e sao os vetores de multiplicadores de Lagrange dados no Teorema 2.4.1,
yT2xx(x, , )y 0 para todo y N(A) ,
onde
(x,,) = f(x) +mi=1
ihi(x) +pi=1
ici(x) .
Exerccio 2.14: Demonstrar o Teorema 2.4.2.
Exerccio 2.16: Refazer os resultados deste captulo trocando minimizadorespor maximizadores.
Exerccio 2.17: Interpretar geometricamente todos os resultados destecaptulo, incluindo os relativos ao Exerccio 2.16.
Exerccio 2.18: Estudar o Lema de Farkas, de um texto adequado sobreconvexidade, e deduzir as condicoes de otimalidade da programacao linear.Observar que, desta maneira, a aplicacao do Teorema 2.3.4 a programacaolinear nao depende da regularidade do ponto. Usando esse resultado, provar
o resultado do Teorema 2.3.4 para minimizacao com restricoes lineares sem
-
7/23/2019 Otimizao e metodos numericos(1)
28/262
-
7/23/2019 Otimizao e metodos numericos(1)
29/262
24 CHAPTER 2. CONDIC OES DE OTIMALIDADE
-
7/23/2019 Otimizao e metodos numericos(1)
30/262
Chapter 3
Convexidade e dualidade
Apesar da extensa analise permitida pelos dois temas tratados neste captulo,procuramos fazer uma abordagem sintetica para ambos. Nosso enfoque temem vista os aspectos teoricos que efetivamente contribuem para o desen-volvimento de algoritmos praticos. Por exemplo, uma das propriedadesmais fortes obtidas com hipoteses de convexidade em um problema de min-imizacao e que as condicoes necessarias de otimalidade passam a ser sufi-cientes. Em outras palavras, um ponto Karush-Kuhn-Tucker torna-se umasolucao do problema. A teoria da dualidade, por sua vez, permite umaabordagem do problema original sob um outro ponto de vista. O dual deum problema de otimizacao tem como variaveis quantidades associadas asrestricoes do problema original. Em condicoes adequadas, resolver o prob-lema dual e equivalente a resolver o original (primal) e, as vezes, trabalharcom o dual e mais facil que com o primal. Mesmo em situacoes onde oprimal e o dual nao sao equivalentes, problemas duais resoluveis forneceminformacoes uteis para resolver seus primais correspondentes. Do ponto devista teorico, convexidade e dualidade fornecem estruturas sob as quais re-sultados relevantes sobre algoritmos e problemas podem ser obtidos. Porexemplo, as condicoes de otimalidade podem ser derivadas usando teoremasde separacao de conjuntos convexos por hiperplanos (ver [91]). Por outrolado, a teoria de convergencia de metodos importantes em programacao naolinear, como o metodo do Lagrangeano aumentado (captulo 10 deste livro)e enriquecida pela consideracao do problema dual (ver [175]).
25
-
7/23/2019 Otimizao e metodos numericos(1)
31/262
-
7/23/2019 Otimizao e metodos numericos(1)
32/262
3.1. CONVEXIDADE 27
Apresentamos a seguir alguns resultados basicos da teoria de convexidade.
Teorema 3.1.3Se os conjuntos Ki, i I, sao convexos, entao K = iIKi tambem econvexo.
Prova: Sejam x, y K = iIKi. Entao x, y Ki, i I e como os con-juntos Ki, i I sao convexos, para todo [0, 1], x + (1 )y Ki, i I.Logo x + (1 )y K para todo [0, 1]. QED
Exerccio 3.2: Se A IRn, chamamos de fecho convexo de A ao conjuntodas combinacoes convexas dos pontos de A. Provar que o fecho convexo dequalquer conjunto e convexo. Provar que o fecho convexo de A IRn estacontido em qualquer convexo K tal que A K.
Definicao 3.1.4
Se K e um conjunto convexo, f : K IR, e uma funcao convexa se paratodo x, y K, [0, 1],
f(x + (1 )y) f(x) + (1 )f(y).
Definicao 3.1.5Se K e um conjunto convexo, denominamos epigrafo de f : K IR aoconjunto
{(x, y) IRn IR | x K, y f(x)}.Teorema 3.1.6 A funcao f : K IR e convexa se, e somente se, o epigrafode f e convexo.
Prova: Suponhamos que f seja convexa e tomemos (x, x), (y, y) pontosdo epigrafo de f. Para [0, 1], como K e convexo, x + (1 )y K.Agora, x + (1 )y f(x) + (1 )f(y) f(x + (1 )y) pois f econvexa. Logo (x, x) + (1 )(y, y) = (x + (1 )y, x + (1 )y)pertence ao epigrafo de f para todo [0, 1]. Portanto, o epigrafo econvexo.
Suponhamos agora que f nao seja convexa. Entao existem x, y K taisque f(x + (1 )y) > f(x) + (1 )f(y) para algum [0, 1]. Assim,(x, f(x)) e (y, f(y)) sao pontos do epigrafo de f. Entao
(x, f(x)) + (1 )(y, f(y)) = (x + (1 )y, f(x) + (1 )f(y)) ,
-
7/23/2019 Otimizao e metodos numericos(1)
33/262
28 CHAPTER 3. CONVEXIDADE E DUALIDADE
onde x + (1 )y K mas f(x) + (1 )f(y) < f(x + (1 )y). Por-tanto, (x, f(x)) + (1 )(y, f(y)) nao pertence ao epigrafo de f. Logo oepigrafo de f nao e convexo. QED
Funcoes convexas diferenciaveis podem ser caracterizadas pelo teorema a
seguir:
Teorema 3.1.7Sejam K IRn aberto e convexo, f : K IR, f C1(K). Entao f econvexa se, e somente se, f(y) f(x) +f(x)T(y x), para todo x, y K.
Prova: Seja f convexa como na hipotese do teorema, x, y K, [0, 1].Logo, f(y + (1 )x) f(y) + (1 )f(x). Portanto,
f(x + (y x)) f(x) (f(y) f(x)) .
Entao
lim0
f(x + (y x)) f(x)
f(y) f(x) .Logo,
f(x)T(y x) f(y) f(x).Dessa maneira, provamos que
f(x) + f(x)T(y x) f(y) para todo x, y K.
Reciprocamente, se f(y) f(x) + f(x)T(y x) para todo x, y K,chamando z = y + (1 )x, temos
f(x) f(z) + f(z)T(x z)f(y) f(z) + f(z)T(y z) .
Portanto,
(1 )f(x) + f(y) (1 )(f(z) + f(z)T(x z))+ (f(z) + f(z)T(y z))
= f(z) + f(z)T(x z x + z + y z)= f(z) + f(z)T(y + (1 )x z)= f((1 )x + y) .
QED
-
7/23/2019 Otimizao e metodos numericos(1)
34/262
3.1. CONVEXIDADE 29
Outro resultado util, que estabelece o nao decrescimento da derivada dire-cional para funcoes convexas, e apresentado a seguir.
Teorema 3.1.8Seja K
IRn aberto e convexo, f : K
IR, f
C1(K). Entao, f convexa
se, e somente se, para todo x, y K,f(x)T(y x) f(y)T(y x) .
Exerccio 3.3: Demonstrar o Teorema 3.1.8.
As funcoes convexas com duas derivadas contnuas sao caracterizadas peloseguinte resultado.
Teorema 3.1.9
Seja K IRn aberto e convexo, f : K IR e f C2(K). Entao f econvexa se, e somente se, 2f(x) 0 para todo x K.
Exerccio 3.4: Demonstrar o Teorema 3.1.9.
Definicao 3.1.10.Se K e um conjunto convexo, f : K IR e uma funcao estritamente convexase, para todo x, y K, (0, 1),
f(x + (1 )y) < f(x) + (1 )f(y) .Exerccio 3.5: Provar os teoremas 3.1.73.1.9, com as modificacoes ade-
quadas, substituindo convexa por estritamente convexa.
Teorema 3.1.11Sejaf : K IR convexa e a IR. Entao o conjunto de nvel {x K | f(x) a}e convexo.
Exerccio 3.6: Demonstrar o Teorema 3.1.11.
Definicao 3.1.12.Chamamos de problema de programacao convexa a
Minimizar f(x)
sujeita a x K
-
7/23/2019 Otimizao e metodos numericos(1)
35/262
30 CHAPTER 3. CONVEXIDADE E DUALIDADE
onde K e um conjunto convexo e f e uma funcao convexa.
Teorema 3.1.17Em um problema de programacao convexa, todo minimizador local e global.O conjunto dos minimizadores e convexo. Se f e estritamente convexa, nao
pode haver mais de um minimizador.
Prova: Suponhamos que x e uma solucao local nao global do problemade programacao convexa . Entao existe x K tal que f(x) < f(x). Para [0, 1], consideremos x = (1 )x + x. Pela convexidade de K,x K. Agora, pela convexidade de f,
f(x) (1 )f(x) + f(x) = f(x) + (f(x) f(x)) < f(x).
Assim, para suficientemente proximo de 0, x torna-se arbitrariamenteproximo de x, mas f(x) < f(x). Portanto, x nao poderia ser um mini-
mizador local do problema de programacao convexa.Chamemos de S o conjunto dos minimizadores globais do problema. Sejamx, y S. Entao f(x) = f(y) f(x + (1 )y), [0, 1]. Pelaconvexidade de f,
f(x + (1 )y) f(x) + (1 )f(y) = f(y) + (f(x) f(y)) = f(y).
Logo, x + (1 )y S e portanto S e convexo.Suponhamos agora que existam x, y S, x = y e f seja estritamenteconvexa. Para [0, 1], f(x + (1 )y) f(x) = f(y) pois x, y saominimizadores globais, mas f(x + (1 )y) < f(x) = f(y) pelo fato def ser estritamente convexa. Temos assim a contradicao desejada e a provaesta completa. QED
No proximo teorema consideramos o problema geral de programacao naolinear (2.4.1). Suponhamos que a funcao objetivo f e as funcoes que de-finem as restricoes de desigualdade gi, i = 1, . . . , p sao convexas e que ashi, i = 1, m sao lineares, isto e, hi(x) = a
Ti x + bi. Portanto, pelos teoremas
3.1.3 e 3.1.5, o conjunto = {x IRn | h(x) = 0, g(x) 0} e convexo e oproblema de programacao nao linear (2.4.1) e um problema de programacaoconvexa. Com certo abuso de linguagem, ao dizer que (2.4.1) e um problemade programacao convexa estaremos sempre supondo que as gi sao convexase as hi sao lineares. O ob jetivo do teorema e mostrar que, neste caso, as
condicoes KKT dadas pelo Teorema 2.4.1 sao suficientes para caracterizar
-
7/23/2019 Otimizao e metodos numericos(1)
36/262
3.1. CONVEXIDADE 31
um minimizador global.
Teorema 3.1.14Se o problema de minimizacao com restricoes de igualdade e desigualdade(2.4.1) e um problema de programacao convexa e em x
valem as condicoes
KKT gerais (Teorema 2.4.1), entao x e minimizador global (a regularidadenao e necess aria).
Prova: Definimos = {x IRn | h(x) = 0, g(x) 0} e tomamos x ,x = x. Se IRn e IRp sao os multiplicadores dados pelo Teorema
2.4.1, temos:
f(x) +mi=1
ihi(x) +pi=1
igi(x) = 0 (3.1.1)
h(x) = 0 (3.1.2)igi(x) = 0 , i = 1, . . . , p (3.1.3)
i 0 , i = 1, . . . , p (3.1.4)gi(x) 0 , i = 1, . . . , p (3.1.5)
Agora, f(x) f(x) +mi=1
ihi(x) +pi=1
igi(x) pois hi(x) = 0, i = 1, . . . , m,
gi(x) 0, i = 1, . . . , p e vale (3.1.4).Aplicando a desigualdade do Teorema 3.1.7 as funcoes f, hi e gi segue-se
que
f(x) f(x) + f(x)T(x x) +mi=1
i(hi(x) + hi(x)T(x x))
+pi=1
i(gi(x) + gi(x)T(x x)) .
Por (3.1.1) - (3.1.5) temos f(x) f(x), ou seja, x e minimizador globalde (2.4.1). QED
-
7/23/2019 Otimizao e metodos numericos(1)
37/262
32 CHAPTER 3. CONVEXIDADE E DUALIDADE
3.2 Dualidade
Consideremos o problema geral de programacao nao linear (problema pri-mal):
Minimizar f(x)
sujeita a h(x) = 0g(x) 0 (3.2.1)
onde f : IRn IR, h : IRn IRm, g : IRn IRp e f, h, g C1(IRn).
Definicao 3.2.1Chamamos Problema Dual (de Wolfe) (ver [199]) de (3.2.1) ao problema
Maximizar (x, , )sujeita a x(x, , ) = 0
0(3.2.2)
onde (x, , ) = f(x) +mi=1
ihi(x) +pi=1
igi(x).
Reescrevendo (3.2.2), temos:
Maximizar f(x) +mi=1
ihi(x) +pi=1
igi(x)
sujeita a f(x) +mi=1
ihi(x) +pi=1
igi(x) = 0 0
(3.2.3)
Antes de estabelecer propriedades do Dual de Wolfe, calculamos os proble-mas duais de problemas classicos de otimizacao.
Exemplo 3.2.2: Programacao Linear.Consideremos o problema primal de programacao linear no seguinte formato:
Minimizar cTxsujeita a Ax b (3.2.4)
onde A IRpn, AT = (a1, . . . , ap) , ai IRn, i = 1, . . . , p.Neste caso, (x, , ) = (x, ) = cTx+
p
i=1i(a
Ti xbi) = cTx+T(Axb).
Logo, x(x, ) = c + AT.
-
7/23/2019 Otimizao e metodos numericos(1)
38/262
-
7/23/2019 Otimizao e metodos numericos(1)
39/262
34 CHAPTER 3. CONVEXIDADE E DUALIDADE
Entao
(x, , ) =1
2xTGx + cTx + T(Ax b) + T(Cx d)
e x(x, , ) = Gx + c + AT + CT.Assim, o problema dual de (3.2.8) e
Maximizar 12xTGx + cTx + T(Ax b) + T(Cx d)
sujeita a Gx + c + AT + CT = 0 0 .
(3.2.9)
Substituindo x = G1(c + AT + CT), podemos reescrever (3.2.9) daseguinte forma:
Maximizar 12(c + AT + CT)TG1(c + AT + CT) bT dTsujeita a 0 .
(3.2.10)
Neste exemplo vemos que o problema dual pode ter uma estrutura diferentedo problema primal, neste caso mais simples. A simplicidade do problemadual esta associada a possibilidade de calcular G1v. Essa tarefa pode sermuito difcil se G nao tem uma estrutura favoravel, mas muito facil em casosbastante comuns nas aplicacoes. Por exemplo, se o problema primal consisteem encontrar a projecao de um ponto dado no conjunto factvel de (3.2.8),a matriz G e a identidade.
Observamos que o dual (3.2.10) esta bem definido se G e uma matriz nao sin-gular. Isso nao significa que sempre seja equivalente ao primal. Para tanto,precisaremos que G seja definida positiva, o que resultara como corolario dos
resultados seguintes. Em (3.2.2) e (3.2.3) definimos dualidade sem estabele-cer conexoes entre o primal e o dual. Com tal generalidade, os problemasprimal e dual podem nao ser equivalentes. Agora estudaremos relacoes entreos dois problemas usando hipoteses de convexidade.
Lembramos que chamamos condicoes Karush-Kuhn-Tucker (KKT) as dadaspor (2.4.2)-(2.4.6), isto e:
f(x) + mi=1 ihi(x) + pi=1 igi(x) = 0h(x) = 0
igi(x) = 0 , i = 1, . . . , pi
0 , i = 1, . . . , p
gi(x) 0 , i = 1, . . . , p
-
7/23/2019 Otimizao e metodos numericos(1)
40/262
3.2. DUALIDADE 35
Um p onto KKT e um ponto onde as condicoes KKT sao satisfeitas.
Teorema 3.2.5Suponhamos que o problema (3.2.1) e tal que as funcoes f e gi, i = 1, . . . , psao convexas em IRn e que x e um ponto KKT com os multiplicadores
correspondentes e . Entao (x, , ) e solucao do dual (3.2.3).Alem disso, o valor da funcao objetivo primal e dual coincidem, isto ef(x) = (x, , ).
Prova: Sabemos que
f(x) +mi=1
[]ihi(x) +pi=1
[]igi(x) = 0 ,
com 0. Das condicoes KKT se deduz que f(x) = (x, , ).Logo, (x, , ) e um ponto factvel para o problema dual (3.2.3). Supon-
hamos que (x, , ) seja um outro ponto factvel para (3.2.3). Entao:
(x, , ) = f(x) +mi=1
[]ihi(x) +pi=1
[]igi(x)
= f(x)
f(x) +mi=1
ihi(x) +pi=1
igi(x)
= (x, , ).
Como (3.2.1) e um problema de programacao convexa, e facil ver que ,
como funcao de x, e convexa para 0. Logo, pelo Teorema 3.1.11 e pelafactibilidade dual de (x, , ) segue que
(x, , ) (x, , ) + x(x, , )T(x x) = (x, , ) .
Isto completa a prova. QED
Alguns comentarios sobre o Teorema 3.2.5 sao pertinentes. Este resultadonos assegura que, se um problema de programacao convexa tem um pontoque satisfaz as condicoes KKT (que portanto, pelo Teorema 3.1.18, sera umminimizador global), esse ponto necessariamente vai ser um maximizadorglobal do Dual de Wolfe. Isso nao significa que dado um problema de pro-
gramacao convexa, uma solucao global do dual corresponda forcosamente a
-
7/23/2019 Otimizao e metodos numericos(1)
41/262
36 CHAPTER 3. CONVEXIDADE E DUALIDADE
uma solucao do primal. No entanto, algumas relacoes adicionais entre pri-mal e dual podem ser estabelecidas.
Teorema 3.2.6Suponhamos que (3.2.1) e um problema de programacao convexa. Se z e
um ponto factvel de (3.2.1) e (x,,) e um ponto factvel do problema dualcorrespondente (3.2.2), entao
f(z) (x,,) .
Prova: Pelo Teorema 3.1.11 aplicado a f e gi, factibilidade de z em relacaoa (3.2.1) e de (x,,) em relacao a (3.2.2), temos que
f(z) f(x) f(x)T(z x)
= mi=1
ihi(x) +pi=1
igi(x)T (z x)
mi=1
i[hi(z) hi(x)] +pi=1
i[gi(z) gi(x)]
mi=1
ihi(x) +pi=1
igi(x) .
Portanto f(z) f(x)+mi=1
ihi(x)]+pi=1
igi(x) = (x,,), como queriamos
provar. QED
O Teorema 3.2.6 implica que, se a regiao factvel do primal (3.2.1) e nao vaziamas o problema primal e ilimitado inferiormente, necessariamente a regiaofactvel do dual e vazia. Reciprocamente, se o dual e um problema factvelmas ilimitado superiormente, entao a regiao factvel do primal e vazia. Desteresultado tambem se deduz que qualquer ponto factvel do dual fornece umacota inferior para o valor da funcao objetivo numa possvel solucao do pri-mal. Esse tipo de informacao pode ser muito util na pratica.
Exerccio 3.8: Supondo que o primal tem apenas restricoes lineares, quesua regiao factvel e vazia e que a regiao factvel do dual e nao vazia, provarque o supremo da funcao objetivo do dual e +
. (Ver [199].)
-
7/23/2019 Otimizao e metodos numericos(1)
42/262
3.2. DUALIDADE 37
Exerccio 3.9: Considere o problema definido por n = 1, m = 0, p = 1,f(x) = 0 e g(x) = ex. Mostrar que o primal e infactvel mas o dual temsolucao finita.
Exerccio 3.10: Estabelecer as relacoes entre o dual de Wolfe e o seguinte
problemaMaximizar F(, ) sujeita a 0,
onde F(, ) e o mnimo de (x,,), em relacao a x IRn.
-
7/23/2019 Otimizao e metodos numericos(1)
43/262
36 CHAPTER 3. CONVEXIDADE E DUALIDADE
-
7/23/2019 Otimizao e metodos numericos(1)
44/262
-
7/23/2019 Otimizao e metodos numericos(1)
45/262
38 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS
Lema 4.1.1Se q(x) = 12x
TGx + bTx + c , entao q(x) = Gx + b e 2q(x) = G para todox IRn.
Exerccio 4.1: Identificar G, b e c nos diferentes casos:
(a) q(x) = 3x21 2x1x2 + x1x3 x23 + x3 x1 + 5(b) q(x) = x21 x22 + 4x1x3 + 2x2x3 + x1 + x2 8(c) q(x) = 2x1x2 + x1 + x2.
Exerccio 4.2: Demonstrar o Lema 4.1.1.
Os pontos estacionarios de (4.1.1) sao aqueles onde se anula o gradiente,portanto, de acordo com o Lema 4.1.1, sao as solucoes do sistema linear
Gx + b = 0. (4.1.2)
Sua existencia ou unicidade esta determinada pelas propriedades desse sis-tema.
Lema 4.1.2(a) O problema (4.1.1) admite algum ponto estacionario se, e somente se,b R(G), onde R(G) e o espaco coluna de G.(b) O problema (4.1.1) admite um unico ponto estacionario se, e somentese, G e n ao singular.
Exerccio 4.3: Demonstrar o Lema 4.1.2.
A equacao dos pontos estacionarios Gx + b = 0 pode ter uma, infinitas ounenhuma solucao. Se (4.1.2) nao tem solucao, ou seja, b nao pertence aoespaco coluna de G, entao (4.1.1) nao admite nenhum minimizador, localou global. Esse e o caso, por exemplo, quando q e uma funcao linear naoconstante (G = 0 e b = 0). Se (4.1.2) tem solucao unica, essa solucao serao unico ponto estacionario de (4.1.1). No entanto, ele pode ser tanto umminimizador, como maximizador ou ponto sela. Finalmente, se G teminfinitas solucoes, o que acontece quando G e singular e b esta no seu espacocoluna, todas elas serao pontos estacionarios e, como veremos, do mesmotipo. E interessante observar que um problema com infinitas solu coes (Gsingular e b R(G)) pode ser transformado em um problema sem solucaopor uma perturbacao arbitrariamente pequena no vetor b. Por exemplo, osistema linear 0x + 0 = 0 tem IRn como conjunto de solucoes, mas o sistema
0x + = 0 e incompatvel para qualquer = 0. Isso mostra que, muitas
-
7/23/2019 Otimizao e metodos numericos(1)
46/262
4.1. QUADRATICAS SEM RESTRIC OES 39
vezes, e difcil distinguir as situacoes sem solucao e infinitas solucoes.Com efeito, devido a erros de arredondamento, pode ser que o vetor b que,na realidade, estava no espaco coluna de G, fique fora desse subespacofazendo que um sistema com infinitas solucoes aparente ser incompatvelnos calculos numericos. Tambem e possvel que uma matriz G singular
torne-se inversvel , por perturbacoes de arredondamento, transformandoum sistema incompatvel, ou indeterminado, em um problema com solucaounica. Isso mostra que a situacao em que G e claramente nao singular,de maneira que pequenas perturbacoes nao alteram essa condicao, e muitomais confortavel do ponto de vista da seguranca dos calculos numericos.
Usando resultados de convexidade do Captulo 3 e as condicoes de otimal-idade de segunda ordem do Captulo 2, podemos classificar facilmente ospontos estacionarios de (4.1.1). Com efeito, se x e um minimizador local,necessariamente teremos G = 2q(x) 0. Por outro lado, se G 0, temosque a Hessiana 2q(x) e semidefinida p ositiva para todo x IRn e, em con-sequencia, q e uma funcao convexa. Portanto, se G 0 e x e um pontoestacionario, necessariamente sera um minimizador global. Como o mesmotipo de raciocnio pode ser feito para maximizadores, deduzimos que todaquadratica tem um unico tipo de ponto estacionario: minimizadores globaisou maximizadores globais ou ainda pontos sela, que nao sao maximizadoresnem minimizadores locais. A prova do seguinte lema mostra que, devido asimplicidade das funcoes quadraticas, e facil obter as conclusoes acima semapelar para os resultados de convexidade.
Lema 4.1.3Se G 0 e x e ponto estacionario de (4.1.1), ent ao x e minimizadorglobal de (4.1.1).
Prova: Seja x ponto estacionario de (4.1.1). Entao b = Gx. Logo,
q(x) = 12xTGx + bTx + c = 12x
TGx xT Gx + c
= 12(x x)TG(x x) 12xT Gx + c 12xT Gx + c
= 12xT Gx xT Gx + c = 12xT Gx + bTx + c = q(x) .
Portanto, q(x) q(x) para todo x, ou seja, x e minimizador global de(4.1.1). QED
Lema 4.1.4
-
7/23/2019 Otimizao e metodos numericos(1)
47/262
40 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS
Se (4.1.1) admite um minimizador local, entao G 0.
Corolario 4.1.5Todo minimizador local de (4.1.1) e global.
Corolario 4.1.6Se a matriz G e indefinida, entao a quadratica q nao tem extremos locais.
Exerccio 4.4: Demonstrar o Lema 4.1.4 e os Corolarios 4.1.5 e 4.1.6 semusar as condicoes de otimalidade do Captulo 2 nem os resultados de con-vexidade do Captulo 3.
Um caso especial muito importante da minimizacao de quadraticas sem re-stricoes e o problema de quadrados mnimos linear. Consiste em, dada umamatriz A IRmn e um vetor b IRm, encontrar x IRn de maneira queAx se aproxime de b no sentido dos quadrados mnimos. Isto significa que
x deve ser solucao deMinimizar
1
2Ax b22. (4.1.3)
Em (4.1.3), a fracao 12 nao cumpre nenhum papel, exceto simplificar a ex-pressao do gradiente e da Hessiana. O problema e equivalente a minimizarq2(x) Axb2, no entanto, a formulacao com a norma ao quadrado e pre-fervel, devido a q2 nao ser diferenciavel nos pontos x em que [Ax b]i = 0.No entanto, (4.1.3) nao e equivalente a minimizar outras normas de Ax b.Em muitos ajustes de modelos e necessario estimar parametros x de maneiraque as observacoes se aproximem bastante do modelo teorico (Ax b). Aescolha da norma euclidiana para medir o grau de aproximacao se deve,na maioria dos casos, a que essa norma (ao quadrado) fornece o problemade otimizacao mais simples associado ao ajuste desejado. Algumas pro-priedades basicas do problema de quadrados mnimos linear sao enunciadasno seguinte teorema.
Teorema 4.1.7Se q(x) = 12Ax b22, onde A IRmn, m n e b IRm, entao(a) q(x) = AT(Ax b);(b) 2q(x) = ATA 0;(c) As equacoes normais ATAx = ATb (q(x) = 0) sempre tem solucao.Se posto (A) = n, a solucao e unica e, se posto (A) < n, ha infinitassolucoes.
-
7/23/2019 Otimizao e metodos numericos(1)
48/262
4.1. QUADRATICAS SEM RESTRIC OES 41
Exerccio 4.5: Demonstrar o Teorema 4.1.7.
4.1.1 Usando fatoracoes
A forma mais rude de resolver (4.1.1) parte de considerar a decomposi caoespectral de G. (Ver, por exemplo, [96].) Ao mesmo tempo, ela nos d a todaa informacao qualitativa relevante sobre o problema. Com efeito, como G euma matriz simetrica, existe uma matriz ortogonal Q (QQT = QTQ = I),e uma matriz diagonal tais que
G = QQT. (4.1.4)
Os autovalores de G, 1, . . . , n, sao os elementos da diagonal e os autove-tores correspondentes sao as colunas de Q. Assim, a matriz G e semidefinidapositiva se todas as entradas de sao nao negativas. Se todos os elementosda diagonal de sao maiores que 0, e G sao definidas positivas. Por-
tanto, o exame da diagonal fornece a informacao sobre o tipo de pontosestacionarios que o problema (4.1.1) pode ter. Se estamos interessados emminimizadores, e 0, analisamos o sistema linear Gx + b = 0. Usando(4.1.4), este sistema toma a forma
QQTx = b, (4.1.5)que deriva, multiplicando ambos membros por QT = Q1, em
z = QTb (4.1.6)onde x = Qz. Agora, (4.1.6) tem solucao se, e somente se, um possvel zerona diagonal de corresponde a uma coordenada nula do termo independenteQTb. Se ha um zero na diagonal de , digamos i, tal que [QTb]i = 0o sistema (4.1.5) nao tem solucao, e, consequentemente, (4.1.1) carece depontos estacionarios. (Lembremos, porem, por um instante, a advertencianumerica feita acima sobre a falta de estabilidade de conclusoes deste tipo.)Se todos os elementos de sao estritamente positivos, (4.1.5) tem solucaounica, e o vetor x calculado atraves de (4.1.6) e a mudanca de variaveisx = Qz e o minimizador global de (4.1.1). Por fim, se o sistema e compatvel,mas existe i tal que i = 0 e [Q
Tb]i = 0, teremos infinitas solucoes, todaselas minimizadores globais de (4.1.1). Nesse caso, qualquer que seja o valorde zi escolhido, o vetor x correspondente resolvera (4.1.5) e o conjunto dosx varridos dessa maneira formara uma variedade afim em IRn de dimensao
igual ao numero de zeros da diagonal de . O leitor verificara que o vetor
-
7/23/2019 Otimizao e metodos numericos(1)
49/262
-
7/23/2019 Otimizao e metodos numericos(1)
50/262
4.1. QUADRATICAS SEM RESTRIC OES 43
A decomposicao espectral resolve de maneira totalmente satisfatoria o prob-lema (4.1.1). Porem, seu custo computacional e, frequentemente, intoleravel,e a procura de alternativas mais baratas e necessaria.
A maneira mais popular de resolver (4.1.1) se baseia na fatoracao de Choleskyde G. Tal procedimento funciona e e estavel apenas quando G e definida
positiva. Nesse caso, a matriz G pode ser decomposta como G = LDLT,onde L IRnn e triangular inferior com diagonal unitaria e D IRnn euma matriz diagonal com elementos positivos. A maneira de encontrar L eD, os fatores de Cholesky, e dada pelo seguinte algoritmo:
Algoritmo 4.1.8 - Fatoracao de Cholesky.Chamemos gij aos elementos de G, lij aos de L e dij aos de D. Defininindo,primeiro, d11 = g11, as demais entradas de D e L sao calculadas pelo seguinteciclo.
Para j = 2 a n faca:
djj = gjj j1
k=1dkkl2jkSe j = n, termine. Se j < n, para i = j + 1 a n faca:
lij =1
djj
gij j1k=1
dkk ljk lik
.O algoritmo de Cholesky termina, produzindo D > 0 (e e numericamenteestavel) se, e somente se, G e definida p ositiva. De fato, a maneira maiseconomica de averiguar se uma matriz simetrica e definida positiva e tentarfazer sua fatoracao de Cholesky. Se G e singular ou indefinida, em algummomento aparece um djj menor ou igual a 0 no calculo dessas entradas.
Nos casos em que a fatoracao de Cholesky de G e completada com sucesso,
o unico minimizador de (4.1.1) e obtido resolvendo LDLTx = b, processoque pode ser decomposto em tres passos:
(a) resolver Ly = b;(b) resolver Dz = y;
(c) resolver LTx = z.
Os tres passos sao computacionalmente simples: (a) e (c) consistem emresolver sistemas lineares triangulares, e (b) em dividir cada coordenada dey pela entrada diagonal dii. Acrescentando a este custo computacional o defatorar a matriz pelo Algoritmo 4.1.8, a minimizacao da quadratica consomeaproximadamente n3/6 somas e produtos.
Quando, no Algoritmo 4.1.8, detectamos que G nao e definida positiva,
podemos apelar para o processo muito mais custoso de calcular a decom-
-
7/23/2019 Otimizao e metodos numericos(1)
51/262
44 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS
posicao espectral. Outras alternativas, baseadas em fatoracoes mais baratasque a espectral, foram sugeridas na literatura. Ver, por exemplo, a fatoracaoBunch-Parlett em [26]. Para efeitos praticos, quando se quer resolver (4.1.7)e, quase sempre, suficiente usar o seguinte problema auxiliar:
Minimizar q(x + d) sujeita a d2 , (4.1.8)
onde e um numero grande. Este problema pode ser resolvido por meiode um numero nao excessivo de fatoracoes de Cholesky, como veremos naSecao 4.2.
4.1.2 O caso esparso
A analise teorica feita na sub-secao anterior e valida independentemente daestrutura da matriz G mas, no Algoritmo 4.1.8, usamos, implicitamente, asuposicao de que todos as entradas de G e L sao armazenadas. Portanto,esse algoritmo usa mais de n2 posicoes de memoria. Quando G e esparsa, istoe, a grande maioria de suas entradas sao nulas, e comum que a matriz L desua fatoracao de Cholesky tambem o seja. As vezes, uma permutacao con-veniente de linhas e colunas de G (que corresponde a re-ordenar as variaveisxi) faz aumentar consideravelmente o grau de esparsidade (ou diminuir adensidade) do fator L. Ver, por exemplo, [62]. A fatoracao de Choleskyde matrizes esparsas procede da mesma maneira que o Algoritmo 4.1.8, mastoma o cuidado de armazenar apenas os elementos nao nulos de G e L, eevita fazer operacoes com zeros. Dessa maneira, nao apenas a memoria,
mas tambem o tempo computacional pode diminuir muito e a economia ebastante significativa quando n e grande. Agora, se a fatoracao de Choleskyfalha, e nos interessa obter uma direcao que satisfaca (4.1.7), apelar paraa fatoracao espectral e quase sempre impossvel, porque a matriz Q destafatoracao e geralmente densa, independentemente da esparsidade de G. Noentanto, ainda podemos obter uma direcao satisfatoria, em termos praticos,usando o subprobema (4.1.8).
Exerccio 4.6: Obter um exemplo onde G e esparsa mas sua fatoracao deCholesky e densa e um exemplo onde G e esparsa, sua fatoracao de Choleskye esparsa mas sua fatoracao espectral e densa.
-
7/23/2019 Otimizao e metodos numericos(1)
52/262
4.1. QUADRATICAS SEM RESTRIC OES 45
4.1.3 Metodos iterativos
Os metodos baseados em fatoracoes, chamados diretos, calculam a solucao de(4.1.1) em um unico passo, atraves de um processo relativamente trabalhoso.Os metodos iterativos, estudados nesta secao, procedem, pelo contrario,
computando uma sequencia de aproximacoes xk IRn
. A passagem de umiterando para o seguinte se faz atraves de um conjunto de operacoes geral-mente barato e a solucao e obtida depois de um numero finito de passos, ouno limite. Existem varias situacoes nas quais se justifica o uso de metodositerativos. As vezes, o problema e suficientemente facil e pouqussimas it-eracoes do metodo podem fornecer uma aproximacao muito boa da solucao.Nesse caso, minimizaramos a quadratica com um custo muito baixo, emcontraste com os metodos baseados em fatoracoes, que tem um custo fixo,independentemente da dificuldade do problema. Outras vezes, a precisaorequerida para a solucao de (4.1.1) e moderada, e pode ser atingida compoucos passos do metodo iterativo.
No entanto, a principal razao pela qual se utilizam metodos iterativos eoutra, e se deve a uma caracterstica da maioria desses metodos que nao esta,forcosamente, ligada a recursividade. Com efeito, no processo da fatoracaode uma matriz, precisamos usar, por um lado, a memoria necessaria paraarmazenar seus elementos e, por outro lado, a necessaria para armazenar osfatores. Esta ultima e variavel e pode exceder em muito a usada para guardaros dados (embora, naturalmente, certo grau de superposicao e possvel).Como vimos acima, no caso extremo, os fatores de uma matriz esparsapodem ser densos. Alem disso, o tempo usado na fatoracao cresce com onumero de elementos nao nulos dos fatores. Uma estimativa grosseira e que otempo de fatoracao e proporcional a n|L|, onde |L| e o numero de elementosnao nulos do fator. Logo, se n e muito grande e as condicoes para a fatoracaonao sao favoraveis, tanto o tempo quanto a memoria necessaria podem serintoleraveis. Por outro lado, a memoria usada pelos metodos iterativos e, emgeral, muito moderada. Muitas vezes ela e apenas a usada para armazenar oselementos nao nulos de G e alguns vetores adicionais, mas, frequentemente,ate menos que isso e preciso. De fato, a operacao fundamental realizada pormuitos metodos e o produto Gv da matriz por um vetor variavel. QuandoG tem uma lei de formacao, esse produto matriz-vetor pode ser programadosem armazenamento explcito dos elementos de G, isto e, apenas gerando oelemento [G]ij quando e necessario usa-lo. Existem tambem metodos quepodem ser implementados com geracao de [G]ij apenas quando e necessario,e onde a operacao basica nao e o produto Gv.
O metodo dos gradientes conjugados [119] e o usado mais frequentemente
-
7/23/2019 Otimizao e metodos numericos(1)
53/262
46 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS
para resolver (4.1.1). Para motiva-lo, falaremos antes do metodo de maximadescida. Nesta secao, usaremos a notacao g(x) = q(x) = Gx + b e sera sempre a norma euclidiana. A direcao d = g(x)/g(x) e a de maximadescida a partir do ponto x. De fato, dada uma direcao unitaria d ( d = 1)qualquer, a derivada direcional Ddq(x) e tal que
Ddq(x) = g(x)Td g(x) = Ddq(x) .
Assim, dentre todas as direcoes unitarias, a determinada por g(x) e a quefornece a menor derivada direcional. Portanto, a funcao objetivo diminuirase avancarmos nessa direcao, e a maxima diminuicao sera obtida mini-mizando, ao longo dela, a quadratica q. Isto sugere o seguinte metodoiterativo:
Algoritmo 4.1.9 - Maxima descidaSeja x0 IRn, x0 arbitrario.Dado xk IR
n
, defina dk = g(xk) e, se possvel, calcule xk+1 minimizadorde q(xk + dk), para 0.
Exerccio 4.7: Demonstrar que, se dTk Gdk > 0, existe uma formula fechada
para o passo otimo no Algoritmo 4.1.9: k =dTk dk
dTk Gdk. Provar que as direcoes
de duas iteracoes consecutivas sao ortogonais.
Infelizmente, alem do metodo de maxima descida nao produzir a solucaodo problema em um numero finito de iteracoes, como as direcoes consecuti-vas por ele geradas sao ortogonais, o metodo anda em ziguezague o que,certamente, nunca e a melhor forma de se acercar de um objetivo. Este com-portamento se torna mais desfavoravel a medida que as superfcies de nvelde q se tornam mais alongadas, o que corresponde a um numero de condicaogrande da matriz G. De fato, a velocidade de convergencia deste metododepende fortemente da razao entre o maior e o menor autovalor de G. Ver[129]. Nos ultimos anos foram introduzidas variacoes do metodo de maximadescida onde se conserva o uso das direcoes dos gradientes mas e mudadoo calculo do passo, com substanciais ganhos de eficiencia. Ver [8], [170], [80].
Vamos introduzir o metodo dos gradientes conjugados como uma especiede metodo de maxima descida com memoria. Assim como o metodo demaxima descida minimiza q na direcao
g(x0), depois na direcao de
g(x1)
etc., o metodo de gradientes conjugados comecara minimizando q na direcao
-
7/23/2019 Otimizao e metodos numericos(1)
54/262
4.1. QUADRATICAS SEM RESTRIC OES 47
g(x0), mas depois o fara no plano gerado por g(x0) e g(x1), depois nosubespaco gerado por g(x0), g(x1) e g(x2) e assim por diante. Usando anotacao Span{u1, . . . u} para o subespaco gerado pelos vetores u1, . . . , u,apresentamos no Algoritmo 4.1.10 uma primeira descricao geometrica dometodo dos gradientes conjugados. Nenhuma hipotese adicional sobre a
matriz G e assumida alem da simetria.
Algoritmo 4.1.10Comecamos o algoritmo com x0 IRn arbitrario. Dado xk IRn, definimos
Sk = Span{g(x0), . . . , g(xk)}e
Vk = x0 + Sk = {v IRn | v = x0 + w com w Sk}.Consideramos o problema
Minimizar q(x) sujeita a x
Vk. (4.1.9)
Se (4.1.9) nao tem solucao, o algoritmo para por inexistencia de mnimo.Caso contrario, definimos xk+1 como uma das solucoes de (4.1.9). (Maistarde, provaremos, que, de fato, (4.1.9) nao pode ter mais de uma solucao.)
A primeira vista, o Algoritmo 4.1.10 pode parecer pouco pratico, pois ex-ige a minimizacao da quadratica q(x) em variedades de dimensao cada vezmaior. Logo, no ultimo caso, estaremos minimizando q em todo IRn (afinalde contas, nosso problema original). No entanto, veremos que os calculosnecessarios para computar os sucessivos iterandos sao surpreendentementesimples e sem requerimentos de memoria. Mais surpreendente e o fato deque, recentemente, foram desenvolvidos metodos iterativos para resolver sis-temas lineares nao simetricos baseados na ideia desse algoritmo, onde oscalculos das iteracoes nao se simplificam, mas que, mesmo assim, parecemser extremamente eficientes. Ver [179].
Vamos analisar algumas propriedades do Algoritmo 4.1.10. Para simplificara notacao, escreveremos, de agora em diante, gk = g(xk) e sk = xk+1 xk,para todo k = 0, 1, 2, . . .. Da condicao de otimalidade para minimizacaocom restricoes de igualdade, ou da condicao de primeira ordem por curvas,dadas no Captulo 2, se deduz que, se xk+1 esta definido, gk+1 e ortogonal aSk. Se, nesse caso, gk+1 = 0, deduzimos que gk+1 nao pode ser combinacaolinear de g0, g1, . . . , gk, portanto, com breve raciocnio indutivo, conclumos
que o conjunto {g0, g1, . . . , gk+1} e linearmente independente.
-
7/23/2019 Otimizao e metodos numericos(1)
55/262
-
7/23/2019 Otimizao e metodos numericos(1)
56/262
4.1. QUADRATICAS SEM RESTRIC OES 49
k n tal que xk e uma solucao do sistema (4.1.2) (ponto estacionario de(4.1.1)).
Prova: Suponhamos que o Algoritmo 4.1.10 nao pare por inexistencia demnimo. Entao, para cada iteracao k em que gk+1 e nao nulo, temos que
dim(Vk+1) = dim(Vk) + 1.
Portanto, se chegamos a completar n iteracoes com gradientes nao nulos,teremos dim(Vn1) = n. Isso implica que Vn1 = IRn e, portanto, xn esolucao de (4.1.1). QED
O resultado a seguir estabelece uma propriedade importante satisfeita pelosincrementos sk, conhecida como G-conjugacao ou G-ortogonalidade. A de-nominacao gradientes conjugados tem como origem o fato deste metodo sebasear em direcoes G-conjugadas.
Teorema 4.1.13Se {xk} e uma seq uencia gerada pelo Algoritmo 4.1.10, os incrementos sk =xk+1 xk, k = 0, 1, . . . sao G-conjugados, isto e, para todo k 1 vale
sTj Gsk = 0 , j = 0, 1, . . . , k 1. (4.1.11)
Mais ainda, se g0, g1, . . . , gk1 sao nao nulos e xk esta bem definido, entao
sTj Gsj > 0 para todo j = 0, 1, . . . , k 1. (4.1.12)
Prova: Ja sabemos que gk+1 Sk = Span{g0, g1, . . . , gk} = Span{s0, . . . , sk}.Entao,
gk+1 sj , j = 0, 1, . . . , k . (4.1.13)Agora, pela definicao de sk, e por calculos elementares,
gk+1 = gk + Gsk. (4.1.14)
Pre-multiplicando (4.1.14) por sTj , paraj = 0, . . . , k1, por (4.1.13) segue-se(4.1.11).Agora provaremos (4.1.12). Se gj = 0, temos que xj+1 esta bem definido,e nao pertence a
Vj
1, portanto sj
= 0 e gTj sj < 0. Mas, pela definicao
de xj+1, t = 1 deve ser minimizador de q(xj + tsj). Como esta funcao
-
7/23/2019 Otimizao e metodos numericos(1)
57/262
-
7/23/2019 Otimizao e metodos numericos(1)
58/262
4.1. QUADRATICAS SEM RESTRIC OES 51
pode ser efetuada, contrariamente a intuicao inicial, com trabalho e memoriamnimos. Alem disso, mostramos que a expressao obtida para sk e unica,eliminando a aparente liberdade existente na escolha do minimizador em Vkno Algoritmo 4.1.10.
Lembrando que Gsk1 = gk
gk1, e gk
gk1, da formula (4.1.15) se
deduz que
dk = gk gTk gk
sTk1gk1sk1 = gk g
Tk gk
dTk1gk1dk1. (4.1.17)
Alem disso, como dk1 e a soma de gk1 mais uma combinacao dos gra-dientes anteriores, e esses gradientes sao ortogonais a gk1, (4.1.17) toma aforma
dk = gk + k1dk1, onde k1 = gTk gk
gTk1gk1. (4.1.18)
Finalmente, usando, tambem, que sk e combinacao de gk e dos gradientesanteriores, a formula (4.1.16) deriva em
xk+1 = xk + kdk onde k =gTk gk
dTk Gdk. (4.1.19)
As expressoes (4.1.18) e (4.1.19) descrevem o algoritmo de gradientes con- jugados de maneira mais operativa. Para fixar ideias, enunciamos de novoo Algoritmo 4.1.10 de maneira computacionalmente adequada.
Algoritmo 4.1.14 - Gradientes conjugados
Comecamos com x0 arbitrario e d0 =
g(x0). Dados xk, gk e dk
IRn, asequencia de pontos xk (a mesma definida no Algoritmo 4.1.10) e obtida daseguinte maneira:
Se gk = 0, pare declarando convergencia. Se dTk Gdk 0 pare
declarando inexistencia de mnimo de (4.1.9). Se gk = 0 e dTk Gdk > 0calcule
xk+1 = xk + kdk , (4.1.20)
onde k =gTk gk
dTk Gdk; (4.1.21)
gk+1 = gk + kGdk ; (4.1.22)
dk+1 = gk+1 + kdk , (4.1.23)
-
7/23/2019 Otimizao e metodos numericos(1)
59/262
52 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS
onde k =gTk+1gk+1
gTk gk. (4.1.24)
E interessante observar que nos casos em que o algoritmo para por inex-istencia de mnimo, o vetor dk fornece uma direcao ao longo da qual q tende
a . Com efeito, se dT
k Gdk < 0, a parabola q(xk + tdk) tem coeficientede segunda ordem menor que 0 e, em consequencia, tende a nos doissentidos possveis. Se dTk Gdk = 0 a expressao (4.1.23) mostra que a derivadadirecional ao longo de dk e negativa e a parabola q(xk + tdk) e, na realidade,uma reta decrescente. Portanto, a funcao tende a quando t .
Com base nos resultados anteriores sabemos que, no maximo em n passos,o metodo dos gradientes conjugados encontra uma solucao do sistema linear(4.1.2) ou uma direcao ao longo da qual a quadratica tende a . Veremosagora que, muitas vezes, o numero necessario de passos e bem menor.
Teorema 4.1.15O subespaco de Krylov da matriz G, definido por
K(G, g0, k) = Span{g0, Gg0, . . . , Gk1g0},
coincide com Sk.
Prova: A prova e feita por inducao. Para k = 1, o resultado claramentevale. Suponhamos que Sk = Span{g0, Gg0, . . . , Gk1g0} e vamos mostrarque Sk+1 = Span{g0, Gg0, . . . , Gkg0}. Por (4.1.22), gk = gk1 + k1Gdk1.Pela hipotese de inducao e pelo fato de que Sk = Span{g0, . . . , gk1} =Span{d0, . . . , dk1}, tanto gk1 quanto Gdk1 pertencem a Span{g0, . . . , Gkg0}.Alem disso, gk Sk pois senao gk = 0, ja que g
Tk dj = 0 , j = 0, . . . , k 1.
Portanto, Sk+1 = Span{g0, Gg0, . . . , Gkg0}, o que completa a prova. QED
Lema 4.1.16A dimensao de Sk e, no m aximo, o numero de autovalores distintos da ma-triz G.
Prova: Seja QQT a decomposicao espectral da matriz G e chamemosv = QTg0. Entao, pelo Teorema 4.1.15,
Sk = Span{g0, Gg0, . . . , Gk1g0}= Span
{QQTg0, QQ
Tg0, . . . , Qk1QTg0
}= Span{Qv,Qv , . . . , Qk1v} .
-
7/23/2019 Otimizao e metodos numericos(1)
60/262
4.1. QUADRATICAS SEM RESTRIC OES 53
Portanto, a dimensao de Sk e a mesma que a do subespaco Span{v, v , . . . , k1v}e e facil ver que esta dimensao nao pode exceder o numero de autovaloresdistintos de G (elementos da diagonal de ). QED
Com base no Lema 4.1.16, a terminacao finita do Algoritmo 4.1.10 pode ser
reescrita da seguinte forma:
Teorema 4.1.17O metodo de gradientes conjugados aplicado ao problema (4.1.1) encontrauma solucao do sistema Gx + b = 0 ou calcula uma direcao ao longo da quala quadratica tende a em no maximo p passos, onde p e o n umero deautovalores distintos de G.
Apesar do resultado estabelecido no Teorema anterior, o metodo dos gradi-entes conjugados pode ser intoleravelmente lento em problemas de grandeporte, se os autovalores diferentes sao muitos, ou se o numero de condicao da
matriz e grande. Por exemplo, nas matrizes provenientes de discretizacoes daequacao de Laplace, a medida que o numero de pontos cresce, o numero decondicao de G tambem aumenta muito e os autovalores sao todos diferentes.Nesses casos, estrategias para acelerar o metodo tornam-se necessarias. Tradi-cionalmente, o que se faz e construir um problema equivalente ao originalmas que seja mais favoravel para o metodo, isto e, no qual a matriz Hes-siana tenha um menor numero de autovalores distintos e/ou tenha numerode condicao menor. Tal estrategia e conhecida por precondicionamento.Vamos supor que, de alguma forma, conhecemos uma matriz H parecidacom G e que H e simetrica definida positiva. Suponhamos que a decom-posicao espectral de H e H = QQT . Entao, H
1
2 = Q1
2 QT e a matrizH
1
2 GH1
2 estaria muito proxima da matriz identidade. Desta forma,H seria um precondicionador adequado, ja que o problema original (4.1.1)ficaria equivalente ao seguinte problema precondicionado:
Minimizar1
2wTH
1
2 GH1
2 w + dTw + c
onde w = H1
2 x, d = H1
2 b e o sistema H1
2 GH1
2 w + d = 0 teria resolucaofacil pois H
1
2 GH1
2 I.A arte do precondicionamento consiste em encontrar H parecida com G demaneira que tanto H quanto H1 sejam faceis de calcular. Um precondi-cionador classico e tomar H como a diagonal de G. Tambem e usual adotarH como uma fatoracao de Cholesky incompleta de G.
-
7/23/2019 Otimizao e metodos numericos(1)
61/262
-
7/23/2019 Otimizao e metodos numericos(1)
62/262
-
7/23/2019 Otimizao e metodos numericos(1)
63/262
-
7/23/2019 Otimizao e metodos numericos(1)
64/262
4.2. QUADRATICAS EM BOLAS 57
Os teoremas acima mostram que, se existe uma solucao z do problema (4.2.1)situada na fronteira da bola, ela deve satisfazer, com seu multiplicador cor-respondente , as seguintes equacoes:
(G + I)z = b, z = . (4.2.9)
Alem disso, 0 e G + I 0. Solucoes de (4.2.1) no interior da bolaso podem existir se G e semidefinida positiva e, nesse caso, z, com normamenor que , deve ser solucao de (4.1.2).Se 1 . . . n sao os autovalores de G, a condicao G+I 0 e equivalentea 1. Assim, as duas limitacoes sobre o multiplicador , para detectarsolucoes na fronteira, se resumem em
maximo {0, 1}. (4.2.10)
Portanto, para encontrar as solucoes de (4.2.1) na superfcie da bola de umamaneira ingenua, dividimos o problema em duas questoes:
(a) Existem solucoes com > 1?(b) 1 e solucao de ()?A segunda questao pode ser eliminada se 1 > 0, ou seja, se G e definidapositiva.Examinemos a questao (a). Na regiao > 1 o sistema (G + I)z = b temcomo solucao unica z = (G+ I)1b ja que, neste caso, G+ I e inversvel.Portanto, encontrar > 1 satisfazendo () e equivalente a resolver
(G + I)1b = . (4.2.11)ou
() = 2, (4.2.12)
onde () (G + I)1b2. Parece bastante relevante, em consequencia,estudar a forma da funcao univariada (). Consideremos a decomposicaoespectral G = QQT, onde Q = (v1, . . . , vn), vi IRn e = diag (1, . . . , n).Pela invariancia da norma euclidiana sob transformacoes ortogonais, a funcao() pode ser escrita como:
() = dT( + I)2d =n
i=1
d2i(i + )2
, (4.2.13)
onde d = QTb. A expressao (4.2.13) revela que
lim () = 0. (4.2.14)
-
7/23/2019 Otimizao e metodos numericos(1)
65/262
58 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS
Ao mesmo tempo,lim
1+() = (4.2.15)
se, e somente se, di = [QTb]i = 0 para algum i tal que 1 = i. Neste caso,
() e estritamente decrescente e convexa. Isto significa que, quando b nao
e perpendicular ao subespaco de autovetores associado ao menor autovalorde G, a equacao () tem uma unica solucao para > 1, qualquer queseja . Se essa solucao e maior ou igual a 0, (G + I)1b sera o unicominimizador global de (4.2.1).Quando b e p erpendicular ao subespaco de autovetores associado ao menorautovalor de G a expressao de () e
() =n
i=
d2i(i + )2
,
onde e o ndice do menor autovalor diferente de 1. Portanto, nesse caso,
(1) = ni=
d2i(i 1)2 ,
e uma unica solucao de () maior que 1 existira se, e somente se, (1) >. Quando isso acontece, a funcao tambem e convexa e estritamentedecrescente.A analise acima esgota o exame da existencia de solucoes de () maiores que1. Suponhamos agora que existe z na fronteira da bola tal que (G 1I)z = b. A matriz G 1I e singular, portanto o sistema consideradotem infinitas solucoes, e podemos considerar a solucao de norma mnima x.Usando a decomposicao espectral, temos
( 1I)QTx = QTb = d,
ou seja(i 1)[QTx]i = di para i = , . . . , n . (4.2.16)
Os graus de liberdade da equacao (4.2.16) sao usados, na solucao de normamnima, escolhendo
[QTx]i = 0, para i = 1, . . . , 1. (4.2.17)
De (4.2.16) e (4.2.17) e facil deduzir que
lim1(G + I)1
b = x
-
7/23/2019 Otimizao e metodos numericos(1)
66/262
-
7/23/2019 Otimizao e metodos numericos(1)
67/262
60 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS
4.3 Quadraticas em caixas
Em muitos problemas praticos em que se deseja ajustar um modelo lineara um conjunto de dados empricos, os parametros desconhecidos tem sen-tido fsico apenas em uma determinada regiao do espaco. Nesses casos, em
vez de um problema puro de quadrados mnimos teremos um problema dequadrados mnimos com restricoes. A situacao mais comum e quando cadaparametro nao pode ser inferior a determinada cota, nem superior a outra.Nesse caso, o conjunto de restricoes toma a forma
li xi ui para todo i = 1, . . . , n ,ou, mais brevemente,
l x u.O conjunto IRn formado pelos pontos que satisfazem essas restricoesse diz uma caixa de IRn, denominacao mais confortavel que a alterna-tiva hiperparaleleppedo. E conveniente admitir os valores
para
li e + para ui, ja que, as vezes, apenas algumas variaveis estao natu-ralmente limitadas e, outras, a limitacao e somente inferior, ou superior.Em problemas fsicos e muito comum que as incognitas, representando de-terminados coeficientes, devam ser positivas, em cujo caso e o ortante{x IRn | xi 0, i = 1, . . . , n}.Entretanto, como no caso da minimizacao em bolas, o problema de mini-mizacao de quadraticas em caixas nao tem interesse apenas por sua aplicacaodireta. Como veremos mais adiante, este tambem e um subproblema muitoutilizado, de maneira iterativa, quando o objetivo ultimo e resolver um prob-lema mais complicado, por exemplo, a minimizacao de uma funcao geral (naoquadratica) numa caixa. Nesses casos, a matriz G sera a Hessiana da funcao
objetivo num ponto dado e, como nada se sabe a priori sobre os autoval-ores dessa matriz, e imp ortante considerar nao apenas o caso convexo, comotambem o caso em que a matriz nao e semidefinida positiva.Veremos que, contrariamente a minimizacao em bolas, em que p odamos re-conhecer perfeitamente um minimizador global mesmo no caso nao convexo,os algoritmos praticos que apresentaremos deverao se contentar com pontosestacionarios. Garantir um minimizador global nestes problemas e p ossvel,mas apenas atraves de metodos muito caros computacionalmente. Ver [194].
Nosso problema e, pois,
Minimizar q(x)
sujeita a x , (4.3.1)
-
7/23/2019 Otimizao e metodos numericos(1)
68/262
-
7/23/2019 Otimizao e metodos numericos(1)
69/262
62 CHAPTER 4. MINIMIZAC AO DE QUADRATICAS
Se G 0 a quadratica e convexa e (4.3.4) passa a ser uma condicao suficientepara minimizador global.Quando restringimos a funcao quadratica a uma face aberta FI, as variaveislivres sao apenas as que se encontram estritamente entre os limites definidospelo conjunto I. O vetor definido a seguir e o inverso aditivo do gradiente
em relacao a essas variaveis livres. Assim, para cada x FI definimosgI(x) IRn como
gI(x)i =
0 se i I ou n + i I
[q(x)]i nos outros casos. (4.3.5)
Observamos que gI(x) e a projecao ortogonal de q(x) em S(FI). Tambempodemos interpretar gI(x) como a componente de gP(x) no subespacoS(FI). Naturalmente, gP(x) tem uma segunda componente, ortogonal aS(FI), que chamamos gradiente chopado e denotamos por g
CI (x). Dessa
maneira, para cada x FI,
gCI (x)i =
0 se i / I e n + i / I0 se i I e [q(x)]i > 00 se n + i I e [q(x)]i < 0
[q(x)]i nos outros casos.
(4.3.6)
Como mencionamos acima, e facil ver que, para todo x FI, o gradienteinterno gI(x) e ortogonal ao gradiente chopado, e
gP(x) = gI(x) + gCI (x) .
O algoritmo para minimizar quadraticas em caixas que apresentaremos pro-duz uma sequencia
{xk
}de aproximacoes da solucao de (4.3.1) baseada na
minimizacao parcial da quadratica nas diferentes faces visitadas. Quandoxk pertence a uma face FI, um algoritmo interno para minimizacao dequadraticas irrestritas sera acionado, trabalhando apenas com as variaveislivres da face. A suposicao basica sera que esse algoritmo e convergente nosentido de que ele produz, em um numero finito de passos um ponto externoa (mas pertencente, naturalmente, a V(FI)), ou que todo ponto limite doalgoritmo e um ponto estacionario do problema, essencialmente irrestrito, deminimizar q(x) sujeita a x V(FI). Em outras palavras, o algoritmo internoencontra um ponto estacionario restrito a FI ou viola as restricoes inativasdessa face. Em cada passo do algoritmo interno, verificamos se ele ja estabastante perto de um ponto estacionario em FI. Para isso, comparamos
o tamanho do gradiente chopado com o tamanho do gradiente projetado.
-
7/23/2019 Oti