2017 – Defesas no Primeiro Semestre Letivo

Escondido

Your content goes here. Edit or remove this text inline or in the module Content settings. You can also style every aspect of this content in the module Design settings and even apply custom CSS to this text in the module Advanced settings.

BIANCA GONÇALVES BARBOSA PEREIRA. Dados longitudinais: estudo de variáveis biométricas em fetos saudáveis

Resumo: A necessidade de implementar modelos que permitam definir padrões de valores considerados normais para variáveis biométricas em fetos tem aumentado com o uso de novas tecnologias como o Doppler. O uso de modelos de regressão linear clássicos tem ajudado neste trabalho, porém existe a limitação de que as observações precisam ser independentes. Esta restrição não permite explorar de forma adequada situações em que se encontram disponíveis dados longitudinais, isto é, observações feitas em vários instantes de tempo para cada um dos fetos. Neste trabalho foram ajustados modelos de regressão que consideram a ocorrência de dados longitudinais sob enfoque bayesiano e estes foram comparados com o modelo que considera independência entre os dados (modelo sob abordagem clássica). Assumindo-se independência dos dados, diversas regressões do logaritmo do índice de pulsatilidade com os dados biométricos dos fetos foram ajustadas e comparadas. Foram 626 dados utilizados provenientes de 388 gestantes e todos, inicialmente, foram considerados independentes. Foi possível concluir que o modelo que apresentava a circunferência abdominal como variável independente era o melhor dentre os demais para explicar o índice de pulsatilidade. Com o intuito de explorar de forma mais adequada a estrutura dos dados, dois modelos bayesianos com dados defiidos de maneiras diferentes (gestantes com 2 dados ou mais e gestantes com 3 dados ou mais) foram ajustados e comparados com o modelo clássico. Os resultados indicaram que, mesmo o erro quadrático médio (MSE) não sendo favorável para o modelo de regressão sob enfoque bayesiano, o mesmo é a melhor sugestão para a construção de um normograma ou curva de referência.
Palavras-chave: Doppler. Índice de pulsatilidade. Dados longitudinais. Variograma.
 if 1 02 511559

Orientador: Luis Guillermo Coca Velarde

DOUGLAS DE CASTRO SILVA. Analisando autovetores na abordagem singular spectrum analysis para a previsão de vazão de afluentes

Resumo: Diante da atual situação energética brasileira, a previsão de vazão de afluentes surge como uma ferramenta essencial no planejamento de longo prazo. Com mais de 70% da energia gerada no Brasil, as usinas hidrelétricas têm uma função importante neste cenário e, dentre elas, a Usina Hidrelétrica de Itaipú é responsável por boa parte desta energia gerada. Como o pricipal afluente à UHE de Itaipú, o Rio Paraná apresenta momentos de baixo e de alto fluxo de correnteza, aumentando e diminuindo sua vazão em épocas distintas. Para se ter um controle sobre a energia que poderá ser gerada na usina é preciso ter um conhecimento prévio da vazão que o afluente poderá servir. A análise de séries temporais tem se mostrado como uma ferramenta adequada para este tipo de previsão e a literatura tem mostrado que filtragens de séries temporais melhoram a qualidade destas previsões. Este trabalho objetiva avaliar o ganho preditivo da modelagem de séries temporais quando se aplica à séerie uma filtragem por Singular Spectrum Analysis (SSA), uma ferramenta em estatistica que permite, dentre outras coisas, remover a componente de ruído após uma decomposição adequada e com isso, retornar uma série filtrada menos ruidosa. Na ocasião, uma série de médias mensais de vazão de afluentes do Rio Paraná na Usina Hidrelétrica de Itaipú foi modelada via modelos de amortecimento exponencial de Holt-Winters sem e com a filtragem SSA e modelos de Box & Jenkins da classe ARIMA também sem e com a filtragem SSA. A filtragem SSA foi feita a partir da análise gráfica dos autovetores e confirmada pela correlação ponderada. Todos os modelos foram comparados entre si de acordo com as estatísticas de aderência Mean Absolute Percentage Error (MAPE) e Root Mean Square Error (RMSE), o critério de seleção do melhor modelo (BIC) Bayesian Information Criterion e o coeficiente de determinação R2. Os resultados obtidos mostram que os modelos de Box & Jenkins têm um poder preditivo maior que os modelos de Holt-Winters e que, ao aplicar a filtragem SSA, a acurácia dos modelos é melhorada em todos os casos.
Palavras-chave: Previsão. Séries temporais. Singular spectrum analysis. Autovetores. Vazão de afluentes. Filtragem. Modelagem. Box & Jenkins. Holt-Winters. ARIMA. 
if 1 02 511559

Orientador: Moisés Lima de Menezes

EDUARDO TAKAMINE CORREIA. Previsão de demanda de energia elétrica usando análise de componentes principais e análise gráfica dos autovetores na abordagem singular spectrum analysis

Resumo: O consumo de energia elétrica por pessoas, empresas e indústrias aumentam devido ao avanço tecnológico, o crescimento da população e aascensão dos países emergentes. Para atender esta demanda, o desenvolvimento de novas técnicas capazes de prever com uma melhor acurácia o consumo de energia elétrica se faz necessário. Singular Spectrum Analysis (SSA) é um método em estatística que pode, dentre outras coisas, filtrar séries temporais eliminando sua componente ruidosa podendo melhorar a acurácia da previsão. Esta pesquisa propõe a filtragem de uma série temporal de consumo de energia elétrica via SSA usando Análise de Componentes Principais e Análise Gráfica dos Autovetores. A verificação do poder preditivo das modelagens nas abordagens de Holt-Winters e de Box & Jenkins é feita através das estatísticas de aderência Mean Absolute percentage Error (MAPE), Root Mean Squared Error (RMSE), Bayesian Information Criterion (BIC) e o coeficiente de dete rminação R². Os resultados obtidos mostram que a utilização da filtragem SSA proporciona um ganho preditivo à modelagem e que ao utilizar a Análise Gráfica dos Autovetores obtém o melhor desempenho do que o uso da abordagem com a Análise de Componentes Principais. Os resultados mostram também que a modelagem de Box & Jenkins apresenta melhores resultados do que as modelagens de Amortecimento Exponencial de Holt-Winters para a previsão de consumo de energia elétrica. Tais resultados corroboram para a utilização destes modelos no auxílio do planejamento energético do país.
Palavras-chave: Consumo de energia elétrica. SSA. Análise gráfica dos autovetores. Modelagem. Previsão. Análise de componentes principais.
if 1 02 511559

Orientador: Moisés Lima de Menezes

GILBERTO MARTINS DOS SANTOS. Evolução espaço-temporal das matrículas na modalidade de ensino Educação de Jovens e Adultos no Estado do Rio de Janeiro

Resumo: A Educação de Jovens e Adultos é uma modalidade de ensino da educação básica nos níveis fundamental e médio que tem como objetivo possibilitar pessoas adultas, que não tiveram a oportunidade de frequentar a escola na idade convencional, a retomar seus estudos. O objetivo principal do trabalho é avaliar a tendência e fatores associados ao número de matrículas na modalidade Educação para Jovens e Adultos no Rio de Janeiro. Através da análise de tendência, chegamos ao modelo quártico como aquele que melhor representa a curva dessa equação, e concluímos que o número de matrículas vem apresentando uma tendência de queda. O indicador da taxa de atendimento nos municípios sinaliza que grande parte deles ficou muito aquém do ideal, com muitos chegando a absurdos 0% de atendimento. Na análise de regressão, temos que as variáveis significativas “Taxa de Urbanização” e o ”Número de Escolas”, conseguem explicar a grande parte da variação na taxa de atend imento. Em linhas gerais, podemos constatar o grave cenário da Educação de Jovens e Adultos no estado do Rio de Janeiro e a necessidade de políticas públicas para conseguir alcançar essa grande demanda potencial existente no estado hoje.
Palavras-chave: Educação de Jovens e Adultos. Análise espacial. Regressão polinomial.
if 1 02 511559

Orientadora: Ludmilla da Silva Viana Jacobson

ISABELLA PERRUT PEREIRA SOARES PHILBERT. Abordagem singular spectrum analysis na previsão de faturamento de uma empresa de saneamento básico no Estado do Rio de Janeiro

Resumo: Os índices de volume faturado de água e volume faturado de esgoto por residência, comércio ou indústria têm se mostrado em constante variação ao longo dos anos. Isso se justifica devido ao crescimento populacional e também por meio da conscientização do consumo. Consequentemente, empresas do ramo de saneamento básico buscam tecnologia de informação por meio de sistemas computacionais e técnicas estatísticas capazes de prever com uma melhor acurácia o faturamento da empresa, afim de que a saúde do negócio não seja afetada. Uma das técnicas que pode ajudar nesta melhora da acurácia está na filtragem de séries temporais antes de sua modelagem. Singular Spectrum Analysis (SSA) é um método estatístico que pode, dentre outras coisas, filtrar séries temporais eliminando sua componente ruidosa e melhorando a acurácia da previsão. Este projeto propõe a comparação da modelagem de Holt-Winters e Box & Jenkins antes e depois da aplicação do método de filtragem SSA com a metodologia de Análise Gráfica dos Autovetores, para as duas séries: volume faturado de água e volume faturado de esgoto. As modelagens foram realizadas através dos programas Forecast Pro for Windows (FPW) e GNU Regression Econometric and Time Series Library (Gretl) e a filtragem SSA através do programa Catterpillar SSA. As avaliações do poder preditivo dos modelos são realizadas através das estatísticas de aderência critério de informação bayesiano (BIC), erro percentual médio absoluto (MAPE), raiz quadrada do erro quadrático médio (RMSE), coeficiente de determinação do modelo (R²) e coeficiente de determinação ajustado do modelo (R² ajustado). Os resultados obtidos indicam que, em todos os casos avaliados, os modelos de Box & Jenkins apresentam melhor desempenho que os modelos de Holt-Winters e que a realização da filtragem SSA promove um ganho preditivo aos modelos, sejam eles de amortecimento exponencial, sejam eles da classe ARIMA, tanto para o volume faturado de água quanto para o volume faturado de esgoto, proporcionando um ganho na acurácia da previsão de faturamento de uma empresa no ramo de saneamento.
Palavras-chave:  Faturamento. Volume faturado de água. Volume faturado de esgoto. Filtragem SSA. Modelagem ARIMA. Modelos de Holt-Winters. previsão.
if 1 02 511559

Orientador: Moisés Lima de Menezes

LORENA TEREZA BEZERRA GAMBONI. Previsão de energia natural afluente do subsistema sudeste sob a abordagem singular spectrum analysis

Resumo: A energia natural afluente (ENA) é uma das mais utilizadas no Brasil, tendo seu fornecimento sendo feito para cerca de 90% do território nacional. Porém, devido as condições climáticas e a falta de chuva nos tempos atuais a necessidade do uso de uma ferramenta de previsão torna-se imprescindível. A melhor ferramenta para fazer a previsão de ENA é a análise de séries temporais, podendo ser utilizado também a filtragem Singular Spectrum Analysis (SSA) que é um método em estatística que pode, dentre outras coisas, filtrar uma série temporal removendo o seu ruído para uma modelagem com previsão mais acurada. Este projeto teve como objetivo fazer a modelagem da série temporal de ENA do subsistema Sudeste usando os modelos de Holt-Winters e Box & Jenkins. Além disso, fazer uma filtragem SSA nessa mesma série retirando os ruídos e utilizar os modelos de Holt-Winters e Box & Jenkins para fazer a modelagem dessa série filtrada. Após as modelagens, foram usada s as est atísticas de aderência Desvio Médio Absoluto (MAD), Erro Percentual Médio Absoluto (MAPE), Raiz Quadrada do Erro Quadrático Médio (RMSE), Critério de Informação Bayesiana (BIC) e Coeficiente de Determinação (R2) para verificar a capacidade preditiva de cada modelo. Com as análises realizadas foi verificado que o modelo de Box & Jenkins obteve os melhores resultados quanto as estatísticas de aderência tanto na série original quanto na série filtrada e que a filtragem SSA de fato apresenta uma melhora quanto a capacidade preditiva.
Palavras-chave:  Energia natural afluente. Singular spectrum analysis. Séries temporais. Filtragem. Holt-Winters. Box & Jenkins. Modelagem.
if 1 02 511559

Orientador: Moisés Lima de Menezes

TAMIRIS SEVERINO TRAVASSOS. Avaliação de escala de dependência funcional segundo o ponto de vista da Psicometria Clássica e da Teoria de Resposta ao Item

Resumo: A presente monografia volta-se ao protocolo “Escalas Instrumentais de Vida Diária” de Lawton e Brody, no sentido de identificar características do instrumento que possam contribuir com o aprofundamento do entendimento da capacidade funcional de idosos nas avaliações neuropsicológicas envolvendo neurocognição. A capacidade funcional é entendida como uma entidade não observável cuja mensuração depende um instrumento de medida (usualmente denominado escala) constituído de itens baseados em uma concepção teórica específica para o construto em investigação. As escalas, por serem instrumentos de medida de natureza indireta, necessitam ser analisadas por meio de técnicas próprias da psicometria. Atualmente, os métodos de análise se baseiam nos métodos da psicometria clássica e da vertente moderna da Teoria da Resposta ao Item – TRI. A partir de registros de avaliação da funcionalidade de idosos de um hospital universitário, investe-se na análise da Escala de Lawton e Brody, com o suporte computacional do software R, com vistas a avaliação dos itens desse instrumento no que se refere à dificuldade que eles apresentam aos idosos com funcionalidade diminuída e à sua capacidade de discriminação de níveis de funcionalidade diferenciados, assim como permitir, para as categorias de funcionalidade indicadas pelo escore alcançado no instrumento, estimar o nível de declínio funcional de cada idoso. Os métodos da TRI permitirão obter a função de informação dos itens e do protocolo de modo a contribuir para o refinamento da análise da funcionalidade nas avaliações neuropsicológicas.

Palavras-chave: Funcionalidade. Declínio funcional. AIVD. Idosos. TRI. Psicometria clássica.if 1 02 511559

Orientador: Licínio Esmeraldo da Silva

TAYANIE DE FREITAS PESSANHA. Análise e previsão de séries temporais de dados anemométricos para geração de energia elétrica

Resumo: O Brasil é um país de dimensão continental. A extensa malha fluvial permitiu que se utilizasse do recurso hidrológico para geração de energia. Por conta disso, a maior parte da energia elétrica produzida no nosso país é de origem hidráulica. Porém, com o aumento da demanda devido a diversos fatores como o crescimento da população, o aumento dos componentes eletrônicos devido ao avanço da tecnologia e os fatores climatológicos que vêm tornando os recursos hídricos cada vez mais escassos, surge a necessidade de se ter uma fonte de energia complementar à hídrica e que seja limpa e sustentável. Nesta linha de pensamento, a energia eólica surge como uma boa opção. Este trabalho propôs um estudo sobre velocidades do vento em diferentes regiões do Brasil, tendo como objetivo a análise de viabilidade de instalação de usinas eólicas para produção de energia elétrica. Para isso, foram estudadas de forma separada por prazo e por espaço de tempo, dife rentes séries horárias e mensais de velocidade do vento utilizando análises e previsões de séries temporais com modelagens de Holt-Winters e de Box & Jenkins. Os resultados obtidos mostram que a classe de modelos mais adequada para se trabalhar neste tipo de variável dentre os modelos analisados é a classe de modelos ARIMA e que dentre as estações anemométricas estudadas, as estações de Campina Grande – PB, Espinos – MG e Passo Fundo – RS são as mais adequadas para se instalar parques eólicos.

Palavras-chave:  Séries temporais. Modelos ARIMA. Modelos de Holt-Winters. Velocidade do vento. Energia eólica. Energia alternativa.if 1 02 511559

Orientador: Moisés Lima de Menezes

YASMIN FERREIRA CAVALIERE. Estimando o tamanho de populações de difícil acesso usando o método network scale-up

Resumo: Para promover políticas de saúde pública, há uma grande necessidade em conhecer o tamanho de populações de difícil acesso, tais como profissionais do sexo, usuários de drogas, homens que fazem sexo com outros homens, entre outras. Populações essas, muitas vezes, estigmatizadas e até mesmo criminalizadas, mas que têm um papel muito grande na dinâmica de várias doenças transmissíveis. O método Network Scale-up (NSUM) usa informações indiretas obtidas da população geral para estimar o tamanho de tais populações. Para ilustrar este método, pode-se pensar no seguinte exemplo: pergunta-se a uma pessoa aleatoriamente selecionada da população geral “quantos dos seus amigos pertencem à população X?”. Além da população de difícil acesso de interesse, pergunta-se também sobre outras populações conhecidas. Essas perguntas são usadas, em um primeiro passo, para estimar o total de “amigos” de cada indivíduo, também chamado de grau do indivíduo, e, em um segundo passo, estima-se o tamanho da população de difícil acesso. Neste trabalho, foram simuladas populações conectadas em rede, usando um modelo de rede aleatória, e, para cada nó gerado, características foram aleatoriamente alocadas, conhecendo-se assim tanto as características dos indivíduos quanto de seus contatos. Amostras foram selecionadas dessas populações e estimativas para o tamanho dessas populações foram calculadas usando as abordagens frequentista e bayesiana dando indícios de que o método Network Scale-up tem se mostrado eficiente. Além disso, foram avaliados o tamanho da amostra, a prevalência de uma dada subpopulação, e outros parâmetros associados à modelagem. Nesse trabalho, foi possível validar o método NSUM em condições totalmente controladas e, em seguida, discutidos os problemas e vieses na aplicação aos dados reais.
Palavras-chave: Network scale-up. Populações de difícil acesso. Amostragem em rede. Epidemiologia. Saúde pública.
 if 1 02 511559

Orientadora: Mariana Albi de Oliveira Souza

Fechar Todos

2017 – Defesas no Segundo Semestre Letivo

Escondido

Your content goes here. Edit or remove this text inline or in the module Content settings. You can also style every aspect of this content in the module Design settings and even apply custom CSS to this text in the module Advanced settings.

ADRIANA DOS SANTOS LIMA. Construção e validação de instrumento para aferir a satisfação do estudante com a universidade

Resumo:  Universidades de qualidade são a base para o desenvolvimento da sociedade, e um dos aspectos pelo qual pode-se avaliar a qualidade do serviço prestado pelas universidades, consiste em aferir o grau de satisfação que os estudantes apresentam quanto a sua experiência acadêmica e social nos domínios da universidade. Até o presente momento, no entanto, não se tem conhecimento, no Brasil, de um teste psicométrico que meça o nível de satisfação do estudante com a universidade. O propósito deste estudo é desenvolver e validar um instrumento de medida da satisfação do estudante com a universidade na qual está regularmente matriculado, e testar suas qualidades psicométricas. Descrevendo desde o levantamento das dimensões relacionadas a satisfação do estudante, passando pela validação dos juízes e por sua aplicação em grupo focal, à aplicação em uma amostra de estudantes universitários, até a análise dos resultados do instrumento preliminar. A amostra compôs-se de 386 estudantes universitários de 17 estados brasileiros. Na análise da confiabilidade, o alfa de Cronbach (α = 0; 83) evidenciou elevada consistência interna do instrumento. A análise fatorial dos resultados sugeriu a presença de cinco fatores, dos quais o relativo às condições de trabalho é o que contém os principais preditores da satisfação do estudante. Este instrumento representa uma ferramenta útil para a otimização da satisfação do estudante de graduação que está regularmente matriculado em cursos presenciais do sistema de ensino superior brasileiro, abrangendo tanto universidades públicas quanto privadas.
Palavras-chave: Psicometria. Validade. Confiabilidade. Satisfação do estudante. Estudante universitário.
if 1 02 511559

Orientador: Hugo Henrique Kegler dos Santos

ANDERSON VASCONCELOS TOSCANO. Análise bayesiana dos fatores associados à área queimada em incêndios florestais no Parque Nacional da Chapada das Mesas

Resumo: Todos os anos é grande o número de incêndios florestais que acontecem no Brasil e no mundo. Pesquisas indicam que as características climáticas e geográficas influenciam no risco e na magnitude desses incêndios. Neste trabalho foram analisados registros de incêndios florestais no Parque Nacional das Chapadas das Mesas (MA) obtidos no site do Sisfogo, onde foi possível recolher as seguintes variáveis: área queimada, temperatura, umidade relativa do ar, relevo, altitude, velocidade do vento e número de dias sem chuva. Com o auxílio da inferência Bayesiana, modelou-se a influência dessas variáveis no logaritmo da área queimada por meio de regressão linear Normal. Para comparar os modelos foram utilizados o Fator de Bayes e o DIC. Diferentemente de outras pesquisas, as variáveis temperatura e umidade relativa mostraram-se pouco significativas, assim como relevo e velocidade do vento; as variáveis mais significativas foram altitude e número de dias sem chuva.
Palavras-chave: Regressão linear. Inferência Bayesiana. Incêndio florestal.
if 1 02 511559

Orientadora: Maria Cristina Bessa Moreira

DENISE DE OLIVEIRA ALVES CARNEIRO. Métodos bayesianos de seleção de variáveis

Resumo: A quantidade de dados gerados no dia a dia tem aumentado demasiadamente e com isso o interesse em se explicar um determinado desfecho tem-se tornado mais difícil, muitas vezes pela presença da multicolinearidade. Então surge a necessidade de métodos de seleção de variáveis que além de serem eficientes sejam mais rápidos e mais fáceis de se utilizar. Existem vários métodos de seleção de variáveis disponíveis na literatura. Dentre os mais utilizados estão o critério de informação de Akaike, AIC, de informação bayesiana, BIC, e o de informação do desvio, DIC, porém estes métodos são divididos em dois passos, ajustar todos os modelos possíveis e posteriormente calcular uma das medidas citadas para cada modelo e compará-los a fim de saber qual o melhor modelo. Como pode-se observar estes métodos podem ser bastante trabalhosos ou até mesmo inviáveis em alguns cenários. Uma possível alternativa aos métodos clássicos é a utilização de métodos de seleção de variáveis com o enfoque bayesiano. Os métodos bayesianos de seleção de variáveis baseiam-se em um único ajuste e utilizam uma variável indicadora responsável por determinar se uma variável é selecionada ou não e com isso torna possível quantificar a probabilidade de cada variável ser selecionada e a probabilidade de um determinado modelo ser escolhido. Neste trabalho é apresentado um estudo voltado para modelos de regressão linear múltiplo com três métodos bayesianos de seleção de variáveis: método de seleção de variáveis de Kuo & Mallick, métodos de seleção de variáveis de Gibbs e método de seleção de variáveis via busca estocástica. O objetivo é comparar tais métodos, através de um estudo de simulação de dois cenários (com presença/ausência de multicolinearidade) e modificando o valor inicial das variáveis indicadoras. Os três métodos estudados apresentaram bons resultados em ambos os cenários. Para os dois cenários observados o método de seleção de variáveis via busca estocástica se mostrou o mais rápido e o melhor por apresentar a maior probabilidade de o modelo correto ser visitado, sendo visitado 100% das vezes no cenário dependente quando as 4 primeiras variáveis indicadoras assumiram como valor inicial 1. Os valores iniciais adotados para todos os métodos nos dois cenários não influenciaram no ajuste do modelo para a probabilidade a posteriori, com exceção do método de seleção de variáveis via busca estocástica que sofreu influência quando se inicializava as quatro primeiras covariáveis em zero, caindo absurdamente a probabilidade. Este trabalho utilizou uma abordagem completamente bayesiana e os resultados computacionais foram obtidos por meio do R e BUGS (Bayesian inference Using Gibbs Sampling).
Palavras-chave: Métodos de seleção de variáveis. KM, GVS, SSVS. Inferência Bayesiana. OpenBUGS.
if 1 02 511559

Orientador: Jony Arrais Pinto Junior

FERNANDA COSTA TAVARES. Modelagem da autoavaliação de saúde negativa das mulheres no Brasil: um estudo utilizando a PNS 2013

Resumo: A autoavaliação de saúde é um indicador de natureza subjetiva, válido e considerado um importante preditor de morbidade e mortalidade. Neste trabalho, foi utilizado o modelo de regressão logística binária, usando os dados da Pesquisa Nacional de Saúde – PNS 2013, para analisar a autoavaliação de saúde das mulheres e sua associação com características sociodemográficas e de saúde. A PNS adota um plano amostral complexo, incluindo estratificação, conglomeração e pesos amostrais distintos para as unidades da amostra. Observou-se maior chance de autoavaliação de saúde negativa entre as mulheres mais velhas, que vivem com cônjuge ou companheiro, não brancas, menos escolarizadas e entre as mulheres que residem nas regiões Norte e Nordeste. Mulheres com posse de plano de saúde, com algum grau de dificuldade de locomoção, bem como as que declararam ter realizado exame clínico de mamas há três anos ou mais (versus há menos de 1 ano) e ainda entre as que informaram ter realizado o exame preventivo há menos de 1 ano (versus há 1 a 3 anos) reportaram saúde negativa. Mulheres que fumam e que não praticaram exercícios físicos também avaliaram negativamente a sua saúde. Destaca-se a necessidade de ações que promovam o maior atendimento das demandas das mulheres em termos de educação e acesso a serviços de saúde, a fim de promover a saúde física, mental e social da mulher e prevenir doenças.
Palavras-chave:  Regressão logística. Saúde da mulher. Autoavaliação de saúde. Pesquisa Nacional de Saúde. Plano amostral complexo.
 if 1 02 511559

Orientador: José Rodrigo de Moraes

FERNANDA DE ARAUJO PEDROSA. Investigando a violência infanto-juvenil no Brasil

Resumo: A violência infanto-juvenil é caracterizada por toda e qualquer violência física, psicológica, discriminação, negligência e maus tratos contra crianças e adolescentes. O impacto gerado pela violência desencadeou uma necessidade de reformular as práticas referentes ao modo de tratar esse problema, não somente com o tratamento, mas com diálogo entre serviços médicos, clínicos e de emergência, além da saúde pública, de forma a propiciar intervenções que não se limitem ao setor de saúde. O objetivo geral desta pesquisa foi delinear o perfil do óbito infanto-juvenil no Brasil, em especial os decorrentes de homicídio. Para tanto, foram avaliadas informações sobre 22.581 óbitos de indivíduos de 0 a 18 anos, ocorridos no período de 2012 a 2014, disponíveis no Sistema de Mortalidade do DATASUS. Estatísticas descritivas, testes de homogeneidade via estatística Qui-Quadrado, modelos logísticos e razões de chances foram utilizados para elucidar o comportamento da violência infanto-juvenil no Brasil. Foi verificado que a maioria dos óbitos por agressão foi decorrente de homicídios (96,23%) e através do uso de arma de fogo ou de objeto cortante ou contundente (93,59%). Também foi identificado que 49,5% dos homicídios ocorreram em via pública e apenas 30,31% deles foram investigados. Dentre os homicídios não ocorridos em via pública, cerca de 20% fizeram uso de objetos cortante ou contundentes ou das “mãos” do agressor. Por fim, foi constatado que a chance de homicídios em via pública é maior para rapazes (RC = 1,73), para adolescentes (RC = 6,63) e para indivíduos da raça negra/parda (RC = 1,13).

Palavras-chave: Agressão infanto-juvenil. Teste qui-quadrado. Modelo logístico. Razão de chances. if 1 02 511559

Orientadora: Núbia Karla de Oliveira Almeida

FILIPE BARRIENTOS BATISTA. Aplicação de técnicas multivariadas e de validação de teste de diagnóstico em Psicologia

Resumo: A psicologia vem cada vez mais utilizando de técnicas estatísticas, principalmente quando se trata da elaboração, validação e interpretação de testes psicológicos. Estes testes muitas vezes tratam com variáveis muito subjetivas de difícil medição, onde utilizamos a análise fatorial para entender quais variáveis originais explicam essas outras. Por lidarem com diagnóstico de doença também é importante que possuam uma chance de errar o resultado mínima e controlada, para tal são utilizadas as medidas de validação de teste de diagnóstico juntamente com a curva ROC para definir a sensibilidade, especificidade, ponto de corte entre outras coisas que aumentarão a precisão e confiança no resultado. Já na interpretação dos resultados uma técnica que se destaca é a de análise de cluster, por conseguir agrupar os indivíduos avaliados por suas características; esta técnica facilita a identificação das características mais influentes no comportamento de cada grupo. O presente trabalho pretende demonstrar o processo de elaboração de elaboração, validação e interpretação dos testes psicológicos utilizando exatamente as técnicas de análise fatorial, análise de cluster e validação de testes de diagnóstico, utilizando o software R e pacotes como Stats, ROCR e Psych.
Palavras-chave: Psicologia. Análise fatorial. Análise de cluster. Validação de teste de diagnóstico. Multivariada. Testes psicológicos.
if 1 02 511559

Orientador: Hugo Henrique Kegler dos Santos

GABRIELA DE SANTANA DOMINGOS. Geração de energia elétrica: tendências e previsões de energia hidrelétrica, térmica, termonuclear e eólica para suprir a demanda nas Regiões Sudeste e Centro-Oeste

Resumo: A vasta diversidade de recursos naturais no Brasil permite que a geração de energia possa ser feita a partir de várias fontes diferentes. O presente trabalho ressalta a importância do planejamento da utilização desses recursos para a geração de energia elétrica e suprimento da demanda. Foram estudados os principais tipos de geração de energia: hidrelétrica, térmica, nuclear e eólica. Análises de comportamento das tendências e previsões para as séries são fundamentais para melhor uso dos recursos responsáveis por esses tipos de geração. O trabalho aborda métodos de previsão recorrentes em séries temporais como os modelos de Box & Jenkins e os modelos de Holt-Winters, como possíveis meios de planejamento. Com intuito de melhorar a acurácia das previsões, foi utilizado o método estatístico Singular Spectrum Analysis (SSA), que consiste principalmente em filtrar as séries temporais. A finalidade principal desse trabalho é avaliar o ganho preditivo da modelagem Box & Jenkins e Holt-Winters usando filtragem SSA. A escolha dos modelos mais adequados foi feita com base nas estatísticas de aderência como a Raiz Quadrada do Erro Quadrático Médio (RMSE – Root Mean Square Error), o Erro Percentual Médio Absoluto (MAPE – Mean Absolute Percentage Error), o Desvio Médio Absoluto (MAD – Mean Absolute Deviation) e o coeficiente de determinação R2. De acordo com os resultados obtidos nos diferentes cenários abordados, concluiu-se que a abordagem SSA é mais eficiente no ganho preditivo das diferentes modelagens. Além disso, nas análises sem filtragem e com filtragem, os modelos de Box & Jenkins com componentes sazonais apresentaram melhor desempenho, que foram evidenciadas na observação das tendências das séries de geração de energia elétrica.
Palavras-chave: Singular spectrum analysis. Tendência. Energia elétrica. Previsões.
if 1 02 511559

Orientador: Moisés Lima de Menezes

GUILHERME CRUVELLO DA SILVEIRA MARTINS. Análise de clusters, singular spectrum analysis e cross validation na previsão de velocidade do vento

Resumo: A demanda de energia elétrica cresce exponencialmente com o aumento da população mundial e da modernização. Ser capaz de gerar e consumir energia limpa ́e um enorme desafio. Neste cenário, a energia eólica surge como uma possível fonte de energia complementar a energia hidrelétrica instalada no Brasil. Porém, este tipo de energia depende de série fatores climáticos que mudam constantemente com o tempo. Por este motivo, ser capaz de prever a velocidade do vento ́e um importante papel para o planejamento e a gestão das cidades. Este trabalho propôs a modelagem estatística de séries temporais com o auxílio da filtragem Singular Spectrum Analysis e da divisão Cross Validation. A primeira técnica busca decompor e reconstruir a série temporal sem a componente ruidosa, já o segundo método busca reestimar a série de forma iterativa com a adição de uma nova observação a cada instante de tempo. Para validação da previsão estatística foram utilizadas as seguintes estatísticas de aderência: RMSE, BIC, R2 e MAPE nos dados mensais de velocidade média do vento (em m/s) do município de Campos dos Goytacazes no Estado do Rio de Janeiro de janeiro de 2012 à dezembro de 2016. Os resultados apontam para essa amostra um ajuste melhor nos modelos in-sample após aplicação do filtro SSA. Já para previsão fora da amostra teve as melhores estatísticas de aderência com a combinação do filtro SSA junto da divisão do Cross Validation, mostrando ser um resultado promissor para o planejamento da energia eólica como fonte de energia.

Palavras-chave: Singular Spectrum Analysis. Análise de Cluster. Velocidade do Vento. Cross Validation.if 1 02 511559

Orientador: Moisés Lima de Menezes

IGOR SALES DO NASCIMENTO. Análise fatorial exploratória aplicada à escala de depressão em idosos

Resumo: A presente monografia versa sobre uma entidade não observável de interesse da área de saúde: depressão em pessoas idosas com comprometimento cognitivo segundo a escala CDR. A depressão é entendida como um traço latente cuja mensuração depende de um instrumento de medida, usualmente denominado escala. As escalas, por serem instrumentos de medida de natureza indireta, necessitam ser analisadas por meio de técnicas próprias da psicometria. Com base em um protocolo já existente e consolidado (Escala Geriátrica de Depressão – GDS-15) aplicou-se os métodos de Análise Fatorial Exploratória-AFE (que trata das diversas variáveis que definem uma entidade observável com o objetivo de encontrar fatores subjacentes das relações entre as variáveis), com a finalidade de encontrar relacionamentos entre os sintomas depressivos que identifiquem ou reduzam a quantidade desses fatores. Desta forma, pode-se identificar fatores que mostram de forma mais adequada os sintomas depressivos, permitindo diagnosticar com mais precisão o estado depressivo dos idosos. Foi aplicada a técnica de AFE com base em dois coeficientes (r de Pearson e Tetracórico) de modo a observar com qual deles se obtém melhores resultados. Obteve-se resultados mais satisfatórios com a inserção do coeficiente tetracórico em todas as etapas da AFE. Entretanto, estudos similares a esta área não apontaram para uma ferramenta que auxiliasse na aplicação de um critério de adequação amostral utilizando essa correlação. O critério disponível na literatura é o Critério de Adequação de KaiserMeyer-Oiken (KMO). Esta monografia deve ser considerada a etapa inicial de futuros estudos para que seja criado e continuamente aprimorado, um instrumento de adequação amostral aplicado a uma correlação específica para dados categóricos.
Palavras-chave: Depressão. GDS-15. Análise fatorial. Dados binários. Correlação tetracórica.
if 1 02 511559

Orientador: Licinio Esmeraldo da Silva

JOÃO VITOR DE AZEVEDO BASTOS. Estimando a elasticidade de demanda de energia no Brasil via meta-regressão

Resumo: No presente trabalho deseja-se estimar a elasticidade de demanda de energia no Brasil através da Meta-Regressão (Meta-Análise baseada em Regressão). Conhecer tal demanda é importante para o setor público para melhor planejar a oferta de energia que será disponibilizada. Um bom entendimento sobre a demanda de energia ajuda a evitar crises no setor. Mais que isso, uma boa gestão pública de energia pode contribuir para a manutenção de um crescimento sustentável do Produto Interno Bruto – PIB e/ou sobre a redução da inflação. Diversos trabalhos da literatura estimam a elasticidade da demanda de energia de forma direta através de modelos estatísticos e econométricos, como por exemplo em Dahl (1986), Santos (2013) e Freitas & Kaneko (2011). Tal como em Labandeira et al (2017), deseja-se encontrar uma estimativa mais precisa da elasticidade de demanda de energia no Brasil através das elasticidades já estimadas na literatura. Com dados de demanda de energia no território brasileiro, o presente trabalho estimou 4 modelos bem ajustados para elasticidade-preço e elasticidade-renda de curto e longo prazo, para diversos tipos de energia, como álcool, diesel, eletricidade, gasolina etc. As análises mostram que variáveis como “tipo de dado”, que não deveriam interferir nas elasticidades, são significativas para o modelo. Tais resultados implicam em uma análise mais apurada destas variáveis em trabalhos futuros.
Palavras-chave: Meta-análise. Meta-regressão. Elasticidade. Demanda de energia. Brasil.
if 1 02 511559

Orientador: Wilson Calmon Almeida dos Santos

JULIA CARVALHO AZEVEDO. Modelagem do número de casos de dengue no Estado do Rio de Janeiro nos anos de 2010 e 2012

Resumo: A dengue é uma doença viral cada dia mais frequente e que se espalha rapidamente no mundo. O responsável pela transmissão do vírus é a fêmea do mosquito do gênero Aedes aegypti. Os principais sintomas são: febre, cefaleia, manchas na pele, dores musculares, articulares e nos olhos, com diagnóstico de brando a grave e o tempo médio de incubação entre a picada e a manifestação da doença é de 5 a 6 dias. Em meses chuvosos verifica-se uma maior incidência de infectados pelo vírus. Já nos meses sem chuva ou chuvas amenas a doença apresenta uma queda chegando a não ter casos observados. O número de casos de pessoas com a doença é uma variável importante a ser analisada. Este trabalho tem como foco principal analisar um modelo para estimar o número de casos de dengue nos municípios do estado do Rio de Janeiro nos anos de 2010 e 2012, considerando que existe uma associação espacial entre os valores observados nos municípios do estado. Uma das conclusões que se obteve foi que o conjunto de dados de dengue no Rio de Janeiro vem sofrendo um aumento, considerando os anos de estudo deste, 2010 e 2012. E ao aplicar os modelos propostos neste trabalho constatou-se que ao modelar inserindo os dados do Índice de Desenvolvimento Humano (IDH) somado aos efeitos espaciais, se alcançou uma melhor adequação do modelo para os casos da doença viral no estado do Rio de Janeiro. Isto é, o modelo com efeito espacial se mostrou mais adequado do que o modelo apenas com efeito aleatório.
Palavras-chave: Estatística. Modelagem. Saúde Pública. Dengue.
if 1 02 511559

Orientador: Luis Guillermo Coca Velarde

LARISSA DOS SANTOS LIMA. Poluição atmosférica e internações por doenças respiratórias em Niterói: uma aplicação com modelos de regressão de Poisson

Resumo: Ultimamente, muito se ouve falar na poluição atmosférica dos grades centros e os danos que podem ser causados à saúde oriundos da exposição. Nesse âmbito, devido à ausência de estudos para a cidade de Niterói, decidiu-se investigar esse tema. Este trabalho tem por objetivo avaliar os fatores de risco associados às internações hospitalares por doenças respiratórias em crianças com até 4 anos completos e idosos com 60 anos ou mais de idade, no município de Niterói, RJ. Na análise dos dados utilizou-se Modelos Lineares Generalizados, aplicados ao Modelo de Regressão de Poisson, que são utilizados para investigar a relação entre uma variável resposta e um ou mais preditores. Na análise dos dados foi utilizado o software R. Os dados foram obtidos em diversas plataformas como DATASUS, DETRAN-RJ, INEA e INMET. Considerando os resultados dessa análise, pode-se observar que no grupo de crianças, a exposição ao PM10 em diferentes níveis está associada às internações por doenças respiratórias. Já no grupo de idosos essa variável mostrou-se significativa ao analisá-la no modelo simples. Porém ao ajustar o modelo, essa variável não apresentou associação com as internações por doenças respiratórias.
Palavras-chave: Poluição do ar. Doenças respiratórias. Crianças. Idosos. Internação hospitalar.
if 1 02 511559

Orientadora: Ludmilla da Silva Viana Jacobson

LEONARA ALVES CESÁRIO DA SILVA. Análise de dados de rankings com padrão de empates não revelados

Resumo: Da mesma forma que estimação pontual, estimação intervalar e testes de hipóteses, a ordenação ou a produção de um ranking também pode ser vista como um problema de interesse da inferência estatística. Saber manipular/analisar dados de ranking é muito vantajoso quando se quer comparar preferências ou objetos (de forma ordinal) em um conjunto de dados. Se dois ou mais objetos são indistinguíveis entre si, então esses elementos estão empatados, isto é, deveriam ter o mesmo rank. No caso específico que, originalmente, não houve a possibilidade de o juiz atribuir ranks similares a estes elementos, neste trabalho, esses dados serão denominados ‘dados de ranking com empates não revelados’. Este trabalho se propõe a criar três metodologias capazes de selecionar acertadamente o número de grupos (um grupo é um conjunto de objetos empatados ou indistinguíveis entre si). Além disso, serão discutidas detalhadamente maneiras de extrair informações desses dados e como a concordância entre os juízes pode ser influenciada ao não se considerar empates. Verificou-se que há interferência dos empates não revelados sobre a concordância entre os juízes e, aumentando o número de grupos, os testes de aleatoriedade empregados tendem a rejeitar, em maior quantidade, a hipótese nula de que não há um padrão nas escolhas dos juízes. Com base nisso, foram incrementados três métodos (Método da Verossimilhança, Método do AIC e Método do BIC) para a estimação do número de grupos e avaliou-se o desempenho dessas metodologias através de simulações e comparações com o método de Tibshirani. Tais comparações apresentaram resultados significativamente melhores contrapostos com o uso da estatística ‘Gap’ apresentada por Tibshirani. Notou-se, também, que houve algumas dificuldades dos métodos nos casos intermediários e alta precisão na estimação para valores nas extremidades.


Palavras-chave: Dados de Ranking com Empates. Empates não revelados. Concordância entre juízes. Teste da razão de Vverossimilhança. Critérios de informação (AIC e BIC). Modelo de Luce. Modelo de Thurstone. Teste de concordância.
if 1 02 511559

Orientador: Wilson Calmon Almeida dos Santos

LUCAS MENDES GOMES. Futebol, análise e previsão de seus resultados

Resumo: Ao longo dos últimos anos o campo de estudo para a área esportiva vem crescendo bastante no Brasil. Este trabalho se propõe a estudar um modelo que auxilie na previsão da quantidade de gols marcados por cada time no campeonato brasileiro de futebol. Para isto será utilizado o programa OpenBUGS e serão testados diferentes modelos utilizando modelos lineares generalizados com efeitos aleatórios que representam o ataque e a defesa de cada time, para verificar qual possui a melhor previsão para os dados do campeonato brasileiro de 2016. Foram apresentadas 5 propostas de modelo que conseguiram capturar características do desempenho dos times, por exemplo, fator ataque.

Palavras-chave: Modelos Lineares Bayesianos. Futebol.if 1 02 511559

Orientador: Luis Guillermo Coca Velarde

LUCIANA CAVALCANTE GUALBERTO. Rendimento acadêmico dos aspirantes da Escola Naval: uma abordagem por regressão quantílica

Resumo: O presente trabalho tem como objetivo analisar o desempenho acadêmico dos Aspirantes da Escola Naval, uma vez que suas notas são fator de influência na antiguidade que levam para o restante da carreira militar na Marinha do Brasil. O método escolhido foi a abordagem através do método de regressão quantílica, pois assim é possível verificar as diferenças entre alunos com notas mais altas e mais baixas. Foram consideradas como variáveis de desempenho acadêmico a média final, equivalente ao coeficiente de rendimento, e as médias em cada Centro, englobando disciplinas de exatas, humanas e práticas navais. Para analisar o desempenho acadêmico foram utilizadas informações do perfil socioeconômico dos ingressantes na Escola Naval no ano de 2016. Ao fim, concluiu-se que escolaridade dos pais e idade são fatores de influência em todos os quantis. Fatores como escola do ensino médio e fundamental e morar no Rio de Janeiro foram significativos em quantis e Centros específicos.

Palavras-chave: Aspirantes. Escola Naval. Regressão Quantílica. Desempenho Acadêmico. Perfil Socioeconômico.if 1 02 511559

Orientadora: Márcia Marques de Carvalho

LUISA SANTORO TEIXEIRA PONTES. A evolução do risco associado às ações PBR via modelo de regressão quantílica

Resumo: As ações da PETROBRAS [negociadas tanto no exterior quanto na bolsa de valores de São Paulo] vêm decaindo de maneira contínua desde 2009. Já em 2014, a divulgação dos esquemas de corrupção da Operação Lava-Jato foi associada à queda de valor expressivo da empresa. No entanto, como as ações vêm se desvalorizando desde antes da “crise política” que atingiu os brasileiros na transição entre o primeiro e o segundo mandato da presidenta Dilma, outros fatores poderiam justificar esses números, como por exemplo a crise econômica e financeira internacional de 2008, e a consequente queda do preço internacional do barril do petróleo. Já em tempos mais recentes, as ações têm tido um comportamento mais volátil, o que poderia ser associado ao aumento do risco de se investir na companhia. No presente trabalho, empregamos o modelo de regressão quantilica, tal como proposto em Engle and Manganelli, 2004 [1], a fim de analisar a evolução do risco associado à ação da Petrobras [PBR], usando para isto a medida Valor em Risco [VaR – Value at Risk], firmada no Segundo Acordo de Basiléia, e verificar se, de fato, houve um aumento do risco a partir do momento em que foram divulgados os escândalos de corrupção envolvendo membros da empresa. Comparamos também o VaR estimado em diferentes modelos do tipo CAViaR. O melhor modelo CAViaR que ajustou-se aos dados, tanto da variável PBR, quanto das outras escolhidas para comparações, foi o SAV. O modelo ADP se mostrou menos adaptativo na maioria dos casos. Verificou-se que o risco da ação PBR se tornou substancialmente maior do que o de outras companhias do setor no mundo ou mesmo do que o de empresas que possuem ações na bolsa de São Paulo ou nos Estados Unidos, o que pode ser um efeito da exposição negativa da imagem da companhia na midia por conta da operação Lava-Jato.

Palavras-chave: Petrobrás. Operação Lava-Jato. Regressão Quantílica. Valor em risco. Backtests. CAViaRif 1 02 511559

Orientador: Wilson Calmon Almeida dos Santos

PATRICIA BAIA NICOLATO. Modelo de regressão logística em dados longitudinais sob um enfoque bayesiano

Resumo: Na análise deste estudo, foi investigada a variável infecção por Staphylococcus aureus em pacientes de 0 a 24 anos, provenientes de um estudo já realizado em dois hospitais públicos referência em atendimento a pacientes infectados pelo HIV. Por ser caracterizada como uma variável binária, ou seja, só assume valores 0 ou 1 (onde 1 representa os pacientes infectados pela bactéria S. aureus e 0 caso contrário), havia a necessidade de implementar um modelo logístico que permitisse definir algum tipo de padrão sobre os dados observados. Pouco se sabe a respeito desta epidemiologia. Alguns dos fatores determinantes já foram levantados sobre tal colonização nasal, e são a exposição a grandes aglomerações e a realização de procedimentos considerados invasivos nos últimos doze meses. A contagem de células CD4 foi definida como sendo a variável regressora, por ser um dos exames mais significativos realizados em pessoas que se encontram com o vírus HIV e que devem ser feitos regularmente no sangue. Desse modo, esta variável poderia explicar melhor esta razão de chance da variável resposta. Além disso, os dados dos pacientes são longitudinais, descritos através de 3 consultas realizadas ao longo do período de observação do estudo. Para isto, foi elaborado modelo logístico que considerasse a associação longitudinal entre as observações, ou seja, que levasse em consideração os dias entre as consultas realizadas. Com a intenção de explorar a estrutura dos dados de forma mais apropriada, foram implementados dois modelos logísticos diferentes. Onde foi testado se o modelo proposto melhora a qualidade do ajuste quando comparado com um modelo sem considerar a característica longitudinal dos dados. Os resultados indicaram com base no critério de seleção de modelos adotado, o Deviance Information Criterion – DIC, que o modelo com influência dos dados longitudinais apresentou melhor ajuste aos dados.

Palavras-chave: Staphylococcus aureus. Modelos logísticos. Modelos dinâmicos. Células cd4. Dados longitudinais.if 1 02 511559

Orientador: Luis Guillermo Coca Velarde

RENATO VALLADARES PANARO. Modelagem e previsão da inflação anual efetiva medida pelo IPCA

Resumo: A inflação é o aumento do nível do preço de um determinado produto ao longo do tempo. Hoje, a inflação oficial dos bens e serviços presentes na economia brasileira é medida pelo Índice de Preços ao Consumidor Amplo (IPCA) e essa medida representa o aumento ou a diminuição dos preços em um determinado período. A alta inflação é prejudicial para a economia de um país e, quando fora de controle, pode gerar diversos problemas, tais como, a desvalorização da moeda nacional e aumento dos preços de produtos importados, a diminuição dos investimentos no setor produtivo, aumento da especulação financeira, elevação da taxa de juros e aumento do desemprego, além do clima de instabilidade econômica e insatisfação popular. Para conter a inflação, no Brasil, desde 1999, é adotada a política de metas de inflação que consiste em manter a inflação anual dentro do intervalo de tolerância estipulado para o ano, conforme estabelecido pelo Conselho Monetário Nacional (CMN). O objetivo desse trabalho consiste em avaliar a série histórica do IPCA, considerando os índices produzidos entre dezembro de 1999 e outubro de 2017 (inclusive) e identificar, estimar e comparar modelos. Para tanto, foram depurados dados mensais do Sistema IBGE de Recuperação Automática (SIDRA) referentes ao IPCA acumulado anual. O foco do estudo é modelar e produzir estimativas para valores futuros do IPCA e, dessa forma, identificar padrões e tendências presentes na economia do Brasil por meio de modelos que serão comparados em termos de parcimônia, ajuste e qualidade das previsões. Serão utilizados métodos para séries temporais do tipo SARIMA e suas derivações. Dentre os principais resultados, verificou-se que os modelos do tipo SARIMA não demonstram capacidade preditiva a longo prazo. Foram confrontados os modelos de Box-Jenkins de melhor estimação. Escolhidos através do critério AIC, os modelos SARIMA(1,1,2)(2,0,3)12; SARIMA(2,1,3)(1,0,2)12 e SARIMA(1,1,3)(2,0,2)12 apresentaram erros de estimação próximos a zero, já as previsões, foram comparadas com os valores do IPCA Efetivo, de junho de 2016 a novembro de 2017 e apresentaram erros de previsão expressivos. Além disso, a apuração dos resultados também permitiu compreender melhor o comportamento da série.

Palavras-chave: Modelagem. Box-Jenkins. Autoregressivo. Séries temporais. Índice. IPCA. Inflação.if 1 02 511559

Orientadora: Ana Beatriz Monteiro Fonseca

THAYLLA CAROLINA FRANKLIN ALVES. Métodos de análise de performances: uma aplicação na comparação do Brasil com demais países segundo a relação risco X taxa de juros

Resumo: A política da taxa de juros praticada pelo Banco Central do Brasil é amplamente discutida devido ao fato de ser considerada relativamente alta em comparação a outros países de economia em desenvolvimento, mesmo com a adoção do regime de metas de inflação, em 1999, com o propósito de orientar a política monetária do país. De acordo com a literatura, como, por exemplo, destacado em Reis (2016) [1], existem vários motivos que explicam este fato, inclusive o risco de inadimplência. De fato, segundo Reinhart e Rogo (2004) [2], pelo histórico de inadimplência do Brasil argumenta-se que o país, para atrair capital estrangeiro, deveria oferecer uma taxa de juros mais elevada do que a de economias semelhantes. Neste trabalho, o propósito foi medir a performance do Brasil em comparação aos demais países em desenvolvimento quanto à taxa de juros reais praticada pelo Banco Central de cada país, entre 2007 e 2015, associada a diferentes níveis de risco, e, para fins de comparação, foram utilizados os métodos de Análise Envoltória de Dados (DEA), Análise da Fronteira Estocástica (SFA) e Regressão Quantílica (proposta por Landajo et al. (2008) [3]). Foi visto que, dos países em análise, o Brasil é o que apresenta a segunda maior taxa de juros reais média, apesar de não ser considerado um dos países mais arriscados, e, baseando-se nos resultados encontrados através da implementação dessas metodologias, verificou-se que ele ocupa a primeira posição do ranking, independente do método utilizado, o que comprova que, de fato, a taxa de juros reais praticada pelo Banco Central do Brasil é relativamente alta quando comparada à dos demais países de economia semelhante.

Palavras-chave: Taxa de juros. Risco. Performance. DEA. SFA. Regressão Quantílica.if 1 02 511559

Orientador: Wilson Calmon Almeida dos Santos

Fechar Todos