2022 – 1º Semestre

Escondido

Your content goes here. Edit or remove this text inline or in the module Content settings. You can also style every aspect of this content in the module Design settings and even apply custom CSS to this text in the module Advanced settings.

AMANDA RAMALHO FERREIRA. Testes de normalidade: Um estudo Comparativo.

Resumo:  A suposição de normalidade dos dados é muito utilizada para realizar inferências sobre os parâmetros populacionais, diversos métodos estatísticos e fenômenos aleatórios podem ser descritos de forma aproximada pela distribuição normal. Por isso é de extrema importância que sejam realizados testes para avaliar o atendimento a esta suposição para um determinado conjunto de dados. O objetivo deste trabalho foi investigar quais testes de normalidade apresentam melhores resultados para diferentes tamanhos de amostras e distribuições. A metodologia utilizada foi um estudo de simulação, realizado no R \cite{R}, que utilizou amostras geradas aleatoriamente, para realizar sucessivos testes de normalidade e comparar as taxas de acerto. Os resultados desta pesquisa podem auxiliar em estudos futuros, na escolha dos testes que serão utilizados para as análises. Para amostras grandes, maiores que 1000, o teste Jarque Bera Robusto apresentou o melhor desempenho e no caso de amostras pequenas, de uma maneira geral, o teste Shapiro Francia obteve os melhores resultados.

Palavras-chave: Distribuição normal. Testes de normalidade. Simulação.if 1 02 511559

Orientador: Karina Yuriko Yaginuma (IME/UFF)

Banca:

  • Douglas Rodrigues Pinto (IME/UFF)
  • Estelina Serrano de Marins Capistrano (IME/UFF)
  • Hugo Henrique Kegler dos Santos (IME/UFF)
ANA CAROLINA CAVALLO HERINGER. Análise de risco do mercado financeiro americano utilizando Teoria de Valores Extremos.

Resumo: No mercado financeiro é de extrema importância se proteger das perdas extremas. Investidores e instituições financeiras de todo o mundo utilizam medidas de risco como, por exemplo, o Value-at-risk (VaR), para mensurar e se prevenir contra o risco de mercado presente nos ativos. O presente trabalho tem como principal objetivo utilizar a Teoria de Valores Extremos (TVE) para estimar a distribuição dos retornos financeiros e calcular o VaR, em comparação com outras metodologias tradicionais existentes na literatura: VaR Normal (paramétrico) e VaR histórico (não paramétrico). A abordagem paramétrica se baseia no conhecimento – ou suposição – da distribuição dos retornos, neste caso, a distribuição Normal. Em contrapartida, a abordagem não paramétrica consiste em utilizar a série histórica dos retornos para estimar as perdas financeiras. A capacidade de previsão dos modelos será avaliada pelo backtest de Kupiec, um teste estatístico conhecido como teste de proporção de falhas. A modelagem é feita com séries de preços de fechamento de três dos principais índices do mercado de ações americano: Dow Jones Industrial Average, Nasdaq Composite e New York Stock Exchange. Como resposta ao principal questionamento desta pesquisa, foi observado que o VaR Normal não possui boa adequação às caudas da distribuição, concluindo que a modelagem através da TVE pode ser vantajosa em relação a metodologia Normal.

Palavras-chave: Teoria de valores extremos. Risco. Bolsas de valores. VaR.if 1 02 511559

Orientador: Marco Aurélio dos Santos Sanfins (IME/UFF)
Coorientadora: Daiane de Souza Oliveira (DEI/PUC-Rio)

Banca:

  • Marco Aurélio dos Santos Sanfins (IME/UFF)
  • Daiane de Souza Oliveira (DEI/PUC-Rio)
  • Karina Yuriko Yaginuma (IME/UFF)
  • Valentin Sisko (IME/UFF)
BRUNO DE OLIVEIRA ALVES. Análise de Modelos de Regressão Quantílica e um estudo sobre suas diferenças em relação ao Modelo de Regressão Linear Clássico.

Resumo: Tendo em vista que análise de regressão é uma das técnicas mais usadas para medir a relação de uma variável com uma ou um conjunto de variáveis, essa análise é sensível a presença de outliers, este estudo visa apresentar a regressão quantílica, que é um modelo de regressão mais robusta a presença de outliers, que decorre do fato de ser utilizado o método da minimização dos erros absolutos ponderados para estimar os parâmetros do modelo, assim é possível estimar retas para qualquer um dos quantis amostrais dos dados, além do fato de permitir que os resíduos não sejam normalmente distribuídos. Realizou-se então um estudo sobre como estimar os parâmetros, os intervalos de confiança para os parâmetros e medidas para analisar a qualidade do ajuste do modelo de regressão quantílica. Diante disso, foi realizado um estudo usando a renda dos brasileiros comparando a regressão linear clássica e a regressão quantílica, onde a constatação foi de que a regressão quantílica se mostra mais qualificada do que a regressão linear, para analisarmos variáveis que tem uma distribuição assimétrica das suas observações, um segundo estudo foi realizado, a partir de dados sobre as chances de admissão há programas de mestrado de estudantes indianos, onde utilizamos de análises gráficas para verificarmos como os resíduos estavam distribuídos.

Palavras-chave: Regressão quantílica. Regressão linear. Método dos mínimos erros absolutos ponderados. Inferência estatística. Medidas de qualidade de ajuste.if 1 02 511559

Orientador: Karina Yuriko Yaginuma (IME/UFF)

Banca:

  • Karina Yuriko Yaginuma (IME/UFF)
  • Patrícia Lusié Velozo da Costa (IME/UFF)
  • Rafael Santos Erbisti (IME/UFF)
CAROLINA LOURENÇO DE SOUSA. Análise dos fatores de risco associados à depressão no Brasil, no ano de 2019.

Resumo: A depressão é um transtorno mental que coloca em risco a qualidade de vida do indivíduo, podendo prejudicar a vida pessoal, profissional e acadêmica de qualquer pessoa. É considerada, pela Organização Mundial de Saúde, a principal causa de incapacitação e está entre as dez principais causas de patologia, a nível mundial. O presente trabalho tem, então, o objetivo de conhecer o perfil da população brasileira maior de 14 anos que foi diagnosticada com depressão no ano de 2019, e identificar fatores possam estar a ela associados. A partir dos dados da Pesquisa Nacional de Saúde, do ano de 2019, foi levantado que perfil dos brasileiros acima de 14 anos é composto por de mulheres (52,95%), pessoas brancas e pardas (totalizando, aproximadamente, 88%), solteiros (47%), com média da idade de 43,24 +- 18,12 anos, com o ensino médio completo e faixa de rendimento domiciliar per capita entre 1/2 até 2 salários mínimos (aproximadamente 57,2%). Na análise de fatores associados à depressão, pelo teste qui-quadrado, foi concluído que, ao nível de significância de 5%, não há associação da variável relacionada à exercícios físicos ou esporte com o diagnóstico da depressão, enquanto que para todas as demais a associação foi considerada presente e altamente significativa (p-valor < 0,01). A partir desses resultados foi construído um modelo de regressão logística para explicar a chance de ocorrência de depressão em função das variáveis: sexo, idade, cor ou raça, estado civil, curso mais elevado que frequentou, frequência de problemas no sono, consumo de bebida alcoólica, prática de exercício físico, consumo de tabaco, renda domiciliar, renda domiciliar per capita, faixa de rendimento per capita e o nível de instrução mais elevado alcançado, que obteve ótimas qualidades de ajuste (Pseudo-R² próximo de 0,89) e de previsão (taxa de acerto global próxima de 90%). A partir do modelo estimado, observou-se que mulher, pessoa de cor ou raça branca, ser divorciado(a), ter problemas frequentes para dormir e hábito de fumar são fatores de risco para o diagnóstico da depressão. Além disso, o modelo estimou que, à medida que o indivíduo envelhece um ano, a chance de ser diagnosticado com depressão aumenta em 0,4%. Por outro lado, identificou-se, através do modelo estimado, que à medida que o grau de instrução aumenta, a chance de ser diagnosticado também aumenta. Por fim, ao contrário do esperado, consumir bebida alcoólica foi considerado fator de proteção para a doença.

Palavras-chave: Modelos de Regressão Logística. Amostra Complexa. Pesquisa Nacional de Saúde. Depressão. if 1 02 511559

Orientadora:  Ana Beatriz Monteiro Fonseca (IME/UFF)

Banca:

  •  Ana Beatriz Monteiro Fonseca (IME/UFF)
  • Jessica Quintanilha Kubrusly (IME/UFF)
  • Rafael Santos Erbisti (IME/UFF)
CAROLINA MARTINS CRISPIM. Comparação entre os Modelos SARIMA e os Métodos de Machine Learning para previsão de demanda,

Resumo: O Aprendizado de Máquinas é um tema em alta na área da estatística e outras áreas correlacionadas, está presente em quase todos os fóruns e congressos despertando a vontade de utilização dessa ferramenta nas pessoas e empresas. Uma forma de aplicar Aprendizado de Máquinas é realizando previsão de séries temporais, com expectativa de se obter bons resultados. Sendo assim, este trabalho se propõe a analisar a performance de dois métodos de Aprendizado de Máquinas, Floresta Aleatória e LSTM, em relação aos modelos de Séries Temporais SARIMA, aplicado a 84 séries temporais de produtos reais, para realizar previsão de demanda. Considerando como medida de erro o MAPE, ambos métodos de Aprendizado de Máquinas tiveram uma performance melhor que os modelos SARIMA, porém o método que obteve menor erro para a maioria das séries foi a Floresta Aleatória. De fato, os métodos de Aprendizado de Máquinas podem obter uma melhor acurácia na previsão de demanda, gerando valor para as empresas, porém, deve-se ressaltar que o modelo SARIMA, por ser probabilístico, possui capacidade de gerar mais informações sobre as séries temporais.

Palavras-chave: Previsão. Séries temporais. Aprendizado de máquinas. Floresta aleatória. LSTM.if 1 02 511559

Orientadora: Jessica Quintanilha Kubrusly (IME/UFF)
Coorientadora: Patrícia Lusié Velozo da Costa (IME/UFF)

Banca:

  • Jessica Quintanilha Kubrusly (IME/UFF)
  • Patrícia Lusié Velozo da Costa (IME/UFF)
  • Jony Arrais Pinto Junior (IME/UFF)
  • Mariana Albi de Oliveira Souza (IME/UFF)
CAROLINA MARTINS DE MEDEIROS. Exposição materna aguda a altas temperaturas e o risco de parto prematuro.

Resumo:  Estima-se que, no mundo, ocorram 15 milhões de nascimentos antes de 37 semanas de gestação, ditos prematuros. Suas consequências para a expectativa de vida do bebê são grandes, podendo levar a morte antes do primeiro mês de vida, ou então aparecer a longo prazo, fazendo com que a qualidade de vida como adulto seja bem difícil. Não há ao certo uma causa para a prematuridade, podendo ser algum fator genético ou fator externo. O objetivo desse trabalho é avaliar se existe associação entre a exposição materna ao calor (altas temperaturas) nos últimos dias de gestação e o nascimento de bebês prematuros na cidade do Rio de Janeiro. Para isso, foram utilizados Modelos de Regressão Logística. Foram utilizados dados do Sistema Nacional de Nascidos Vivos (SINASC) de nascimentos de uma única gestação (não gemelar), com peso acima de 1.500g e sem anomalia congênita do ano de 2019 e os dados do Instituto Nacional de Meteorologia (INMET) do mesmo ano para a verificação da temperatura média, mínima, máxima e aparente dos dias dos nascimentos. A variável resposta foi prematuridade, dividida em dois níveis: os nascimentos antes e depois de 37 semanas de gestação. As variáveis explicativas foram divididas em características da mãe e de nascimento e indicadores de temperatura. Com relação ao primeiro caso, as variáveis foram: idade, estado civil, escolaridade, raça/cor, município de residência, tipo de parto e quantidade de consultas pré-natal. Já para os indicadores de temperatura, as variáveis explicativas foram: amplitude da temperatura, temperatura média, mediana, percentis 75 e 90, temperatura aparente e também suas defasagens de 1 dia (lag). Ao estimar modelos de regressão logística simples para os indicadores de temperatura, foi observado que mediana lag foi o melhor indicador que explicou a prematuridade (OR = 1,020; intervalo de confiança de 95% (IC 95% = 1,010 – 1,029)) . A partir disso, foram adicionados as caraterísticas da mãe e de nascimento e o modelo com as variáveis explicativas mediana lag e quantidade de consultas pré-natal foi o melhor modelo. Para avaliar o efeito do calor na prematuridade, a variável mediana lag foi categorizada com um ponto de corte de 26°C (OR = 1,143; intervalo de confiança de 95% (IC 95% = 1,079 – 1,209)). A variável estação do ano foi uma modificadora de efeito do calor.
Palavras-chave:  Prematuridade. Altas Temperaturas. Regressão Logística.
 if 1 02 511559

Orientador: Ludmilla da Silva Viana Jacobson (IME/UFF)

Banca:

  • Ludmilla da Silva Viana Jacobson (IME/UFF)
  • Mariana Albi de Oliveira Souza (IME/UFF)
  • Patrícia Lusié Velozo da Costa (IME/UFF)
GABRIEL ALVES MIRANDA. Detecção de Bots no Twitter Através de Técnicas de Processamento de Linguagem Natural.

Resumo: Bot é definido como um programa capaz de performar atividades de forma automática ou com mínima intervenção humana. Nas redes sociais, o uso dos bots como mecanismo para disseminação de fakenews tem se mostrado um fenômeno recorrente na atualidade, por exemplo, no campo da disputa política. Desse modo, buscar ferramentas para identificar esses programas se mostra de extrema importância. Nesta monografia apresentamos um algoritmo que buscar identificar esses bots em redes sociais, através da análise textual das postagens dos usuários. A Análise Textual nesse contexto visa identificar aspectos como a morfologia e semântica do texto analisado e categorizá-lo. Os métodos serão aplicados nas bases de dados extraídas da rede social Twitter, e que serão analisadas em conjunto com o programa PEGABOT do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio) e do Instituto Tecnologia & Equidade. Foram testados três conjuntos de variáveis pelo método Naive Bayes e o modelo de classificação com as melhores métricas foi o que não utilizou como variável os tokens publicados, atingindo acurácia de 77%, sensibilidade de 80% e especificidade de 63%.
Palavras-chave: Processamento de linguagem natural. Análise Textual. Análise de sentimentos. Detecção de Bot. Python.if 1 02 511559

Orientador: Douglas Rodrigues Pinto (IME/UFF)
Coorientadora: Maiara Gripp de Souza (IM/UFRJ)

    Banca:

    • Douglas Rodrigues Pinto (IME/UFF)
    • Maiara Gripp de Souza (IM/UFRJ)
    • Jessica Quintanilha Kubrusly (IME/UFF)
    • Karina Yuriko Yaginuma (IME/UFF)
    JOÃO PEDRO FERNANDES MARTINS. Avaliação da desigualdade no acesso ao ensino superior no Brasil em 2019.

    Resumo: Atualmente, a oportunidade de começar a estudar em uma universidade não parece chegar da mesma forma para todos aqueles que concluem o ensino médio. Em vista disso, muito se discute sobre quais fatores poderiam determinar uma maior chance de ingresso no ensino superior. O objetivo do presente trabalho foi realizar uma análise exploratória sobre os microdados levantados na Pesquisa Nacional por Amostra por Domicílios Contínua (PNADc), realizada em 2019, especialmente aqueles relacionados ao tema de Educação e, a partir deles, construir um modelo de regressão logística para relacionar a chance de iniciar uma graduação a partir de características de cada indivíduo, como sexo, cor/raça, região geográfica, grau de escolaridade do chefe do domicílio e renda domiciliar. Com base neste modelo, foi estimado o Índice de Oportunidades Humanas (IOH), proposto inicialmente por Barros et al. (2009), para o Brasil no ano de 2019, sob a perspectiva de avaliar as desigualdades com relação ao ingresso em instituições de ensino superior (IES), possibilitando, também, comparar o acesso às IES públicas e privadas, em separado. Ao ser desconsiderado o tipo de instituição de ensino, o IOH encontrado foi igual a 0,331. Investigando-se somente o acesso às IES públicas, o IOH para 2019 foi de 0,172 e já para o ingresso em instituições particulares, o valor do IOH em 2019 foi de 0,154. Assim, foi percebida uma maior desigualdade de oportunidades em relação ao ingresso na educação superior nas IES privadas do que nas públicas. Destaca-se, também, que, nos três casos estudados, os índices calculados se encontraram distantes de 1, valor que indicaria uma situação onde o acesso à educação superior seria universal, ou seja, possível a todos.


    Palavras-chave: Acesso ao ensino superior. Regressão logística. Índice de dissimilaridade. Índice de Oportunidades Humanas.
    if 1 02 511559

    Orientadora:  Ana Beatriz Monteiro Fonseca (IME/UFF)
    Coorientador: Rafael Santos Erbisti (IME/UFF)

    Banca:

    • Ana Beatriz Monteiro Fonseca (IME/UFF)
    • Rafael Santos Erbisti (IME/UFF)
    • Márcia Marques de Carvalho (IME/UFF)
    • Mariana Albi de Oliveira Souza (IME/UFF)
    MARLENE LAMDIN CARVALHO. Análise e Previsão uma Série Temporal de velocidade do vento em Campo Grande/MS usando modelos de Holt-Winters e Box-Jenkins.

    Resumo: Este trabalho propôs duas classes de modelos de séries temporais para análise e previsão de velocidade do vento em uma estação anemométrica localizada no município de Campo Grande, em Mato Grosso do Sul. Para estas análises foram usados modelos de amortecimento exponencial de Holt-Winters e modelos da classe ARIMA de Box-Jenkins. Para tanto, testes de normalidade, estacionariedade e análises das funções de autocorrelação e autocorrelação parcial foram feitos para identificação dos parâmetros dos modelos, além de criteriosas análises de significâncias dos parâmetros estimados e estudos das estatísticas de aderência e de análise dos resíduos. Para previsão, foram usadas amostras treino e teste. Por fim, o modelo mais adequado para esta série temporal obtido foi o modelo de Holt-Winters sem tendência e com sazonalidade aditiva.
    Palavras-chave: Modelos de séries temporais. Velocidade do vento. Box-Jenkins. Holt-Winters. Previsão.
    if 1 02 511559

    Orientador: Moisés Lima de Menezes (IME/UFF)

    Banca:

    • Douglas Rodrigues Pinto (IME/UFF)
    • Márcia Marques de Carvalho (IME/UFF)
    • Mariana Albi De Oliveira Souza (IME/UFF)
    THIAGO LESSA DA COSTA. Aplicação de redes neurais para classificação de dados textuais.

    Resumo: Este trabalho aplica redes neurais para classificação de texto. Foi usado um banco de textos público e supervisionado onde cada texto é rotulado como discurso de ódio ou não. O banco foi dividido em treino e teste. As redes neurais aplicadas foram a Perceptron com uma e duas camadas ocultas. Foi observado um sobreajuste do modelo e o que apresentou melhor resultado foi aquele com 2 camadas ocultas, sendo 1 neurônio na primeira e 2 na segunda. Para esta configuração, conseguiu-se uma acurácia de 87,5% nos dados de treino e 61,7% nos dados de teste.
    Palavras-chave: Redes neurais. Classificação de texto. Aprendizado de máquinas. Deep learning.
     if 1 02 511559

    Orientadora: Jessica Quintanilha Kubrusly (IME/UFF)

    Banca:

    • Jessica Quintanilha Kubrusly (IME/UFF)
    • Douglas Rodrigues Pinto (IME/UFF)
    • Karina Yuriko Yaginuma (IME/UFF)
    WU XIN. Filtragem Colaborativa para o Mercado Varejista Digital.

    Resumo: O mercado de comércio eletrônico está em crescimento. Isso beneficia tanto o consumidor, devido a facilidade de acesso e diversidade de produtos, como também o vendedor, pois, em geral, lojas online demandam custo inicial e capital de giro menores em relação à loja física. Nesse sentido, este trabalho busca investigar o comportamento dos consumidores em diferentes categorias na área de comércio do E-commerce no Brasil através de modelos de Sistema de Recomendação para prever uma possível compra do usuário. Assim, tanto o consumidor pode ser beneficiado por ter melhores experiências de compra quanto o vendedor passa a ter uma probabilidade maior de vendas nos seus produtos. O objetivo deste trabalho é avaliar a capacidade preditiva do sistema de recomendação baseado em modelo utilizando o método de regularização LASSO. O algoritmo proposto foi avaliado tanto em dados simulados quanto na base de dados reais da Olist Store. Em geral, os resultados obtidos não foram satisfatórios. É possível que haja outras formas de fazer recomendações que tenham uma capacidade preditiva mais precisa.

    Palavras-chave: Sistema de Recomendação. Filtragem Colaborativa . Modelos Lineares. LASSO.if 1 02 511559

    Orientador: Rafael Santos Erbisti (IME/UFF)

    Banca:

    • Rafael Santos Erbisti (IME/UFF)
    • Ana Maria Lima de Farias (IME/UFF)
    • Jessica Quintanilha Kubrusly (IME/UFF)
    Fechar Todos

    2022 – 2º Semestre

    Escondido

    Your content goes here. Edit or remove this text inline or in the module Content settings. You can also style every aspect of this content in the module Design settings and even apply custom CSS to this text in the module Advanced settings.

    ALINE D’AVILA PEREIRA. Modelos Bayesianos de Análise de Sobrevivência aplicados a dados de Neoplasia Trofoblástica Gestacional.

    Resumo: A Doença Trofoblástica Gestacional (DTG) constitui grupo de tumores relacionados à gestação e originários do tecido trofoblástico placentário, cujo marcador biológico-hormonal é o hCG (gonadotrofina coriônica humana). A verdadeira etiologia dessa anomalia ainda não está clara, no entanto a origem da DTG parece ser por gametogênese e fertilização anormais, além da transformação maligna do tecido trofoblástico. A DTG é classificada em dois grupos de importância clínica: mola hidatiforme e neoplasia trofoblástica gestacional (NTG). Esta última é a forma maligna da doença e inclui a mola invasora, o coriocarcinoma, o tumor trofoblástico do sítio placentário (TTSP) e o tumor trofoblástico epitelióide (TTE). Trata-se de patologia rara, que ainda demanda estudos para melhor compreendê-la, em especial com relação ao tempo até o óbito, uma variável que apresenta censura, uma subárea para análise de sobrevivência cuja definição está relacionada ao fato de não existir uma data de ocorrência do desfecho. Esse parâmetro pode possuir inúmeras distribuições, dentre elas a distribuição de Weibull, a qual foi abordada no presente estudo. Assim, o objetivo do presente estudo é avaliar a letalidade NTG, utilizando o modelo bayesiano de análise de sobrevivência para estimar o tempo até o óbito. As características coletadas foram analisadas através da técnica de análise de sobrevivência com enfoque Bayesiano para estimar o tempo até o óbito. Assim, utilizou-se como variáveis explicativas: classificação quanto à dosagem de hCG < 100 mil (UI/L), histologia, origem, escore prognóstico OMS, metástase, classificação do escore prognóstico, tratamento no centro de referência (CR), tratamento inicial e intervalo entre término da gravidez e início do tratamento. Sendo a sobrevida (em dias) a variável de interesse. Além disso, avaliou-se a curva de sobrevida a partir da utilização do estimador de Kaplan-Meier. Para a obtenção das curvas de sobrevida utilizou-se o software RStudio e para o modelo Bayesiano o OpenBugs. Vale destacar que para definir a $priori$ dos parâmetros da Weibull, utilizou-se uma $priori$ não informativa para beta e r. Foram acompanhadas 2181 pacientes, desde o primeiro registro em um Centro de Referência até o óbito ou remissão, sendo que dessas 89 foram a óbito devido à NTG, o que representa 4,08\% de alcance do desfecho. Utilizando o estimador de Kaplan-Meier, observou-se diferenças nas curvas de sobrevida de todas as variáveis analisadas. Já em relação à avaliação do modelo Bayesiano, observou-se que as variáveis sem histologia, escore OMS menor ou igual 6 e tratamento inicial único contribuem para aumentar o tempo até o óbito. Com isso, notou-se que ajustar modelos com o enfoque Bayesiano permite analisar problemas altamente complexos, de forma eficiente e de fácil interpretação, sendo possível calcular a probabilidade do efeito positivo.

    Palavras-chave: Análise de Sobrevivência. Letalidade. Doença Trofoblástica Gestacional. Modelos Bayesianos.if 1 02 511559

    Orientador: Luis Guillermo Coca Velarde (IME/UFF)
    Coorientadora: Fernanda Freitas Oliveira Cardoso (ME/UFRJ)

    Banca:

    • Luis Guillermo Coca Velarde (IME/UFF)
    • Jony Arrais Pinto Junior (IME/UFF)
    • Antônio Rodrigues Braga Neto (ME/UFRJ)
    BRENDHA ALVES GOMES. Identificação de clusters persistentes de criminalidade no estado do Rio de Janeiro.

    Resumo:  A detecção de clusters espaciais ou espaço-temporais têm papel importante para a tomada de decisão das instituições competentes. O trabalho aqui proposto objetiva a detecção e identificação de clusters espaciais na ocorrência de crimes de roubo, furto e letalidade violenta no estado do Rio de Janeiro entre os anos de 2016 a 2020. Para tal, será utilizado a estatística Scan, proposta por Kulldorff (1997). Deseja-se identificar possíveis clusters persistentes em divisões territoriais da base de segurança feita pelo Instituto de Segurança Pública, ISP, que corresponde às menores áreas territoriais de apuração de indicadores de criminalidade, sendo as Circunscrições Integradas de Segurança Pública – CISP. As análises, para cada ano, serão realizadas de forma independente e será analisado se os possíveis clusters identificados apresentam comportamento semelhante ao longo dos trimestres. Dessa forma, foi possível observar que os municípios apresentam comportamentos diferentes em alguns trimestres. Entretanto, na grande maioria das vezes as áreas com risco mais alto de criminalidade, para os três desfechos de interesse, estão concentrados espacialmente na Região Metropolitana do estado.

    Palavras-chave: Estatística Espacial. Criminalidade. Rio de Janeiro. SaTScan. Cluster.if 1 02 511559

    Orientador: Jony Arrais Pinto Junior (IME/UFF)
    Coorientador: Rafael Santos Erbisti (IME/UFF)

    Banca:

    • Jony Arrais Pinto Junior (IME/UFF)
    • Rafael Santos Erbisti (IME/UFF)
    • Guilherme Augusto Veloso (IME/UFF)
    • Victor Eduardo Leite de Almeida Duca (IME/UFF)
    CAROLINE FERREIRA DA CRUZ GOMES. Modelagem de covariância espacial bivariada baseada em aproximações separáveis.

    Resumo: Os recursos computacionais se mostram cada vez mais necessários na área da Estatística e para diversas ciências, porém lidar com dados de alta dimensionalidade ainda é um desafio. Em estatística espacial, na área da geoestatística, as análises de dados multivariados espaciais necessitam da especificação de uma função de covariância cruzada, a qual define a dependência entre as variáveis do vetor resposta e as localizações do domínio espacial. Entretanto, o custo computacional para realizar o procedimento de inferência e predição pode ser proibitivo. Como consequência, o uso de modelos complexos é inviável. Neste trabalho, será considerado o modelo de covariância não separável para dados multivariados, apresentado em Porcu, Bevilacqua e Genton (2016), e a forma de aproximação da matriz de covariância cheia a partir de duas matrizes separáveis de menor dimensão, apresentada em Genton (2007) e Erbisti, Fonseca e Alves (2018). O método de aproximação é aplicado apenas no cálculo da verossimilhança, mantendo a interpretação do modelo original. Um estudo de simulação será conduzido para comparar a performance inferencial dos modelos aproximados, bem como o ganho em eficiência computacional. Diferentemente de Erbisti, Fonseca e Alves (2018), o objetivo é investigar o uso dessas aproximações separáveis para a matriz de covariância obtida a partir de funções que permitem diferentes alcances espaciais para cada componente do vetor resposta. O procedimento de estimação dos modelos será sob o enfoque bayesiano e implementado no software R. Por fim, desenvolveu-se um pacote no R para o cálculo da função de verossimilhança utilizando as aproximações separáveis.

    Palavras-chave: Estatística espacial. Modelos não separáveis. Aproximações separáveis. Inferência Bayesiana.if 1 02 511559

    Orientador: Rafael Santos Erbisti (IME/UFF)

    Banca:

    • Rafael Santos Erbisti (IME/UFF)
    • Patrícia Lusié Velozo da Costa (IME/UFF)
    • Viviana das Gra ̧cas Ribeiro Lobo (IM/UFRJ)
    CAROLINA TORRES BICHARA. Mensurando a influência de fatores socioeconômicos na taxa de incidência de Tuberculose entre os municípios do Rio de Janeiro.

    ResumoA Tuberculose é uma das mais antigas doenças infecciosas e tramissíveis da humanidade causada principalmente pelo bacilo aeróbico Mycobacterium tuberculosis. No Brasil, são notificados aproximadamente 100 mil casos novos e ocorrem cerca de 4,5 mil mortes por ano em decorrência da Tuberculose e, em especial, o Rio de Janeiro se destaca entre os três primeiros estados com maior taxa de incidência da doença nos últimos anos. O conhecimento da dinâmica da doença é imprescindível para subsidiar estratégias de vigilância e controle da mesma, desta forma, este trabalho tem como objetivo identificar associações entre a Taxa de Incidência de Tuberculose e indicadores socioeconômicos nos municípios do estado do Rio de Janeiro através de um Modelo de Regressão Linear Múltiplo. Primeiramente foi desenvolvida uma análise exploratória, via mapas coropléticos, para entender a distribuição da variável resposta e das variáveis explicativas no espaço geográfico. Posteriormente, constatou-se através do modelo que a cada uma unidade ou ponto percentual da densidade intradomiciliar, do percentual de ocupados com Ensino Médio completo ou da taxa de HIV existe um aumento na taxa de incidência de Tuberculose. O modelo final obteve um R2 = 0, 6001.

    Palavras-chave: Tuberculose. Taxa de incidência. Indicadores Sociais. Regressão Linear Múltipla. if 1 02 511559

    Orientadora: Ana Maria Lima de Farias (IME/UFF)

    Banca:

    • Ana Maria Lima de Farias (IME/UFF)
    • Jessica Quintanilha Kubrusly (IME/UFF)
    • Jony Arrais Pinto Junior (IME/UFF)
    ELIZABETH APARECIDA DE SOUZA MATOS. Análise e Previsão de Demanda de Energia Elétrica no Sudeste e Centro-Oeste do Brasil Através de Modelos de Séries Temporais.

    Resumo: A demanda por energia elétrica vem crescendo no país juntamente ao desenvolvimento tecnológico e aumento da população. O Brasil dispõe de diferentes recursos naturais, porém a energia hidrelétrica é responsável por mais de 65% de todo o consumo do país, sendo as demais gerações de energia utilizadas de forma complementar. A geração de energia pode ser otimizada a partir de uma perspectiva da demanda, cujo conhecimento prévio pode proporcionar um planejamento mais adequado para a distribuição. Este trabalho propôs gerar previsões de demanda de energia para as regiões Sudeste e Centro-Oeste para um horizonte de um ano, a partir de modelos de séries temporais pelos métodos de amortecimento exponencial de Holt-Winters e de modelos de Box & Jenkins. Na ocasião, estatísticas de aderência como MAPE, RMSE, R² e BIC foram utilizadas para avaliar a capacidade preditiva dos modelos e análises das FAC dos resíduos e testes de normalidade foram utilizados para fazer o diagnóstico dos mesmos a fim de se obter o melhor modelo para previsão. Os resultados mostraram que o modelo SARIMA apresenta melhores resultados do que as demais modelagens para a previsão de demanda de energia elétrica. Tais resultados contribuem para a utilização deste modelo no auxílio do planejamento energético do país.

    Palavras-chave: Estatística. Séries Temporais. Previsão. Demanda de energia. Modelo SARIMA.if 1 02 511559

    Orientador: Moisés Lima de Menezes (IME/UFF)

    Banca:

    • Moisés Lima de Menezes (IME/UFF)
    • Márcia Marques de Carvalho (IME/UFF)
    • Mariana Albi de Oliveira Souza (IME/UFF)
    FELIPE NELSON VICTORIA. Um modelo de previsão de resultados de partidas de futebol: Flamengo deveria ser o campeão em 2009?

    Resumo: O trabalho tem como principal objetivo desenvolver um modelo capaz de predizer os resultados para as partidas de futebol e o propósito secundário de demonstrar se o Flamengo era o time favorito para ser campeão brasileiro no ano de 2009. Para a realização do trabalho foi utilizado o método da Soma e Diferença 0, onde é assumido que X e Y são os números de gols marcados em uma dada partida pelos times mandante e visitante, respectivamente. Mais ainda, é admitido que X e Y são variáveis aleatórias independentes e ambas seguem uma distribuição de Poisson com parâmetros l-X e l-Y. Os ajustes dos modelos são feitos por meio das informações de quais são os times mandantes e visitantes e do número de gols marcados por cada um deles nas partidas do primeiro turno de cada campeonato analisado. Em posse do parâmetros, são feitas simulações para o segundo turno do torneio.
    Dessa forma torna-se viável apontar os times que mais vezes ganharam os campeonatos e assim, afirmar se um time é ou não um dos favoritos para se consagrar como campeão do Campeonato Brasileiro. O modelo desenvolvido foi capaz de prever os resultados finais das partidas disputadas na segunda metade dos campeonatos, apontando se houve uma equipe vencedora ou se o jogo terminou empatado e indicou que o Flamengo não era uma das equipes favoritas ao título em 2009.
    Palavras-chave: Método soma e diferença 0. Modelo de predição. Futebol.if 1 02 511559

    Orientadora: Karina Yuriko Yaginuma (IME/UFF)

    Banca:

    • Karina Yuriko Yaginuma (IME/UFF)
    • Hugo Henrique Kegler dos Santos (IME/UFF)
    • Marco Aurélio dos Santos Sanfins (IME/UFF)
    GABRIELA DE OLIVEIRA MONTEIRO. Análise de dados de luxação de quadril em crianças com Zika Congênita.

    Resumo: A Zika é uma doença transmitida pela picada do mosquito Aedes Aegypti, o mesmo transmissor da dengue. A doença foi identificada pela primeira vez no Brasil em abril de 2015, na cidade de Camaçari, próximo a Salvador (BA). Sua primeira descrição foi em um macaco em 1947, no país de Uganda, na floresta Zica, onde o vírus recebeu o nome do seu local de origem e o primeiro isolamento em humanos foi em 1952, também em Uganda. O vírus tem potencial de causar diversas formas de sintomas, de leves a graves, como exantema (manchas vermelhas na pele), dor de cabeça, febre baixa, conjuntivite e dores nas articulações. A Síndrome da Zika Congênita (SZC) se manifesta em recém-nascidos de mães que tenham sido infectadas pelo vírus durante a gravidez. Os principais sinais identificados nas crianças são alterações neurológicas (microcefalia), oftalmológicas e ortopédicas. O objetivo central do trabalho é descobrir possíveis fatores associados às luxações de quadril em crianças com Zika congênita. O estudo foi realizado com base nos dados de 31 crianças residentes no Estado do Rio de Janeiro e portadoras da Zika congênita. Foi usado um modelo de regressão logística sob um enfoque bayesiano, utilizando o Método de Monte Carlo via Cadeia de Markov (MCMC), para quantificar os efeitos dos diversos fatores sobre a condição de luxação das crianças do estudo. Inicialmente, foram considerados modelos com apenas uma variável regressora, e aquelas que se mostraram significativas foram consideradas no modelo múltiplo. Sendo assim, observou-se que os fatores que influenciam na ocorrência de luxação de quadril são a espasticidade, apresentando razão de chances de 19,79, e a alteração oftalmológica, com razão de chances de 7,35. Em outras palavras, as chances de uma criança ter luxação de quadril apresentando espasticidade são quase 20 vezes as chances de ter luxação quando a criança não apresenta espasticidade e a chance de apresentar luxação tendo observado a alteração oftalmológica é 7,35 vezes as chances em crianças que não possuem essa alteração.
    Palavras-chave: Zika congênita. Luxação de quadril. Regressão logística. Inferência Bayesiana.if 1 02 511559

    Orientador: Luis Guillermo Coca Velarde (IME/UFF)
    Coorientadora: Jakeline Oliveira da Fonseca (CMM/UFF)

    Banca:

    • Luis Guillermo Coca Velarde (IME/UFF)
    • Mariana Albi de Oliveira Souza (IME/UFF)
    • Núbia Karla de Oliveira Almeida (IME/UFF)
    GABRIELA SANTOS CORREIA. Processo de ramificação em modelos epidemiológicos.

    Resumo: Os modelos estatísticos desempenham um papel fundamental na vigilância epidemiológica, uma vez que o conhecimento da propagação de uma doença infecciosa facilita o direcionamento de políticas públicas. O processo de ramificação aparece na literatura como uma forma eficaz de entender a propagação de uma epidemia com características similares à de COVID-19, além de apresentar a vantagem da incorporação da aleatoriedade, intrínseca a um processo de contágio, de forma simples. Neste trabalho objetivou-se o estudo de teoria, aplicações e métodos do processo de ramificação. Para isso, desenvolveu-se o funcionamento deste processo, bem como sua média e variância, além do conceito de probabilidade de extinção. É exposto também um estudo de simulação, onde comparam-se os resultados obtidos com aqueles encontrados na literatura.

    Palavras-chave: Processos estocásticos. Modelos epidemiológicos. Probabilidade de extinção. Função geradora de probabilidade.if 1 02 511559

    Orientadora: Karina Yuriko Yaginuma (IME/UFF)

    Banca:

    • Karina Yuriko Yaginuma (IME/UFF)
    • Douglas Rodrigues Pinto (IME/UFF)
    • Jaime Antonio Utria Valdes (IME/UFF)
    INGRID TRINDADE MARROCOS. Modelando a relação entre fatores sociais e proficiência no ENEM.

    Resumo: O ENEM tem como principal objetivo analisar a proficiência dos alunos do ensino médio e possibilitar o seu ingresso no ensino superior. A partir de indicadores educacionais e socioeconômicos torna-se possível ter uma melhor compreensão sobre a real situação educacional de uma região e, com isso, auxiliar a discussão e criação de políticas públicas voltadas para ampliação e melhoria do sistema de educação. O objetivo deste trabalho é modelar a relação entre fatores que podem influenciar a proficiência dos alunos no ENEM, considerando a real desigualdade persistente no Brasil e suas diferenças regionais. Foi avaliada a proficiência dos alunos a partir das notas médias de matemática e português no ENEM de 2019 das escolas dos candidatos, em todo o Brasil. Após o agrupamento dos dados que estavam no nível do aluno para o nível da escola, obteve-se informação de 29.181 escolas para o modelo de matemática e 29.298 para o modelo de português. Neste trabalho foi utilizado o modelo de regressão linear normal incorporando a informação da localização espacial das escolas a partir de variáveis de efeitos fixos, identificando, assim, a microrregião na qual a escola pertence. Além disso, foi utilizado o método de regularização LASSO para selecionar os indicadores socioeconômicos e de infraestrutura escolar de maior relevância, bem como os efeitos fixos significativos relacionados às localizações das escolas, sendo usado o $\lambda = 0,446$, pois possui o menor erro de predição. Os resultados encontrados não se diferenciam dos já discutidos na literatura: nota-se que alunos não brancos, de renda baixa, oriundos de escolas públicas das regiões Norte e Nordeste apresentam menor proficiência em ambas as provas. Ademais, a presença de quadra e de candidatas gestantes na escola não demostrou ser relevante para a nota de matemática, e escolas com alunos autistas possuem efeito negativo na nota média das escolas nas provas de matemática (-110 pontos) e português (-66,3 pontos). Observou-se também que a maioria das escolas são públicas (72\%) e que as escolas localizadas no Sudeste são as que mais possuem candidatos de cor branca (72,5\%). Na análise dos resíduos, o Teste de Breusch–Pagan e Teste de Lilliefors rejeitam os pressupostos de variância $\sigma^2$ constante e normalidade, respectivamente.

    Palavras-chave: Modelo de regressão linear. LASSO. ENEM. Efeito espacial.if 1 02 511559

    Orientador: Rafael Santos Erbisti (IME/UFF)

    Banca:

    • Rafael Santos Erbisti (IME/UFF)
    • Ana Beatriz Monteiro Fonseca (IME/UFF)
    • Victor Eduardo Leite de Almeida Duca (GET/UFF)
    JOÃO PEDRO DE MATOS D’ASSUMPÇÃO. Definição rigorosa da distribuição uniforme no intervalo unitário.

    Resumo:  Neste texto, é exposto como é possível definir rigorosamente a distribuição uniforme no intervalo unitário. Para isto, definimos conceitos e demonstramos propriedades de medida. Infelizmente, a sigma-álgebra usada na definição não é a sigma-álgebra de todos os subconjuntos do intervalo real [0,1). Um dos exemplos apresentados indica impossibilidade de usar esta sigma-álgebra na definição.

    Palavras-chave: Probabilidade. Distribuição uniforme. Teoria da medida. Paradoxo de Banach-Tarski.if 1 02 511559

    Orientador: Valentin Sisko (IME/UFF)

    Banca:

    • Valentin Sisko (IME/UFF)
    • Jaime Antonio Utria Valdes (IME/UFF)
    • Douglas Rodrigues Pinto (IME/UFF)
    LETÍCIA FELIX BATISTA. Classificação da Polaridade de Tweets Relacionados a Artistas da Indústria Musical Brasileira.

    Resumo: Este trabalho teve como objetivo a criação de um classificador da polaridade de tweets relacionados a artistas da indústria musical. Para isso, foi construída uma base com mais de 5000 tweets mencionando a artista Anitta. Os tweets foram rotulados manualmente dentro das classes “negativa” e “positiva”, e com a base construída foram estudadas técnicas de classificação de texto como a utilização de um Léxico Rotulado e algoritmos de Aprendizado de Máquinas.

    Palavras-chave: Mineração de texto. Aprendizado de máquinas. Twitter. Estatistica. Indústria musical.if 1 02 511559

    Orientador: Douglas Rodrigues Pinto (IME/UFF)

    Banca:

    • Douglas Rodrigues Pinto (IME/UFF)
    • Jessica Quintanilha Kubrusly (IME/UFF)
    • Karina Yuriko Yaginuma (IME/UFF)
    MATHEUS FRANCO PEREIRA CARNEIRO. Modelagem dos casos de dengue em Florianópolis - SC, no período de 2017 a 2021.

    Resumo: A dengue é uma arbovirose causada pelo vírus DEN e possui quatro sorotipos diferentes: DENV-1, DENV-2, DENV-3 e DENV-4, sendo o mosquito \textit{Aedes aegypti} o principal transmissor da doença no Brasil. A doença se manifesta predominantemente em locais urbanizados de clima tropical, e seus ciclos endêmicos e epidêmicos costumam ocorrer a cada 4 ou 5 anos, totalizando mais de 7 milhões de casos notificados em território nacional. Por ser um país de dimensões continentais, com diferentes cenários populacionais, econômicos e climáticos, o estudo da dengue em cada localidade apresenta particularidades e, consequentemente, medidas de enfrentamento diferentes. A região Sul, tratada como uma região de improvável disseminação da doença, tem reportado uma progressão da atividade do mosquito vetor e um aumento do número de casos da doença, registrando, pela primeira vez, em 2020, taxa de incidência da dengue maior que a média nacional. O presente trabalho buscou avaliar o comportamento dos casos de dengue em uma grande metrópole da região Sul com histórico recente de epidemias. Sendo assim, analisou-se, no período de janeiro de 2017 a dezembro de 2021, o número de casos de dengue em Florianópolis, além de fazer previsões para as seis primeiras semanas epidemiológicas do ano de 2022. Para isso, foram realizadas análises de séries temporais pela metodologia Box e Jenkins, investigando a existência de correlação temporal entre a série de contagem de casos e as séries de índice pluviométrico e temperatura mínima, com objetivo de encontrar modelos com boa capacidade preditiva para a incidência de novos casos semanais da doença. Nos resultados obtidos, ao incorporar nos modelos variáveis climáticas, não foi observada uma melhora no ajuste dos dados. O modelo que mostrou-se mais adequado utilizou somente os dados passados da contagem de casos da doença. As predições para as seis primeiras semanas epidemiológicas do ano de 2022 mostraram-se razoáveis comparadas àquelas observadas na cidade de Florianópolis.

    Palavras-chave: Séries temporais. Box e Jenkins. Dengue. ARIMA.if 1 02 511559

    Orientadora: Ana Beatriz Monteiro Fonseca (IME/UFF)

    Banca:

    • Ana Beatriz Monteiro Fonseca (IME/UFF)
    • Patrícia Lusié Velozo da Costa (IME/UFF)
    • Victor Eduardo Leite de Almeida Duca (GET/UFF)
    PATRÍCIA MELLO MARÇAL PINTO. Uma metodologia de construção de uma base de dados de perfis do Twitter rotulados em bot ou em legítimo.

    Resumo: O Twitter é uma plataforma que fornece uma estrutura de uso simples e permite fácil acesso às pessoas, favorecendo à utilização de perfis automatizados, os bots sociais, que são contas de mídia social controladas totalmente ou parcialmente por algoritmos de computador. Os bots sociais podem ser benignos, quando são inofensivos, ou seja, não são poluidores de conteúdo, ou podem ser maliciosos, quando se passam por usuários humanos com o objetivo de manipular e poluir conteúdo. Além disso, a natureza automatizada dos bots maliciosos ajudam a amplificar a desinformação. Dessa forma, este trabalho se propõe a criar uma base de dados de perfis do Twitter rotulados em bot ou em legítimo, bem como fazer uma análise comparativa das características de perfis bots e legítimos. Foram empregados dois métodos diferentes para a coleta de usuários do Twitter, sendo que em um deles foi utilizado o mecanismo de contas honeypots (LEE; EOFF; CAVERLEE, 2011). Após a coleta de usuários, foi realizada verificação manual por meio de um questionário, a fim de obter os limites da pontuação bruta geral do classificador Botometer para definição de usuários legítimos e bots. No total, a base de dados contou com 1.279 contas, sendo 679 rotuladas como bots e 600 rotuladas como legítimas. Para a base de dados completa, foram extraídas informações de cada conta, assim como de suas publicações. Algumas variáveis analisadas indicaram maior heterogeneidade das contas classificadas como bots, ao passo que outras variáveis analisadas mostraram que as contas classificadas como legítimas apresentam maior variabilidade.

    Palavras-chave:  Base de dados rotulada. Bots. Twitter. Contas honeypots.if 1 02 511559

    Orientadora: Karina Yuriko Yaginuma (IME/UFF)

    Banca:

    • Karina Yuriko Yaginuma (IME/UFF)
    • Jessica Quintanilha Kubrusly (IME/UFF)
    • Patrícia Lusié Velozo da Costa (IME/UFF)
    RAFAEL ORNELLAS BARBOSA PEREIRA PIGOZZO. Análise de roubos no município do Rio de Janeiro via modelos aditivos generalizados.

    Resumo: A violência e a criminalidade causam danos e prejuízos à sociedade e ao Estado. O município do Rio de Janeiro, além de sofrer com problemas históricos na área de segurança pública, é afetado por um ciclo que envolve a menor participação na economia do país, indicadores sociais em queda, aumento do desemprego e o consequente aumento da criminalidade, em especial dos roubos. A coleta, estudo e análise de dados de roubos é importante para conseguir entender seus padrões. Pesquisar sobre a diferença de áreas geográficas e outros fatores que possam influenciar a ocorrência do roubo auxilia a prevenção e combate dos mesmos. Nesse contexto, este trabalho teve o objetivo de identificar, compreender e descrever o padrão de comportamento de dados de roubos na cidade do Rio de Janeiro no ano de 2019, através de modelos aditivos generalizados. Nesses modelos, foram incorporados indicadores sociais, econômicos, demográficos, educacionais e geográficos bem como componentes espaciais capazes de representar o padrão espacial dos roubos. Desejava-se avaliar os indicadores e associá-los com a ocorrência de roubos na cidade do Rio de Janeiro, no ano de 2019, utilizando modelos aditivos generalizados para estimar as probabilidades de ocorrência de roubos na cidade do Rio ao nível de quadrículas de 200 x 200 metros e incorporar os efeitos espaciais aos modelos aditivos generalizados a partir de suavizadores na localização geográfica de cada quadrícula. Dados foram obtidos do Instituto de Segurança Pública do Estado do Rio de Janeiro, do Censo demográfico de 2010 do Instituto Brasileiro de Geografia e Estatística, do Instituto Pereira Passos e do OpenStreetMap. As variáveis do modelo final deste trabalho foram selecionadas através de análise descritiva e testes no modelo proposto. Os resultados mostraram que as distâncias até a via rápida mais próxima, escola mais próxima e estação de trem mais próxima, as proporções de domicílios sem moradores do sexo masculino, domicílios em locais onde existe calçada, pessoas de mais de 59 anos de idade, a população média por célula e as coordenadas de longitude e latitude dos centroides das quadrículas possuem efeitos significativos na probabilidade de ocorrência de roubos no município. Dessa forma, a incorporação das informações espaciais ao modelo aditivo generalizado proposto pelo estudo se mostrou importante.

    Palavras-chave: Modelos aditivos generalizados. Splines. Roubos. Rio de Janeiro.if 1 02 511559

    Orientador: Rafael Santos Erbisti (IME/UFF)
    Coorientador: Jony Arrais Pinto Junior (IME/UFF)

    Banca:

    • Rafael Santos Erbisti (IME/UFF)
    • Jony Arrais Pinto Junior (IME/UFF)
    • Luis Guillermo Coca Velarde (IME/UFF)
    • Renata Souza Bueno (ENCE/IBGE)
    VITOR FERNANDES RODRIGUES. Uma Pandemia, a Probabilidade e Café: Uma Prosa Sobre Percolação.

    Resumo: Nessa monografia é feito um paralelo entre epidemia, e o porquê um surto viral pode vir a se transformar em uma pandemia, café e probabilidade, isto é, um estudo sobre Percolação. Para isso, foram expostos alguns conceitos preliminares sobre Funções Geradoras de Probabilidade, Processo de Ramificação, e Percolação, a fim de estudarmos um modelo epidêmico de Percolação de longo alcance em árvores homogêneas e em árvores alternadas.

    Palavras-chave: Ramificação. Percolação. Limitante superior. Limitante inferior. Comportamento crítico.if 1 02 511559

    Orientador: Jaime Antonio Utria Valdes (IME/UFF)

    Banca:

    • Jaime Antonio Utria Valdes (IME/UFF)
    • Valentin Sisko (IME/UFF)
    • Douglas Rodrigues Pinto (IME/UFF)
    Fechar Todos
    Skip to content