Ciências Exatas e da Terra

A tendência de evolução do indicador de aprovação: uma análise comparativa dos anos de 1982 e 2006

Autor(es) e Instituição: 
Victor Basílio Faria (Caed/UFJF)
Thiago Otoni Matos (Caed/UFJF)
Karine Fernandes de Carvalho (Caed/UFJF)
Apresentador: 
Victor Basílio Faria

Resumo:

O objetivo do trabalho proposto é analisar a evolução das proporções de aprovados no sistema educacional brasileiro entre os anos de 1982 e 2006 e citação da modelagem das curvas através do modelo Profluxo, ambos ilustrados com gráficos. Os dados brutos das PNADs de 1982 e 2006 foram o objeto do nosso estudo.
De início foi apresentado o referencial teórico que nos motivou a estudar estes dados, que nos mostra uma breve introdução aos paradigmas do Sistema de Ensino brasileiro que começou a ser discutido na década de 40 e teve seu ápice de novas propostas na década de 80 e vem sendo amplamente discutido até os dias atuais.
A partir dos dados brutos foram gerados gráficos de proporção de aprovados por idades, primeiro individualmente para cada ano para que se tivesse uma idéia da tendência de cada ano, como a tendência de conglomerados para 1982 ( primário e ginásio). Posteriormente foi comparado as curvas da 1° série do Ensino Fundamental para cada ano, para que se tivesse uma idéia da grande evolução da proporção de aprovados.
Por fim citamos o modelo do Profluxo proposto na década de 80, que é utilizado para modelagem das curvas de proporção de ingressos e de aprovados, assim como a influência de cada parâmetro no comportamento das curvas.
Concluímos que houve um grande crescimento no percentual de aprovados no Sistema de Ensino brasileiro nas últimas duas décadas e que o modelo proposto mostra isso de forma muito satisfatória.

Resumo estendido: 

AJUSTE DE UM MODELO SARIMA À PRODUÇÃO MENSAL DE AUTOMÓVEIS DE PASSEIO NO BRASIL

Autor(es) e Instituição: 
Ana Julia Righetto - ESALQ/USP
Luiz Ricardo Nakamura - ESALQ/USP
Manoel Ivanildo Silvestre Bezerra - FCT/UNESP
Apresentador: 
Ana Julia Righetto

Uma série temporal, tem por objetivo construir modelos para determinadas séries com um próposito pré especificado. Dentro dos enfoques possíveis no ajuste de um modelo temporal, existem os modelos paramétricos (Modelo SARIMA, por exemplo), o qual foi trabalhado nesse estudo. Quando um modelo temporal é ajustado em uma série de dados é possível descrever o comportamento desta série, encontrar periodicidades relevantes nos dados e fazer previsões para os períodos seguintes e, com essa ideia, um modelo SARIMA foi ajustado em uma série relativa à produção mensal de automóveis de passeio no Brasil, no período de janeiro de 1998 à junho de 2008, período no qual, o Brasil estava com uma crescente produção de automóveis nesta classe.

An Empirical Comparison of EM Initialization Methods and Model Choice Criteria for Mixtures of Skew-Normal Distributions

Autor(es) e Instituição: 
José Raimundo Gomes Pereira
Celso Rômulo Barbosa Cabral
Leyne Abuim de Vasconcelos Marques
José Mir Justino da Costa
Apresentador: 
José Raimundo Gomes Pereira

We investigate, via simulation study, the performance of the EM algorithm for maximum likelihood estimation in finite mixtures of skew-normal distributions with component specific parameters. The study takes into account the initialization method, the number of iterations needed to attain a fixed stopping rule and the ability of some classical model choice criteria to estimate the correct number of mixture components. The results show that the algorithm produces quite reasonable estimates when using the method of moments to
obtain the starting points and that, combining them with the AIC, BIC, ICL or EDC criteria, represents a good alternative to estimate the number of components of the mixture. Exceptions occur in the estimation of the skewness parameters, notably when the sample size is relatively small, and in some classical problematic cases, as when the mixture components are poorly separated.
Key Words: EM algorithm; Skew-normal distribution; Finite mixture of distributions.

Resumo estendido: 

Análise Bayesiana na Teoria de Resposta ao Item Gradual

Autor(es) e Instituição: 
Marcos Alves dos Santos
Marcia D'Elia Branco
Apresentador: 
Marcos Alves dos Santos

Neste trabalho, estudamos o modelo de resposta gradual ao item que pode ser visto como uma extensão do modelo de resposta ao item binário. As categorias do modelo gradual podem ser ordenadas de tal forma que a categoria mais baixa contribuiria menos para o escore do individuo e a categoria mais alta contribuiria mais. Neste sentido, a escala de Likert é um clássico exemplo de resposta gradual em que as categorias poderiam ser definidas como: concordo completamente, concordo parcialmente, indiferente e não concordo. Para a estimação dos parâmetros dos itens e das habilidades foi introduzido variáveis latentes ao modelo. Esta abordagem permite que a posteriori exata seja obtida facilmente a partir do uso de prioris adequadas e do uso do algoritmo Gibbs que é facilmente implementado.

Resumo estendido: 

Distribuição Estatística dos Valores Extremos de Radiação Solar Global do Estado do RS

Autor(es) e Instituição: 
Suzane Ranzan
Simone Maffini Cerezer
Claodomir Antônio Martinazzo
Apresentador: 
Suzane Ranzan

O estudo das distribuições de variáveis aleatórias, ao longo do tempo, tem como finalidade possibilitar a compreensão de fenômenos meteorológicos para determinar seus padrões de ocorrência. Estimar a radiação solar global disponível na superfície terrestre faz parte da aplicabilidade desta fonte de energia. A Distribuição Generalizada de Valores Extremos (GEV) é usada para modelar a extensa variedade de extremos naturais. Desta forma, o objetivo deste trabalho é investigar a possibilidade da GEV descrever de modo satisfatório as séries de valores extremos de radiação solar global do Estado do Rio Grande do Sul. Os resultados obtidos, a partir da análise estatística realizada, permitem concluir que a GEV é adequada para estudar os valores máximos e mínimos de radiação solar global do Estado do Rio Grande do Sul para as regiões estudadas.

Resumo estendido: 

Modelo GARMA(p,q) para Séries Temporais de Dados de Contagem

Autor(es) e Instituição: 
Adriana Strieder Philippsen - ICMC - USP
Marcos Henrique Cascone - UFSCar
Marinho G. Andrade - ICMC - USP
Ricardo S. Ehlers - ICMC - USP
Apresentador: 
Adriana Strieder Philippsen

O presente trabalho, tem com objetivo realizar um estudo bayesiano para o modelo GARMA, que se trata de uma extensão dos Modelos Lineares Generalizados para séries temporais, bastante usado para dados de contagem, utilizando distribuições condicionais como Poisson, Binomial e Binomial Negativa. Para a análise, serão considerados conjuntos de dados simulados para mostrar que a modelagem bayesiana é eficaz e precisa na estimação dos parâmetros do modelo. Neste estudo, foram utilizadas distribuições a priori conjugadas na família exponencial e como resultado final das análises, são apresentados resumos descritivos das distribuições marginais a posteriori dos parâmetros de interesse. As amostras da distribuição a posteriori serão geradas fazendo uso das técnicas de simulação MCMC, em particular, o algoritmo de Metropolis e para verificar a convergência foi utilizado o critério de Geweke.

CONSIDERAÇÕES SOBRE A RUÍNA DO JOGADOR

Autor(es) e Instituição: 
Fernando de Jesus Moreira Junior
Silvana Ligia Vincenzi Bortolotti
Antônio Sérgio Coelho
Apresentador: 
Silvana Ligia Vincenzi Bortolotti

A Ruína do Jogador é um problema clássico de processos estocásticos utilizado para calcular a probabilidade de um jogador, que possui uma determinada quantidade de recurso financeiro, cair em ruína. Nesse trabalho, foram estabelecidas e analisadas diversas situações para verificar quando vale a pena o jogador entrar no jogo, ou seja, identificar quando que a probabilidade de sobrevivência é maior do que a de ruína. Também foi verificado qual a probabilidade de ganhar que o jogador deverá ter para possuir uma probabilidade desejável de sobrevivência, assim como saber qual deverá ser o capital inicial necessário.

The Complementary Exponential-Geometric Distribution for Lifetime Data

Autor(es) e Instituição: 
Mari Roman - UFSCar
Francisco Louzada Neto UFSCar
Vicente Garibay Cancho - USP
Apresentador: 
Mari Roman

In this paper we proposed a new two-parameters lifetime distribution with increasing failure rate, the complementary exponential geometric distribution, which is complementary to the exponential geometric model proposed by Adamidis \& Loukas (1998). The new distribution arises on a latent complementary risks scenarios, where the lifetime associated with a particular risk is not observable, rather we observe only the maximum lifetime value among all risks. The properties of the proposed distribution are discussed, including a formal prove of its probability density function and explicit algebraic formulas for its reliability and failure rate functions, moments, including the mean and variance, variation coefficient and modal value. The parameter estimation is based on the usual maximum likelihood approach. We report the results of a misspecification simulation study performed in order to assess the extent of misspecification errors when testing the exponential geometric distribution against its complementary one in presence of censoring data. The methodology is illustrated on four real data set, where we also made a comparison between both modelling approach.

ESTUDO E MODELAGEM DA DISTRIBUIÇÃO DO TEMPO DE ATENDIMENTO E DA FREQUÊNCIA DE CHEGADA DE VEÍCULOS EM UMA PRAÇA DE PEDÁGIO

Autor(es) e Instituição: 
Marjana da Silva Peixoto UFRGS
Lori Viali PUC e UFRGS
Felipe Brum de Brito Sousa
Apresentador: 
Marjana da SIlva Peixoto

Neste trabalho, procura-se modelar o tempo do atendimento e a freqüência das chegadas de veículos em uma praça de pedágio, encontrando a distribuição teórica mais adequada para cada caso. É feito também uma análise de alguns fatores intervenientes no tempo de atendimento Os dados utilizados foram coletados em uma praça de arrecadação de pedágio do estado do Rio Grande do Sul. As variáveis intervenientes no tempo de atendimento analisadas foram: dias típicos e atípicos, tipo de veículo atendido, forma de pagamento, existência ou não de fila, tempo de serviço (em meses) do arrecadador, horas trabalhadas do arrecadador e o sexo do arrecadador.

Resumo estendido: 

APLICAÇÃO DE PLANEJAMENTO DE EXPERIMENTOS NOS ESTUDOS DE SISTEMAS MICROEMULSIONADOS VISANDO À SOLUBILIZAÇÃO DA FRAÇÃO PESADA DO PETRÓLEO

Autor(es) e Instituição: 
Andressa Nunes Siroky / UFRN
Rayanna Assunção Henriques da Silva / UFRN
Apresentador: 
Andressa Nunes Siroky

Este artigo visa facilitar os estudos de solubilização, a partir de sistemas microemulsionados, da fração pesada do petróleo aplicando técnicas de planejamento de experimentos, na busca de um sistema que propicie a otimização do processo. A procura deste sistema foi influenciada por dificuldades encontradas durante a produção, pois há variações como de temperatura, pressão e outros que causam a precipitação das frações pesadas, dificultando assim o armazenamento e o transporte deste. É utilizado um plano fatorial fracionado 28-2 aleatorizado em quatro blocos. Os fatores estudados são: razão entre cotensoativo e tensoativo, temperatura, tensoativo, cotensoativo, fase água, fase óleo, concentração cotensoativo / tensoativo, razão entre borra e microemulsão, como bloco o dia da execução do experimento. A análise dos resultados do experimento permite recomendar um sistema que maximiza a porcentagem de solubilização da fração pesada do petróleo.

Resumo estendido: 
Divulgar conteúdo