Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFS

2018
Descrição
  • THIAGO DA SILVA ALMEIDA
  • Segmentação e Reconhecimento de Semáforos com Ajuda de Instrução Especialista
  • Orientador : HENDRIK TEIXEIRA MACEDO
  • Data: 26/10/2018
  • Dissertação
  • Mostrar Resumo
  • Impulsionadas pelo alto número de pesquisas relacionados a veículos autônomos, as pesquisas sobre detecção e reconhecimento de semáforo tem crescido a cada ano. Além disso, técnicas de Aprendizado de Máquina tem sido amplamente utilizadas não apenas na pesquisa sobre reconhecimento de semáforos, como também em todos os campos em que pode ser útil generalizar dados e automatizar um comportamento humano. Os algoritmos de Aprendizado de Máquina requerem uma grande quantidade de dados para funcionar adequadamente e, por causa disso, precisam de muito poder computacional. Nesta dissertação foi investigado o uso de Conhecimento ou Instrução Especialista - IE na tentativa de reduzir a quantidade de dados exigidos por um algoritmo de Aprendizado de Máquina. O conhecimento especialista escolhido para ser utilizado como instrução foi a localização do semáforo numa dada imagem obtida do interior do veículo. Esta estratégia se baseia na teoria de que há maior probabilidade do semáforo aparecer em certas regiões como, por exemplo, nas regiões centrais e superiores da imagem. Foram construídos mapas de frequência de semáforos para validar essa teoria. Os mapas são o resultado da análise de um especialista humano sobre uma série de imagens, o especialista marca em cada imagem as coordenadas da região em que o(s) semáforo(s) aparece(m). Os resultados mostram que a inclusão do IE aumentou em pelo menos 15% a taxa de acurácia obtida pelo algoritmo de treinamento em dois bancos de imagem diferentes. A as taxas de avaliação alcançadas pela inclusão de IE também foram superiores num experimento completo incluindo a detecção de semáforo seguida da classificação pelo algoritmo treinado, neste teste a inclusão de IE obteve 83% de precisão e 73% de cobertura, enquanto o algoritmo de treinamento tradicional alcançou 75,3% de precisão e 51,1% de cobertura. Este trabalho também apresenta um protótipo de Dispositivo Reconhecedor de Semáforos (DRS) que pode ser utilizado para criar bancos de imagens e como suporte ao motorista. O DRS proposto utiliza um smartphone como câmera e unidade de processamento. Para validar o layout do protótipo, um conjunto de dados foi obtido e testado em um algoritmo de filtro de supressão de fundo adaptável (Adaptive Background Suppression Filter - AdaBSF) e Support Vector Machines (SVMs) para detectar e reconhecer semáforos. A aplicação do AdaBSF e subsequente classificação com SVM ao conjunto de dados alcançou uma taxa de precisão de 100% e reconvocação/cobertura de 65%.

  • LUIS EDUARDO DE SOUZA SANTOS
  • Um Processo para Elicitação e Documentação de Requisitos em Nível de Usuário por Meio de uma Pesquisa-Ação em uma Instituição Pública
  • Orientador : MICHEL DOS SANTOS SOARES
  • Data: 18/10/2018
  • Dissertação
  • Mostrar Resumo
  • A Engenharia de Requisitos se destaca como uma fase fundamental na Engenharia de Software, por instituir uma visão estrita e comum entre o cliente e a equipe do projeto sobre os requisitos do software a ser desenvolvido. Embora ainda haja alguma dificuldade, é possível encontrar especialistas em codificação de software nas várias linguagens de programação utilizadas atualmente, porém especialistas em requisitos de software são profissionais escassos no mercado. A definição dos requisitos de um software determinam o escopo e os limites do sistema que deve ser fornecido. Quando Analistas de Sistemas cometem erros durante as atividades de elicitação e documentação dos requisitos é provável que surjam problemas nas próximas atividades do ciclo de desenvolvimento do software. Os custos despendidos para resolução de problemas inseridos na documentação de requisitos podem elevar-se significativamente a medida que novas fases são iniciadas no ciclo de desenvolvimento. É comum encontrar empresas privadas ou instituições públicas com dificuldades para elicitar e documentar requisitos, seja pela falta de um processo específico ou pelo fato de não possuírem profissionais capacitados para realizarem essas atividades. A realização deste estudo teve como principal motivação a resolução dos problemas relacionados a documentação de requisitos em nível de usuário enfrentados por uma Instituição Pública na condução de seus projetos de software. Para resolver este problema foi realizado um estudo utilizando a metodologia da pesquisa-ação nesta instituição, com objetivo de propor e aplicar um processo para elicitação e documentação de requisitos em nível de usuário. No processo foi utilizado um template para documentação de requisitos utilizando a SysML. Durante a execução do estudo foi realizada uma avaliação qualitativa para verificar a eficácia do processo. Participaram do estudo de pesquisa-ação doze Analistas de Sistemas representantes da instituição, distribuídos em cinco projetos. A metodologia utilizada mostrou-se eficaz e proporcionou a construção da resolução do problema de forma participativa, envolvendo os pesquisadores e participantes do estudo. Os resultados obtidos sugerem que a intervenção realizada alcançou resultados positivos, inclusive com evidências de melhorias na elicitação e documentação dos requisitos em nível de usuário.

  • DENISSON SANTANA DOS SANTOS
  • Sistema de Recomendação de frameworks para Desenvolvimento Multiplataforma em Dispositivos Móveis
  • Orientador : ALBERTO COSTA NETO
  • Data: 31/08/2018
  • Dissertação
  • Mostrar Resumo
  • O número e a variedade de dispositivos móveis têm crescido bastante atualmente, assim como o número de plataformas de diferentes fabricantes, sistemas operacionais e linguagens de programação existentes no mercado. Para acompanhar esse crescimento, os desenvolvedores, com o objetivo de disponibilizar suas aplicações para o maior número de plataformas, buscam cada vez mais otimizar a forma de desenvolver aplicativos mobile. Criar a mesma aplicação específica para cada plataforma demanda maior investimento financeiro, tempo e mão de obra. Para diminuir esses problemas surgiram os frameworks de desenvolvimento mobile para multiplataformas, onde torna-se possível a criação de aplicações para várias plataformas a partir do mesmo código fonte. No entanto, surge um dilema tanto para o desenvolvedor quanto para empresas de desenvolvimento: a pluralidade e diversidade desses frameworks, pois cada um possui objetivos e características que se aproximam e, em outros casos, distanciam-se um dos outros. Como por exemplo as diferentes linguagens usadas no desenvolvimento, as diferentes plataformas e recursos suportados, os diversos tipos de licença, dentre outros. Além disso, existe uma demanda por aplicativos de diversas finalidades e equipes de trabalhos com diferentes perfis de formação. Por esses motivos apresentados, a escolha do framework não é trivial. Com o objetivo de ajudar os desenvolvedores e empresas de desenvolvimento de software mobile, este trabalho apresenta uma abordagem capaz de indicar qual framework de desenvolvimento de aplicativos multiplataforma é mais adequado para um projeto. Ademais, a abordagem supracitada foi implementada através de um sistema de recomendação que considerou os fatores críticos de um dado projeto informados pelo desenvolvedor.

  • RODRIGO OCTÁVIO MELO DO AMARAL
  • Otimização com Muitos Objetivos por Múltiplos Enxames Aplicada ao Escalonamento Dinâmico de Projetos de Software
  • Orientador : ANDRE BRITTO DE CARVALHO
  • Data: 31/08/2018
  • Dissertação
  • Mostrar Resumo
  • Os processos da Engenharia de Software geralmente envolvem problemas com requisitos e restrições conflitantes. Para a solução desses problemas, recentemente surgiu o conceito deSearch Based Software Engineering (SBSE). A SBSE consiste basicamente no uso de algoritmos de busca e otimização para encontrar soluções de forma automática e equilibrar o compromissoentre os objetivos dos problemas comuns a suas várias ramificações. Uma das áreas da SBSE ocupa-se do gerenciamento de projetos de software, sendo que um de seus principais desafiosé o problema de escalonamento de projetos de software (SPSP, do inglês Software Project Scheduling Problem). Soluções para este problema buscam montar um cronograma de projeto de modo que a alocação dos empregados às tarefas disponíveis minimize tanto a duração total do projeto quanto seu custo final, caracterizando o SPSP como um problema de otimização multiobjetivo. No entanto, o ambiente de projetos de software está sujeito a muitas incertezas, o que faz com que o espaço de soluções possíveis se transforme ao longo do tempo. Essa natureza dinâmica traz a necessidade de que os cronogramas sejam também estáveis e robustos frente a mudanças, introduzindo novos objetivos a serem conciliados. Assim, nessa nova abordagem o SPSP é modelado como um problema de otimização dinâmica com muitos objetivos (quandohá mais de três funções objetivo). Este trabalho tem como objetivo investigar a aplicação de algoritmos de otimização multiobjetivo ao problema de escalonamento dinâmico de projetos desoftware (DSPSP). Para isso, foi utilizada a meta-heurística de otimização por múltiplos enxames de partículas, abordagem ainda pouco explorada para aplicação ao DSPSP. O algoritmo propostoexplora características do problema, buscando conciliar tanto o aspecto de otimização dinâmica, por meio do uso de múltiplas populações, quanto o de ser um problema com muitos objetivos,por meio dos métodos de arquivamento. Além da utilização de múltiplos enxames, o trabalho explora também o uso de mais dois algoritmos multiobjetivo já aplicados a outros problemasna área de SBSE, porém ainda não aplicados ao problema de SPSP dinâmico. Em conjunto com a otimização por múltiplos enxames, são exploradas ainda algumas estratégias heurísticasdinâmicas para a inicialização das populações, de forma a aproveitar características das melhores soluções já encontradas. Essas estratégias também são aplicadas aos demais algoritmos avaliados,a fim de verificar como elas influenciam o desempenho. A validação do algoritmo é feita por meio de um conjunto de experimentos que comparam o algoritmo proposto com dois algoritmos consagrados da literatura (NSGA-II e SMPSO).

  • OTHON STUART FERREIRA CAMPOS
  • Data Analytics Transparente para Descoberta de Padrões e Anomalias na Realização de Convênios e Contratos de Repasse Federais
  • Orientador : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: 29/08/2018
  • Dissertação
  • Mostrar Resumo
  • Contexto: As recentes políticas de disponibilização de dados públicos pelo governo federal devem estimular a participação da população na fiscalização da transparência da gestão. Esta participação pode ser potencializada e estimulada, desde que os dados fornecidos pelo governo sejam estruturados e dispostos de uma forma entendível, ou efetivamente transparente, para o cidadão. Quando isto não ocorre, pesquisas sobre dados abertos podem contribuir com a estruturação, autenticação, interpretação, organização, tradução, descoberta de padrões e disponibilização de informação útil para tomada de decisão e para o controle social exercido pela população. Objetivo: Este trabalho teve como objetivo aplicar técnicas de Data Analytics e Mineração de Dados, para analisar dados públicos sobre convênios e contratos de repasse federais, avaliando a possibilidade de criação de aplicação transparente para encontrar correlações e anomalias que evidenciem ilegalidade administrativa (www.transparenciatraduzida.com.br). Método: Foi realizado um mapeamento sistemático, para caracterizar os últimos 10 anos na área, um estudo de caso para identificação de outliers, bem como um experimento, para descoberta de regras de associação envolvendo parlamentares, com o suporte de análises estatísticas e testes de hipóteses. Resultados: Não foram encontrados trabalhos sobre convênios e repasses federais, nas bases científicas indexadas pelo Scopus. Após a execução do estudo de caso, identificou-se 36 convênios com valores aberrantes (outliers), totalizando R$ 47.961.892,70. Com a execução do processo experimental, foram identificadas duas regras de associação entre parlamentares e áreas. Conclusão: Constatou-se o baixo número de publicações primárias, na área de análise inteligente de dados para Governança Pública, evidenciando um grande campo para desenvolvimento de pesquisas futuras. Foram encontrados diversos valores aberrantes (outliers) entre os valores dos convênios ainda em execução no Brasil, inclusive no Estado de Sergipe. Em se tratando do experimento realizado para Sergipe, após aplicação do algoritmo para descoberta de regras de associação, foram encontradas apenas duas regras significantes. Estas descobertas iniciais e suas explicações, em um nível entendível para a população, evidenciam a necessidade de tradução popular dos dados abertos brutos brasileiros, legitimando o verdadeiro conceito de transparência.

  • JONATAS CEZAR VIEIRA SANTOS
  • Utilização de Técnicas de Redução de Dimensionalidade em Algoritmos de Otimização com Muitos Objetivos no Problema de Sincronização de Semáforos
  • Orientador : ANDRE BRITTO DE CARVALHO
  • Data: 29/08/2018
  • Dissertação
  • Mostrar Resumo
  • A mobilidade urbana é um problema atual da sociedade moderna e dos grandes centros urbanos. Os Sistemas Inteligentes de Transporte (ITS) utilizam a tecnologia para tentar resolver essesproblemas de mobilidade. No contexto de ITS, a gestão de tráfego é uma área que utiliza novos conceitos de organização e manutenção do tráfego, buscando obter um fluxo de tráfego dequalidade. A sincronização de semáforos é um deles e seu principal objetivo é garantir que os veículos tenham uma boa fluidez no trânsito, garantindo percorrer um trajeto em menos tempopossível. Com uma sincronização atingida, as medidas de qualidade tendem a melhorar, como a redução de emissão de poluentes, consumo de combustível, tempo de atraso, velocidade médiaglobal e outras. Indicar o melhor tempo semafórico é uma tarefa bastante complexa. É difícil modelar uma situação real, pois existem cadeias de cruzamentos, com características diferentes.A otimização em sincronização de semáforos se classifica como problema NP-Completo, a dificuldade do problema cresce exponencialmente, quando os números de variáveis de decisãoe de medidas de qualidades aumentam. Sendo assim, nenhuma técnica clássica seria capaz resolvê-lo em um tempo razoável. Uma solução, é modelar o problema como de otimização,através de um simulador de tráfego. Com o simulador é capaz de construir uma representação computacional semafórica, composta por vias, rotas, veículos, cruzamentos e semáforos. Apartir de configurações de condições de fluxo em cenários diferentes, podemos obter essas medidas de qualidades, tratadas como objetivos, extraídas do próprio simulador. O problema émodelado como de otimização multiobjetivo e por trabalhar com mais de 3 funções objetivos, é classificado como de otimização com muitos objetivos. Algoritmos tradicionais enfrentamproblemas na otimização com muitos objetivos, uma das técnicas para resolver é a redução de objetivos. O objetivo desse trabalho é utilizar técnicas de aprendizagem de máquina de reduçãode dimensionalidade, para redução de objetivos no problema de sincronização de semáforos. Foram aplicadas duas técnicas na busca de identificar os objetivos os essenciais e descartar osdemais para reduzir. As técnicas trabalhadas foram o L-PCA e o K-PCA utilizando os kernels polinomial, RBF e sigmoide. Uma otimização, utilizando os algoritmos NSGA-II e NSGA-III,foi aplicada nos conjuntos contendo todos os objetivos, foram trabalhados 12, e também para os subconjuntos obtidos pela redução. Foram feitas comparações das otimizações entre os conjuntossem redução e os subconjuntos reduzidos. Também foram executados testes para identificar se houve diferença estatística entre os algoritmos. Os resultados mostraram que o NSGA-III obtevemelhores resultados, e o K-PCA com kernel polinomial foi o melhor algoritmo de redução, conseguindo até superar o NSGA-III sem redução. Concluiu também que não houve diferençaestatística entre os algoritmos, sendo assim, trabalhar com um conjunto menor de objetivos, se tem um desempenho melhor na otimização sem perder a qualidade das informações.

  • DAVY OLIVEIRA BARROS SOUSA
  • Rastreamento de Células em Vídeos 3D
  • Orientador : HENDRIK TEIXEIRA MACEDO
  • Data: 28/08/2018
  • Dissertação
  • Mostrar Resumo
  • Realizar o rastreamento de células é importante para a cura e prevenção de doenças. Isso se deve ao fato da motilidade celular estar ligada a vários processos celulares. Porém, realizar a análise da trajetória de uma célula não é um trabalho simples, pois para armazenar as informações da trajetória é necessário uma grande quantidade de imagens, principalmente em imagens 3D. Dessa forma, faz-se necessário a criação de algoritmos que possam realizar o rastreamento celular de forma prática e automática. Neste trabalho foi dada continuidade ao trabalho de conclusão de curso (TCC) de Sousa (2015) de forma a melhorar o algoritmo de rastreamento já implementado por ele. Para suprir as deficiências do algoritmo implementado por Sousa (2015), foram feitas modificações na fase de segmentação, de rotulação e de rastreamento. Além disso, foram adicionados métodos para a detecção de divisão celular e a entrada e saída de novas células do vídeo. A validação do algoritmo foi feita por meio de um software de avaliação que possui rotinas tanto para a parte de segmentação quanto para a de rastreamento. Foram utilizados 11datasets para a validação, sendo que o algoritmo proposto conseguiu obter resultados para 7 deles. Dentre os 7 datasets, 3 eram 2D e os outros 4, 3D. Embora os resultados não tenham sido satisfatórios para os datasets 2D, os 3D obtiveram resultados satisfatórios durante a fase de rastreamento, com médias de acurácia variando de 90.1% a 94.4%. A partir da validação, percebeu-se que, mesmo tendo obtido valores satisfatórios, inclusive alguns deles melhores que alguns encontrados no estado da arte, o algoritmo ainda precisa de melhorias.

  • JOSÉ DOS SANTOS MACHADO
  • Implementação de uma Fog Computing para Fornecer StaaS a Dispositivos IoT Utilizando Sistemas Embarcados
  • Orientador : EDWARD DAVID MORENO ORDONEZ
  • Data: 21/08/2018
  • Dissertação
  • Mostrar Resumo
  • A IoT (Internet das Coisas) necessita de muitos serviços para ser uma realidade, por ter recurso de processamento e armazenamento muito restrito, a sua interconexão com a Cloud Computing é um fator relevante e de elevada atenção para pesquisadores do mundo inteiro. As questões de latência, big data, armazenamento e poder de processamento próximo dos dispositivos de borda, fez com que surgisse a Fog Computing. A Fog Computing é a interligação entre os dispositivos IoT e a Cloud Computing, e pode levar poder de processamento e armazenamento aos dispositivos IoT, sendo possível o surgimento de novas tecnologias e aplicações para poder sanar essas deficiências encontradas hoje. Esta dissertação apresenta o conceito da Fog Computing, seus desafios, sua contextualização teórica, os trabalhos correlatos junto com a revisão sistemática e realiza a implementação e análise de uma Fog Computing, para fornecer StaaS (Storage as a Service), a dispositivos IoT utilizando plataformas de sistemas embarcados e compara seus resultados com os obtidos por um servidor de alto desempenho. Desenvolve o sistema FogSys com o objetivo principal de simular, receber, validar e armazenar os dados de dispositivos IoT para serem transferidos para Cloud Computing, funcionando como uma Fog Computing para fornecer o serviço de StaaS (Storage as a Service). Os resultados demonstraram que a implementação desse serviço em dispositivos de sistemas embarcados pode ser uma boa alternativa para reduzir um desses problemas, no caso, o armazenamento de dados, que atinge hoje os dispositivos IoT.

  • RAQUEL MONTEIRO DE CASTRO TAVARES FIGUEIREDO
  • Modelo de Inferência da Confiança por meio de Critérios Cognitivos e Afetivos
  • Orientador : MARIA AUGUSTA SILVEIRA NETTO NUNES
  • Data: 10/08/2018
  • Dissertação
  • Mostrar Resumo
  • Comunidades Virtuais de Aprendizagem são espaços caracterizados pela comunicação e cooperação de seus participantes. Podem ser utilizadas como salas de aulas virtuais para o ensino não presencial (Ensino a Distância) ou como ferramentas de apoio ao ensino presencial (interação extra aula). No entanto, sua eficiência depende do comprometimento de seus membros que enriquecem as comunidades virtuais com o compartilhamento de informações, materiais e cooperam com os demais membros. Quando situações de divergências, ausência de informações ou cooperação com outros membros ocorrem podem acarretar na falta de confiança, desinteresse e desmotivação a cooperação. Desse modo, cabe ao professor/tutor, como mediador, estimular e auxiliar os alunos a estabelecerem relações de confiança. A confiança, portanto, apresenta-se como um fator relevante às interações sociais. É um indicativo da motivação e da intenção de cooperação dentro desses espaços virtuais. Modelos computacionais de confiança atribuem a esses ambientes a capacidade de inferir a confiança entre indivíduos e dão ao professor uma visão mais próxima daquela proporcionada em ambientes físicos. O modelo de confiança proposto por esta dissertação utiliza os critérios de propensão à confiança, familiaridade, reputação e risco para a inferência da confiança que o aluno deposita em seu professor. Os resultados obtidos com a aplicação do modelo a ambientes de comunidades virtuais reais forneceram indicações de que a confiança de um aluno em seu professor pode ser inferida considerando os critérios de propensão à confiança, familiaridade, reputação e risco envolvidos em sua interação na comunidade.

  • FLÁVIO ARTHUR OLIVEIRA SANTOS
  • Sobre o uso de conhecimento especialista para auxiliar no aprendizado de Word Embeddings
  • Orientador : HENDRIK TEIXEIRA MACEDO
  • Data: 31/07/2018
  • Dissertação
  • Mostrar Resumo
  • Representações de palavras são importantes para muitas tarefas de Processamento de Linguagem Natural (PLN). Estas representações têm como objetivo substituir a forma escrita das palavras por uma representação numérica, mais adequada para etapas de processamento. Obter boas representações é muito importante uma vez que a maioria dos métodos de aprendizado de máquina responsáveis pelas soluções dos problemas de PLN consistem de modelos matemáticos que fazem uso dessas representações numéricas capazes de incorporar as informações sintáticas e semânticas das palavras. Os chamados Word Embeddings, vetores de números reais gerados através de modelos de aprendizado de máquina, é um exemplo recente e popularizado dessa representação. GloVe e Word2Vec são modelos bastante difundidos na literatura que aprendem tais representações. Porém, ambos atribuem uma única representação vetorial para cada palavra, de forma que: (i) ignoram o conhecimento morfológico destas e (ii) representam paráfrases a nível de palavra com vetores diferentes. Não utilizar o conhecimento morfológico das palavras é considerado um problema porque este conhecimento é composto de informações muito importantes, tais como, radical, desinência de gênero e número, vogal temática e afixos. Palavras com essas características em comum devem ter representações semelhantes. As representações de paráfrases a nível de palavra devem ser semelhantes porque são palavras com escritas diferentes mas que compartilham o significado. O modelo FastText representa uma palavra como uma bag dos n-grams dos caracteres na tentativa de resolver o problema (i); assim, cada um destes n-gram é representado como um vetor de números reais e uma palavra é representada pela soma dos vetores dos seus respectivos n-grams. Entretanto, utilizar todos os n-grams possíveis dos caracteres é uma solução de força bruta, sem qualquer embasamento científico e que compromete (ou inviabiliza) a performance do treinamento dos modelos na maioria das plataformas computacionais existentes em instituições de pesquisa, por ser extremamente custoso. Além disso, alguns n-grams não apresentam qualquer relação semântica com suas respectivas palavras de referência (observe como exemplo, a palavra american e seu 5-gram, erica). Para resolver este problema, este trabalho propõe o modelo Skip-Gram Morfológico. A hipótese de pesquisa levantada é a de que ao se trocar a bag dos n-grams dos caracteres pela bag de morfemas da palavra, palavras com morfemas e contextos similares também irão ser similares. Este modelo foi avaliado com 12 tarefas diferentes: Google, MSR, SE-2012, MEN, MTurk, RG65, RW, SimLex999, WS353, AP, BLESS e BATTIG. Essas tarefas tem como finalidade avaliar o quanto os word embeddings aprendidos incorporam as informações sintáticas e semânticas das palavras. Os resultados obtidos mostraram que o modelo Skip-Gram Morfológico é competitivo se comparado ao FastText, sendo 40% mais rápido. Para tentar resolver o problema (ii), este trabalho propõe o método GloVe Paráfrase, onde uma base de dados de paráfrases a nível de palavra é utilizada para enriquecer o método GloVe original com esta informação e, assim, os vetores das paráfrases tornarem-se mais semelhantes. Os resultados da aplicação deste método mostraram que o GloVe Paráfrase necessita de menos épocas de treinamento para obter boas representações vetoriais. Por exemplo, na tarefa SimLex999, enquanto o GloVe Paráfrase atinge uma acurácia de aproximadamente 22.5 já na primeira época, o GloVe original atinge esse resultado apenas na sétima época.

  • MARCEL OLIVEIRA ALVES
  • ARNeuro: Mobile Augmented Reality for Craniotomy Planning
  • Orientador : DANIEL OLIVEIRA DANTAS
  • Data: 30/07/2018
  • Dissertação
  • Mostrar Resumo
  • Cirurgias minimamente invasivas tornaram-se importantes porque propiciam vários benefícios para o paciente, tais como redução do risco de infecção, menos dor, menor tempo de internação e recuperação mais rápida. Na neurocirurgia, a orientação por imagens é fundamental para a realização de uma cirurgia minimamente invasiva. Por esse motivo, os sistemas de neuronavegação tornaram-se cruciais para os neurocirurgiões. Enquanto as técnicas tradicionais para localização de craniotomia podem apresentar erros de mais de 10mm, os neuronavegadores proporcionam maior precisão, com erros menores do que 5mm.

    Apesar de seu papel crucial nos procedimentos neurocirúrgicos, muitos cirurgiões afirmam que a usabilidade dos neuronavegadores tem que ser melhorada. Outros mencionam que os neuronavegadores são caros e inacessíveis em hospitais com poucos recursos. Nesse contexto, alguns pesquisadores sugeriram que soluções de realidade aumentada poderiam ser uma alternativa aos neuronavegadores. Os sistemas de realidade aumentada estão surgindo na neurocirurgia, alguns deles tentando fornecer melhor usabilidade do que os sistemas atuais de neuronavegação, e outros tentando fornecer uma solução mais barata e que possa ser facilmente adotada.

    Neste trabalho, analisamos os avanços dos sistemas de realidade aumentadade de neuronavegação nos últimos anos. Percebeu-se que muitas soluções de realidade aumentada superam algumas das deficiências do neuronavegador, mas também trazem novos problemas. Essas abordagens de realidade aumentada podem ser caras e difíceis de serem adotadas, ou exigem muitas etapas pré-operatórias por parte do neurocirurgião, tornando-as indesejáveis para uso em casos reais.

    Para resolver esses problemas, apresentamos um aplicativo para dispositivos móveis, chamado ARNeuro, que auxilia na localização da craniotomia. O ARNeuro é mais acessível e mais fácil de usar do que a maioria das abordagens de realidade aumentada. Além disso, o ARNeuro é um aplicativo independente, o que significa que não é necessário nenhum hardware ou software adicional, além do que já está disponível nos hospitais. Nossa solução utiliza Odometria Inercial Visual, através de um framework de realidade aumentada, para indicar o centro da região da incisão, sobreposta na cabeça do paciente, mostrada na tela do dispositivo. Nossos experimentos iniciais indicam que o ARNeuro é uma ferramenta promissora, com um erro médio geral menor do que 4,5mm. Apesar disso, o sistema ainda tem muitas limitações e sua acurácia precisa ser melhorada.

  • FABRÍCIO SILVA MELO
  • Extração de relações a partir de dados não estruturados baseada em deep learning e supervisão distante
  • Orientador : HENDRIK TEIXEIRA MACEDO
  • Data: 11/06/2018
  • Dissertação
  • Mostrar Resumo
  • Extração de relação é a tarefa de extrair relações entre entidades nomeadas de textos em lingua- gem natural. Este trabalho apresenta uma técnica de recuperação de informação para extração de relações com redes neurais convolucionais treinadas para o reconhecimento de padrões de sentenças representadas sobre word2vec de baixa dimensão e position embeddings. Foi feita uma avaliação da distribuição de amostras em cada tipo de relação em um conjunto de dados construído por supervisão distante, a partir da base de conhecimento FreeBase, largamente utilizado para treinamento pelos mais recentes trabalhos de extração de relações.

    Foi constatado que esses trabalhos fizeram referência à qualidade de classificação de relações generalizando conclusões bastante otimistas baseadas em um conjunto de dados fortemente desbalanceado, usando, inclusive, metodologias de amostragem estatisticamente inapropriadas na construção do conjunto de teste. Esse conjunto de dados foi tratado utilizando amostragem estratificada aleatória para seu uso no treinamento e teste do modelo convolucional proposto utilizando validação cruzada k-fold estratificada.

    Os experimentos demonstram que o modelo proposto pode alcançar 87.0% de precisão e 88.0% de recall. Esses resultados concluem que nosso modelo supera o estado da arte em classificação de relações.

  • THIAGO DIAS BISPO
  • Arquitetura LSTM para classificação de discursos de ódio cross-lingual Inglês-PtBR
  • Orientador : HENDRIK TEIXEIRA MACEDO
  • Data: 08/06/2018
  • Dissertação
  • Mostrar Resumo
  • Uma das consequências da popularização do acesso à Internet é a disseminação de insultos e mensagens discriminatórias, os chamados discursos de ódio (do inglês, hatespeech). São comentários que visam discriminar alguém ou um conjunto de pessoas por pertencerem a um certo grupo, normalmente minoritário, ou possuírem alguma característica também comum a outras pessoas. O combate aos discursos de ódio é uma demanda crescente na vida real e virtual pois eles afetam profundamente a dignidade de suas vítimas. Detecção de discursos de ódio é uma tarefa difícil porque, além da linguagem natural ser inerentemente ambígua, ela exige certo nível de compreensão de sua estrutura linguística. Em muitos discursos, a discriminação não acontece de forma explícita ou com expressões típicas: é preciso ter conhecimento do mundo para reconhecê-las. Além disso, algumas vezes é necessário entender o contexto da frase para perceber seu teor odioso. O sarcasmo é outro desafio enorme (até para humanos) uma vez que sua presença exige conhecimento da comunidade e potencialmente do usuário responsável pelo comentário para o entendimento de sua intenção. Diversas abordagens foram propostas para reconhecimento do hatespeech. Muitos autores consideram N-grams, dentre os quais aqueles baseados em caracteres mostram-se mais efetivos que aqueles baseados em palavras. Combinadas ou não aos N-grams, features léxicas também foram estudadas, como a presença ou não de palavras negativas, classes ou expressões indicativas de insulto, sinais de pontuação, repetições de letras, presença de emojis, etc. Features linguísticas mostraram-se ineficientes quando utilizadas isoladamente, como POS tag, e a relação entre os termos da árvore de dependência resultante da análise sintática. Recentemente, a abordagem mais bem sucedida usou uma rede neural para criar uma representação distribuída das sentenças presentes em um corpus de discursos de ódio, indicando que o treinamento de word embeddings é um caminho promissor na área de detecção de discursos de ódio. A língua afeta drasticamente as tarefas de Processamento de Linguagem Natural (PLN), uma vez que a maioria das palavras, se não todas, são diferentes de uma língua para outra, além de sua sintaxe, morfologia e construções linguísticas. Por esta razão, os trabalhos em língua inglesa não são diretamente aplicáveis em corpora de língua portuguesa. Além disso, corpora em português para discursos de ódio são raros, fazendo com que pesquisadores da área precisem realizar todo o trabalho de construção. Nessa dissertação foi estudado o uso de um modelo deep cross lingual Long Short-Term Memory (LSTM), treinado com um dataset de discursos de ódio traduzido do Inglês de duas diferentes maneiras, pré-processado e vetorizado, com variadas estratégias que foram representadas em 24 cenários. As principais abordagens adotadas consideraram: o treinamento de embeddings através de vetores de índices de palavras (técnica Estado da Arte), vetores TFIDF, vetores N-grams, com ou sem vocabulário GloVe, testados com o dataset construído e rotulado neste trabalho e com outro disponível em português. O processo invertido também foi experimentado: traduzimos o nosso corpus para o Inglês e comparamos o desempenho com sua versão original. Com os embeddings resultantes do processo de treinamento em cada cenário, usamos uma Gradient Boosting Decision Tree (GBDT) como forma de seleção de features para melhorar a classificação. De fato, os resultados obtidos com a LSTM foram melhorados em muitos cenários. Alcançamos precisão de até 100% nos experimentos usando o modelo treinado com o corpus em Inglês e nosso dataset traduzido para esta língua. Alguns cenários tiveram um desempenho apenas razoável, com precisão em torno de 70%, por exemplo, e, em outros, técnicas tradicionais e bem sucedidas como vetores TFIDF associados à uma LSTM não se mostraram suficientes. Duas importantes contribuições deste trabalho são: (i) proposta de uma abordagem de pesquisa alternativa de ataque ao problema baseada na tradução de corpora e a (ii) disponibilização de um dataset de discursos de ódio em língua portuguesa para a comunidade.

  • ERICK BARROS NASCIMENTO
  • Arquitetura de Rede Programável para Information Centric Network – ICN com Replicação de Conteúdo em Private Clouds
  • Orientador : DOUGLAS DYLLON JERONIMO DE MACEDO
  • Data: 30/05/2018
  • Dissertação
  • Mostrar Resumo
  • A Internet lidera o modo como as informações, serviços e conteúdos são disponibilizados em formato digital. O acesso a esses conteúdos pode ser possível de qualquer lugar, pelos mais variados dispositivos. Entretanto, a configurabilidade da arquitetura de redes convencional é dificultada pela diversidade de sistemas embarcados presentes nos ativos de rede, onde as informações que consumem seus recursos não possuem um gerenciamento efetivo, ao mesmo tempo que, problemas específicos não são detectados com facilidade pelos sistemas e nem pelas equipes de infraestrutura, como a duplicação do tráfego de requisições HTTP no enlace.

    Esta pesquisa realiza um estudo experimental com proposta de arquitetura descentralizada para redes de conteúdo. A arquitetura centraliza todo o gerenciamento desacoplando o controle dos concentradores da rede, permitindo a aplicação das configurações on-the-fly. Com o advento das redes definidas por software (do inglês, Software Defined Networking (SDN)), surgem novas possibilidades para o gerenciamento de redes promovendo novos contextos para as redes cêntricas de informação (do inglês, Information Centric Network (ICN)). Essas possibilidades podem ser alcançadas por meio da programabilidade da rede com extensão remota do plano de dados para nuvem.

    Este trabalho apresenta e valida um protótipo de redes de conteúdo, disponibilizado em um domínio estabelecido e replicado entre os mesmos, onde cada endpoint executa um microcache para otimização do tempo de requisição e resposta. Além disso, uma cópia minimizada desse backend está posto na nuvem em um servidor privado (do inglês, Virtual Private Server (VPS)) permitindo a alta disponibilidade do ambiente. O sistema possuí dois proxies reversos capazes de assumir o controle do plano de dados sem percepção para o usuário, mantendo alta performance e otimização através do algoritmo de balanceamento de carga Least_Conn.

    A validação ocorreu por meio de três cenários. No primeiro, foi avaliado aspectos inerentes ao funcionamento de uma rede de computadores, logo, latência, perda e vazão foram explorados. No segundo cenário, foi avaliado aspectos acerca do tunelamento para a nuvem com requisição direcional e bidirecional obtendo atraso e perda de pacotes. Por fim, aspectos de replicação, cacheamento, banda de contenção, otimização, banda alcançável, Cache Hit Ratio (CHR), Tempo Médio entre Falhas (MTBF) e Tempo Médio para Reparos (MTTR) foram apresentados, alcançando bons resultados para ICNs com SDN. O trabalho é concluído apontando para o estudo da latência de controladores SDN devido a variações no sistema, mas que não impactaram significativamente nos objetivos da pesquisa.

  • BRÁULIO LÍVIO DIAS CAVALCANTE JÚNIOR
  • Arquitetura Híbrida de Armazenamento no Contexto da Internet das Coisas
  • Orientador : DOUGLAS DYLLON JERONIMO DE MACEDO
  • Data: 29/05/2018
  • Dissertação
  • Mostrar Resumo
  • A IoT se faz presente como uma das grandes áreas de inovação em tecnologia. Com ela, é possível compartilhar informações através do uso de dispotivos pequenos, considerados em muitos casos como pervasivos, ou seja, que estão presentes no cotidiano das pessoas sem serem percebidos.

    A computação em nuvem tornou-se um componente-chave para desenvolver aplicativos de IoT. Enquanto o número de dispositivos aumenta, uma grande quantidade de dados é gerada. Desse modo, é necessário tratar adequadamente o armazenamento e acesso desses dados de maneira otimizada.

    Existem diferentes formas de gerenciar e armazenar dados. A abordagem relacional (SQL), o armazenamento não-relacional (NoSQL), NewSQL e modelos de armazenamento em larga escala baseados em nuvem, são exemplos. Para o contexto de aplicações de IoT, é comum lidar com dados não estruturados, em sua maioria, além destas aplicações demandarem alta flexibilidade. Para aplicações que utilizam estes tipos de requisitos, estudos indicam o uso de arquiteturas de armazenamento que utilizem bancos de dados não relacionais, conhecidos como NoSQL. Estes tipos de armazenamento flexibilizam restrições de consistência e integridade, além de utilizar mecanismos otimizados de replicação e acesso.

    O presente trabalho tem como objetivo propor uma arquitetura de armazenamento híbrido para Internet das Coisas. Para validá-la, experimentos utilizando NoSQL foram feitos para dados escalares, multimídia e posicionais, 3 dos principais tipos de dados de sensores de IoT. Após os experimentos, foi identificado que o banco de dados Redis, do tipo chave-valor, obteve o melhor desempenho para escrita e consulta destes tipos de dados.

  • FLAYGNER MATOS REBOUÇAS
  • PREOrg: Um Guia para Elicitação de Requisitos Orientado ao Desempenho Organizacional
  • Orientador : MICHEL DOS SANTOS SOARES
  • Data: 24/04/2018
  • Dissertação
  • Mostrar Resumo
  • No ciclo de desenvolvimento de software, a elicitação de requisitos é uma das primeiras atividades a serem realizadas, podendo ser repetida em todas as demais etapas da engenhariade requisitos. O Analista de Negócios precisa entender profundamente as característicasda organização onde atua, entendendo os processos de negócio e buscando o conhecimentonecessário à propositura de alternativas inteligentes aos processos. Técnicas de elicitaçãode requisitos auxiliam na identificação de um maior volume de requisitos, ao sugeriremque a elicitação de requisitos seja realizada de maneira próxima aos processos de negócioda organização, todavia não observam o quanto a elicitação de requisitos deve apoiar amelhoria no desempenho organizacional. O interesse por essa pesquisa surgiu mediante apreocupação com a evolução e melhorias das técnicas e metodologias encontradas na áreade engenharia de requisitos, com o desafio e a necessidade de desenvolver sistemas querealmente atendam às expectativas dos stakeholders e que acima de tudo, tenham maiorengajamento com as áreas de negócio das organizações. O trabalho propõe o desenvolvimentode um guia para a elicitação de requisitos orientada ao desempenho organizacional.O PREOrg é um guia de boas práticas para elicitação de requisitos de software orientadoao desempenho organizacional que propõe a identificação de oportunidades para a geraçãode resultado, melhoria dos processos e apoio à tomada de decisão, desde a etapa deelicitação de requisitos de software. Dois estudos de casos foram realizados com o objetivode comprovar a eficiência e a eficácia do PREOrg. O primeiro estudo de caso foi realizadona indústria envolvendo um software e o segundo numa organização pública envolvendotrês softwares, nos dois casos foi realizado um treinamento envolvendo analistas de sistemasresponsáveis por elicitar requisitos para a construção dos softwares, de maneira a propiciaro conhecimento dos processos propostos pelo PREOrg. Como resultado, foram encontradasevidências de que o PREOrg contribuiu para a definição de requisitos capazes de apoiar odesenvolvimento de softwares orientados ao desempenho organizacional. O primeiro estudode caso apresentou evidências de melhoria financeira para a organização onde o softwarefoi implantado. No segundo estudo de caso foram descobertas evidências de que o uso doPREOrg é útil para a elicitação de requisitos que apoiem o desenvolvimento de softwarescapazes de ajudar na tomada de decisão e a melhoria dos processos organizacionais.

  • ADAUTO CAVALCANTE MENEZES
  • Uma Abordagem para Análise de Desempenho e Eficiência Energética em Dispositivos Embarcados com uso do Asterisk
  • Orientador : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: 09/04/2018
  • Dissertação
  • Mostrar Resumo
  • A comunicação por voz sobre IP (VoIP) dominará o mundo da computação nos próximos anos.Para realizar a transmissão VoIP, faz-se necessário a codificação e decodificação da voz. Esseprocesso consome os principais recursos computacionais, como o processador e memória. Asindústrias das telecomunicações disponibilizam equipamentos com valores elevados, o que tornao acesso a essa tecnologia ainda bastante restrito. Dispositivos embarcados executam sistemascom alto complexo de criticidade. O software livre de comunicação por voz sobre IP Asterisk temcomo principal função implementar todas as funcionalidades de uma central telefônica. Trata-sede uma alternativa viável para utilizar em dispositivos embarcados. Essas tecnologias prometemreduzir custos e maximizar resultados. Esta dissertação realiza uma análise de desempenho emtrês dispositivos embarcados modernos (Raspberry Pi 3, Orange Pi Plus 2 e Banana Pi M3), comuso do sistema de comunicação por voz sobre IP Asterisk. A análise de desempenho consisteem aferir o jitter, delay e vazão, assim como o quantitativo de chamadas simultâneas suportadasem cada dispositivo com os protocolos SIP e IAX2 com os CODEC’S G.711a, G.711u, Gsm,Speex, Ilbc, G.722, e em paralelo, monitorar o consumo de memória RAM, processamento eenergia. Os resultados mostram que os dispositivos Raspberry Pi 3 e Banana Pi M3 suportamde forma satisfatória um elevado número de chamadas simultâneas com consumo de memória,processamento e energia moderado. Todavia, o dispositivo Orange Pi Plus 2 demostrou elevadoconsumo de processamento.

  • KLEBER TARCISIO OLIVEIRA SANTOS
  • Uma abordagem unificada para especificar e checar restrições em múltiplas linguagens de programação no contexto de um Juiz On-line
  • Orientador : ALBERTO COSTA NETO
  • Data: 28/02/2018
  • Dissertação
  • Mostrar Resumo
  • O processo de ensino e aprendizagem da programação de computadores é uma tarefa complexa que requer bastante prática e criatividade. Geralmente há inúmeras soluções para um mesmo problema. Por isso, o aluno precisa que suas soluções sejam avaliadas rapidamente visando um aprendizado mais ágil e eficaz. Para enfrentar esses desafios, os professores e alunos podem contar com recursos provenientes da evolução da Tecnologia da Informação e Comunicação. Os ambientes de aprendizagem virtual e os sistemas de juiz on-line são alternativas atrativas utilizadas nesse contexto. Este trabalho apresenta uma abordagem unificada de especificação e checagem de restrições de código-fonte. Apesar das ferramentas atuais serem capazes de indicar se o programa produziu a saída esperada a partir de uma entrada fornecida, nem todas são capazes de determinar se o aluno utilizou (ou não) determinada construção de linguagem de programação, como por exemplo criar uma função e utilizá-la no programa. Entre as que são capazes, existem problemas que foram sanados na abordagem proposta neste trabalho, como: facilidade de uso, abordagem unificada e grau de flexibilidade. Além disto, este trabalho conta com uma análise da base de dados do The Huxley com o objetivo de descobrir quais são as principais restrições de código-fonte utilizadas pelos professores e atendidas pelos alunos. Esta análise foi feita em conjunto com um survey aplicado aos professores de introdução à programação com o propósito de conhecer as principais restrições que seriam utilizadas por eles se possuíssem uma ferramenta de especificação e checagem de restrições.

  • BRENO SANTANA SANTOS
  • Uma Abordagem para Aumento de Empatia das Interações Textuais em Sistemas Colaborativos
  • Orientador : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: 08/02/2018
  • Dissertação
  • Mostrar Resumo
  • A empatia desempenha um papel essencial em interações sociais, como, por exemplo, em processos de ensino-aprendizagem efetivos, nas relações professor-aluno e nas relações empresa-cliente ou colaborador-consumidor, retendo potenciais parceiros e proporcionando-lhes maior satisfação. Em paralelo, a Comunicação Mediada por Computador (CMC) auxilia as pessoas em suas interações, especialmente quando é necessário contornar as limitações de espaço-tempo. Em CMC, existem diversas abordagens para promover empatia em interações sociais ou humano-computador. Contudo, para este tipo de comunicação, um mecanismo pouco explorado para ganho de empatia é o uso da teoria da Neurolinguística, a qual apresenta a possibilidade de desenvolvimento de Sistemas Representacionais Preferenciais (SRPs) para cognição em seres humanos. Neste contexto, o presente trabalho apresenta a concepção e os resultados obtidos por meio de avaliações experimentais da biblioteca NeuroMessenger, a qual utiliza Neurolinguística, Psicometria e Mineração de Textos para promover empatia entre interlocutores, a partir da identificação de SRPs e sugestão de matching (espelhamento) textual baseado nesta identificação. Os resultados mostraram que a utilização do mesmo padrão de texto (SRP) aumenta a empatia entre os interlocutores de Sistemas Colaborativos, evidenciando que o recurso de matching pode melhorar significativamente a comunicação e formação de rapport em ambientes digitais.

  • GALILEU SANTOS DE JESUS
  • Uma abordagem para auxiliar a correção de erros de programadores iniciantes
  • Orientador : ALBERTO COSTA NETO
  • Data: 24/01/2018
  • Dissertação
  • Mostrar Resumo
  • A utilização de ambientes virtuais de aprendizagem integrados a outras ferramentas, como juízes on-line, surgem como uma possibilidade de amenizar a carência de práticas laboratoriais em cursos presenciais, além de poder apoiar atividades práticas em cursos semipresenciais, a distância e em MOOC’s, assim como dar suporte aos docentes e diminuir os índices de reprovação em disciplinas iniciais de ensino de programação. Porém, nem sempre os juízes on-line fornecem o feedback apropriado ou entendível pelo aluno, isto é, normalmente não fornecem dicas ao aluno de como melhorar ou alcançar uma solução válida. Ao observar turmas iniciais, verifica-se que frequentemente são apresentadas as mesmas dicas, já que os alunos costumam errar muito em um mesmo ponto ou por uma mesma razão. Este trabalho apresenta uma proposta para apoiar o ensino-aprendizagem de programação de computadores, aprimorando o juiz on-line The Huxley através da capacidade de produzir mensagens de feedback que sejam facilmente compreendidas pelos aprendizes de disciplinas iniciais de programação, norteando-os sobre os erros de sintaxe apresentados ao realizar uma submissão ao juiz on-line. Também foi feito um estudo de caso com turmas de graduação para avaliar esta abordagem, através de um experimento controlado, assim como sua análise com testes estatísticos para confirmação de hipótese, onde o estudo concluiu que a abordagem aumentou a capacidade de corrigir erros, além de guiá-los mais enfaticamente, principalmente entre alunos com baixo domínio da língua inglesa e que lograram êxito na disciplina inicial de programação.

  • MARIANNE BATISTA DINIZ DA SILVA
  • BOAS PRÁTICAS PARA SUPORTAR AS DIMENSÕES DE GOVERNANÇA ÁGIL DE TI NA ADMINISTRAÇÃO PÚBLICA FEDERAL
  • Orientador : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: 18/01/2018
  • Dissertação
  • Mostrar Resumo
  • A Governança de Tecnologia da Informação e Comunicação (TIC) ainda é um fator desafiante para as organizações, tanto para o setor público como privado. Uma característica fundamental da governança de TIC é agregar valor ao negócio, como também colaborar para o desempenho da organização por meio de processos contínuos de decisões, provendo uma gestão de TI eficiente e eficaz, alinhada com a Governança Corporativa. Sabendo dessas características, as organizações públicas são reconhecidas pelos órgãos de controle (Tribunal de Contas da União - TCU, Sistema de Administração dos Recursos de Tecnologia da Informação - SISP, Estratégia de Governança Digital - EGD), os quais, por meio desse reconhecimento, fazem com que os gestores dessas organizações atribuam uma atenção para essa área. Nesse caso, a adoção e o direcionamento de boas práticas que atendam às exigências dos órgãos de controle com relação à Governança de TIC são necessárias. Assim, o objetivo desta dissertação foi propor boas práticas de Governança de TIC para direcionar as organizações para a melhoria do índice de maturidade de Governança de TIC (iGovTI) na Administração Pública Federal (APF), avaliado pelo TCU. Com o objetivo de realizar essa análise, foi adotado um estudo descritivo por meio dos procedimentos bibliográficos, survey e, por fim, o estudo de caso para a validação do framework proposto. Após a análise das boas práticas (ITIL, CMMI, COBIT, COSO e outras), foi desenvolvida a proposta de um framework denominado PeticGov, que tem o intuito de direcionar as organizações em qual(is) boa(s) prática(s) adotar com base no seu déficit. Obteve-se, como resultados, a validação da ferramenta PeticGov Wizard, que atende as fases propostas pelo framerwork. Dessa forma, foi validado a PeticGovWizard com relação a usabilidade, o questionário, seu direcionamento e sua utilidade perante as organizações iniciais e básicas. Para a primeira validação (usabilidade) obteve-se 21 respostas em um survey e foi visto que é necessário melhorar alguns aspectos (layout, informações na ferramenta). Para a validação do questionário obteve-se uma amostra de 46 organizações e percebeu-se que os dados estavam coerentes. Com relação a validação de utilidade da PeticGov Wizard nas organizações, obteve-se respostas de 20 funcionários de instituições com estágio de capacidade inicial e básico. Assim, observou-se que 100% dos respondentes afirmam que a ideia da ferramenta PeticGov Wizard com relação ao direcionamento das práticas isoladas para implantação nas organizações, ganham força perante os setores.

2017
Descrição
  • GLAUCO LUIZ REZENDE DE CARVALHO
  • Compartilhamento de Banda em Redes Definidas por Softwares
  • Orientador : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: 31/08/2017
  • Dissertação
  • Mostrar Resumo
  • O paradigma de Redes Definidas por Software (SDN) vem impondo mudanças significativas na forma de gerenciar e operar redes de computadores através da sua principal ideia, a separação dos planos de dados e de controle. O protocolo OpenFlow suporta e implementa este conceito e, devido às diversas vantagens de menor custo de operação e propiciar maior facilidade de adaptação a projetos computacionais já́ existentes, é facilmente encontrado em diversos equipamentos de rede comercializados. Com a adoção do protocolo OpenFlow e do paradigma SDN, a inovação e evolução da rede são relativamente mais favorecidas quando comparadas com o modelo tradicional. Dessa forma, serviços comuns de rede podem ser evoluídos, tornando-os cada vez mais flexíveis. Neste sentido, devido à padronização e adaptabilidade propostas pelas SDNs, e das limitações na arquitetura atual das redes IPs, esta dissertação propõe uma técnica que utiliza uma rede baseada na arquitetura SDN e o protocolo OpenFlow para a criação de um serviço para compartilhamento de banda, utilizando o controlador Floodlight. Emulações em ambiente virtual Mininet de experimentação foram desenvolvidas para validação das implementações realizadas. Para a análise de desempenho, foram estudadas métricas como largura de banda, número de pacotes enviados, recebidos e descartados. Os resultados demonstraram qa possibilidade de alcançar com eficiência o de compartilhamento de banda em redes SDN.

  • SERGIO ANTONIO ALVES BARBOSA
  • i9ITS: uma Proposta de Arquitetura de Software para Armazenamento de Dados Abertos e Integração de Serviços para ITS em Cidades Inteligentes
  • Orientador : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: 31/08/2017
  • Dissertação
  • Mostrar Resumo
  • Em consequência do crescimento populacional, as grandes cidades enfrentam problemas cotidianos relacionados à mobilidade urbana, tais como: congestionamentos, qualidade da vias urbanas e ineficiência de transportes públicos. Iniciativas de sistemas de transportes inteligentes (ITS) agem como uma solução eficiente para melhorar o funcionamento e desempenho dos sistemas de tráfego, reduzindo congestionamentos de veículos e aumentando a segurança para os cidadãos. No entanto, devido à existência de diferentes formato e fontes distribuídos de informação sobre mobilidade urbana, a interoperabilidade das várias tecnologias envolvidas e a retenção desses dados são desafios que envolvem esforços complexos e onerosos para os governos e empresas. Nesse contexto, a presente proposta tem como objetivo geral apresentar uma arquitetura para dados georreferenciados de ITS (Intelligent Transportation System) com o intuito de armazenar, integrar e orquestrar essas informações georreferenciadas de mobilidade urbana de forma que permita a interoperabilidade entre diversas aplicações. Foram relacionados dois estudos de caso: um refere-se à construção de uma aplicação que utiliza a arquitetura i9ITS para uma empresa de serviço de táxi com dados reais; o segundo estudo de caso propõe a construção de um laboratório de teste utilizando um maior número de veículos, com o objetivo de alimentar informações para uma base de dados aberta, de forma que a arquitetura proposta possa ser testada quanto ao seu desempenho e performance. A utilização dessa arquitetura tem como objetivo principal evidenciar a eficácia e a eficiência para atender ao problema proposto, bem como para outras possibilidades e desafios relacionados a ITS.
  • GLAUBER ANDRADE BOTELHO
  • Investigando Algoritmos Baseados em Estimadores de Distribuição e Técnicas da Otimização com Muitos Objetivos na Refatoração Automática de Software
  • Orientador : ANDRE BRITTO DE CARVALHO
  • Data: 30/08/2017
  • Dissertação
  • Mostrar Resumo
  • A Engenharia de Software Baseada em Busca, conhecida como SBSE (do inglês, Search Based Software Engineering), é uma área que usa algoritmos de otimização para solucionar problemas da Engenharia de Software. A área de SBSE compreende diversas subáreas, dentre estas, encontra-se a Refatoração de Software Baseada em Busca (SBSR, do inglês Search Based Software Refactoring), que trata de processos de refatoração automática de software utilizando algoritmos de otimização. Um dos problemas encontrados na SBSR é a determinação de sequências de refatorações com o objetivo da melhoria do código, de acordo com critérios previamente determinados. Para modelar este problema como um problema de otimização é necessário que sejam definidas funções objetivo. Nesse caso, as funções objetivo são métricas de qualidade utilizadas na Engenharia de Software. Como são muitas as métricas a se considerar, o problema de determinação de sequências de refatorações é naturalmente um Problema de Otimização combinatório com Muitos Objetivos. A otimização com muitos objetivos compreende um conjunto de algoritmos e técnicas que buscam resolver problemas de otimização com mais de três funções objetivo. Para resolver problemas dessa natureza, são propostos novos métodos quevisam reduzir a deterioração da busca à medida que o número de objetivos aumenta. Dentre eles, destacam-se os algoritmos evolucionários multiobjetivo, que incluem os Estimation of Distribution Algorithms (EDA). No entanto, apesar de ter bons resultados em problemas de otimização combinatória, os EDA ainda são pouco explorados no contexto da otimização com muitos objetivos. O objetivo deste trabalho é investigar o uso dos EDA na seleção automática de uma sequência de refatorações. Para que esse objetivo seja atingido, propõe-se um novo EDA, no qual são incorporadas técnicas de otimização de muitos objetivos existentes na literatura. O algoritmo proposto foi validado e adicionado a um framework de refatoração automática de software previamente implementado. Após a condução de um conjunto de experimentos, os resultados obtidos pelo algoritmo proposto foram comparados aos resultados obtidos pelos algoritmos encontrados na literatura aplicados no contexto de SBSR.

  • PABLO MARQUES MENEZES
  • Autonomicidade em uma rede definida por software utilizando teoria do perigo
  • Orientador : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: 30/08/2017
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A necessidade de tornar os ambientes computacionais autonômicos é evidente devido à complexidade e a onipresença da tecnologia em quase todos os aspectos da vida humana. Além de trazer dinamismo aos negócios e novos serviços para os usuários, também traz riscos e complexidade na gestão. Os data centers evoluíram, tornando a gerência de uma rede uma tarefa difícil para os administradores, no aspecto da segurança da infraestrutura um cenário ainda mais complexo. Neste cenário, várias pesquisas têm sido realizadas em busca de métodos a tornar estas complexas redes autogerenciáveis. Inspirado nos conceitos de redes autonômicas e no sistema imunológico humano, este trabalho utiliza o modelo de gerenciamento MAPE-K, algoritmo das células dendríticas e as características de programabilidade, gestão centralizada e descentralização dos planos de dados e controle das redes definidas por software para prover autonomicidade. Considerando que a maioria dos ataques a uma rede de computadores inicia-se com o reconhecimento dos ativos, nos experimentos utilizou-se ataques de varredura de portas Port Scan como evento anômalo. Este tipo de ataque foi utilizado para comprovar a eficácia da detecção do processo anômalo com abordagem das células dendríticas em um único host. Nos experimentos é seguido todo o ciclo do modelo MAPE-K e os resultados de reação foram considerados satisfatório, com tempo médio de 1,2 segundos entre a detecção do evento anômalo e reação com isolamento da origem do ataque.

  • ADRIANO SILVA DE LIMA
  • PROPOSTA E AVALIAÇÃO DA COMBINAÇÃO DE UMA METODOLOGIA ÁGIL E GQM+STRATEGIES PARA O DESENVOLVIMENTO DE APLICAÇÕES DE BUSINESS INTELLIGENCE DIRIGIDO À ESTRATÉGIA
  • Orientador : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: 30/08/2017
  • Dissertação
  • Mostrar Resumo
  • O cenário de concorrência entre as empresas dos diversos nichos de mercado, marcado pela constante necessidade de crescimento, tem alavancado o investimento estratégico em Tecnologia da Informação, visando a redução dos seus custos operacionais e o alcance dos objetivos do negócio. Neste contexto, o uso de Business Intelligence (BI) tem sido uma das principais soluções para agregar valores à empresa. No entanto, faz-se necessário caracterizar e propor melhorias para uso deste tipo de aplicação no mercado, pois muitas empresas têm encontrado dificuldades e prejuízos em sua implantação, principalmente, do ponto de vista estratégico. O objetivo desta dissertação foi propor e avaliar um método que mescle a abordagem GQM+Strategies com uma metodologia de desenvolvimento ágil de aplicações de Business Intelligence, visando garantir o alinhamento estratégico. Para caracterização, foram realizados um mapeamento sistemático e um survey que identificaram e confirmaram a necessidade de investimentos da indústria em experimentos que avaliem metodologias de desenvolvimento, bem como metodologias de alinhamento estratégico, como parte indispensável de projetos deste tipo. Para avaliação, foi realizado um estudo de caso com o método proposto em uma empresa multinacional latino-americana do mercado de varejo. Os resultados trouxeram evidências de que é possível integrar a abordagem de alinhamento estratégico adotada com uma metodologia de desenvolvimento de aplicações de BI.

  • LUCIO DA SILVA GAMA JUNIOR
  • Virtualização de Funções de Rede em Nuvem para Instituições Públicas
  • Orientador : EDILAYNE MENESES SALGUEIRO
  • Data: 28/08/2017
  • Dissertação
  • Mostrar Resumo
  • Em uma rede tradicional, todas as funções são implementadas em hardware e software específicos, que empregam tecnologia proprietária, de difícil interoperabilidade, configuração e operação. Além disso, a arquitetura de rede tradicional é inadequada para atender as crescentes demandas da Internet, que impulsionam a transformação da sua infraestrutura. A computação em nuvem e a virtualização de funções de rede (NFV - Network Function Virtualization) são tecnologias complementares que oferecem novas soluções para projetar, construir e operar redes, possibilitando a coexistência de múltiplas redes, agora virtuais, sobre uma mesma infraestrutura física. Apoiada nos benefícios que a computação em nuvem proporciona, as redes podem ser organizadas de forma mais flexível, com programabilidade e dinamismo de configurações. O objetivo deste trabalho é projetar e implementar um ambiente de experimentação inspirado nos paradigmas de computação em nuvem e NFV, que permita avaliar os impactos que a virtualização de funções de rede provocam em uma infraestrutura. Neste trabalho, estão detalhadas a implantação de uma plataforma de computação em nuvem de código aberto, o OpenStack, como ela pode ser utilizada para implantar o NFV e como ambos podem contribuir na criação de soluções aptas a atender as demandas originadas de infraestruturas de rede tradicional. Para validar o ambiente de experimentação, foi realizado um Estudo de Caso da migração do protocolo IPv4 para IPv6 em um ambiente de rede de instituições públicas, considerando dois cenários possíveis: uma rede tradicional e uma rede virtualizada. Os resultados alcançados permitiram constatar o quanto o ambiente criado é uma ferramenta importante para a realização de experimentos que permitam aos administradores de redes planejar, por exemplo, o período de transição e coexistência desses protocolos, possibilitando com que essa mudança nas redes de computadores possa ocorrer de forma mais suave.

  • SAULO ANTONIO DE LIMA MATOS
  • Sincronização de Semáforos como um Problema de Otimização com Muitos Objetivos
  • Orientador : ANDRE BRITTO DE CARVALHO
  • Data: 28/08/2017
  • Dissertação
  • Mostrar Resumo
  • Os Sistemas de Transporte Inteligente (ITS) têm como objetivo otimizar a eficiência do transporte e melhorar a sua segurança através do uso de tecnologia avançada. Nesse contexto de ITS uma das áreas importantes é a gestão de tráfego, que utiliza novos conceitos de organização e manutenção do tráfego, buscando, entre outros aspectos, manter um fluxo de tráfego de qualidade. Na gestão de tráfego está inserida a sincronização de semáforos, que é uma das abordagens que lida com a redução de congestionamento do tráfego. Uma sincronização é atingida quando mais de um semáforo está executando o mesmo tipo de plano semafórico de modo que permita um veículo passar pelos semáforos sincronizados sem paradas. Como consequência da sincronização é possível otimizar alguma qualidade relacionada ao tráfego, normalmente o fluxo de veículos. Porém, obter a sincronização de um cojunto de semáforos de malhas viárias em uma cidade é um problema complexo e é necessário a busca por soluções de forma automática. Com um simulador de tráfego, é possível construir uma representação computacional de uma combinação de semáforos e obter medidas (tempo de atraso, tempo de viagem, tempo parado, velocidade média global, entre outras) de qualidades do tráfego calculadas pelo próprio simulador. Assim, através da representação computacional e de um conjunto de medidas, podemos modelar o problema da sincronização de semáforos como um Problema de Otimização Multiobjetivo (MOP), que é a classe de problemas que possuem mais de uma função objeto a ser otimizada. Dentro dessa classe de problemas, recentemente foi definida a Otimização com Muitos Objetivos,que busca resolver um MOP que possue um grande número de funções objetivo, geralmente com mais de três funções. No contexto da sincronização de semáforos, apesar do problema ser modelado com um grande número de funções objetivo, trabalhos da literatura buscam otimizar apenas um pequeno subconjunto envolvendo no máximo duas funções. Assim, este trabalho propõe modelar e resolver o problema da sincronização de semáforos como um Problema de Otimização com Muitos Objetivos (MaOP). Na modelagem o problema será representado computacionalmente e serão escolhidas várias funções objetivo, para resolução do problema serão aplicadas técnicas de otimização com muitos objetivos. Para modelar o MaOP foi desenvolvido um sistema e utilizado o simulador SUMO. A finalidade do sistema é realizar a comunicação entre diversas tarefas que estão incorporadas em módulos, assim, é possível possível efetuar a comunicação entre um algoritmo e o SUMO. Para resolver o MaOP foi aplicado o algoritmo NSGA-III e técnicas de redução de dimensionalidade, tornando possível modelar o problema com um número de objetivos reduzidos. Nesse trabalho foi realizado um conjunto de experimentos, buscando analisar a performance dos algoritmos NSGA-II e NSGA-III em diferentes cenárioscom muitos objetivos. Os resultados mostraram que NSGA-II superou NSGA-III para o problema na maioria dos cenários e que as técnicas de redução de dimensionalidade foram eficazes.

  • LEVI DA COSTA MOTA
  • Uma analise comparativa dos protocolos SNMP, ZAbbix e MQTT no contexto de aplicações de Internet das Coisas
  • Orientador : EDWARD DAVID MORENO ORDONEZ
  • Data: 25/08/2017
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A complexidade e o crescimento das novas redes de objetos inteligentes vem gerando uma nova demanda pela manutenção desses dispositivos, com a necessidade de monitorar e controlar remotamente tais aparelhos sem consumir recursos significativos. Analisar o consumo de memória e o consumo de energia dos protocolos usados no gerenciamento dessas redes é uma maneira de evidenciar as melhores alternativas de protocolos para esse tipo de aplicação. Este trabalho realiza um estudo experimental, analisando o comportamento dos protocolos SNMP, Zabbix e MQTT, no tocante ao consumo de memória e ao consumo de energia elétrica, quando usados em uma aplicação de Internet das Coisas, com dispositivo sensor implementado sobre o ESP8266. O experimento é executado realizando o monitoramento de dispositivos em um ambiente com alguns Motes e um servidor Zabbix. O Mote usado é projetado e construído usando o ESP8266. Ele coleta temperatura e humidade do ambiente, e fornece informações de falha e desempenho para o servidor de gerenciamento. Para expor as informações, um agente é implementado para cada protocolo examinado. O estudo analisa a memória ROM e a memória RAM ocupada pelo código do firmware resultante de cada agente, e acompanha a evolução do consumo de memória RAM ao longo do tempo. Também é feita a medição do consumo de energia de cada protocolo. Ao final, o estudo constata que os três protocolos analisados são suportados pela plataforma usada. O SNMP é o protocolo que consome menos memória do dispositivo, e o protocolo Zabbix é o que aloca mais memória ao longo do tempo. Não há diferença significativa no consumo de energia entre os protocolos. Entretanto, o modelo de funcionamento do MQTT permite que o ESP8266 seja colocado em modo de suspensão nos momentos de inatividade, reduzindo em mais de 60% o consumo médio de energia do dispositivo.

  • JOSÉ LUCAS MATOS SILVA
  • Múltiplos Enxames Combinados com Métodos de Arquivamento, Pontos de Referência e Topologias na Otimização com Muitos Objetivos
  • Orientador : ANDRE BRITTO DE CARVALHO
  • Data: 24/08/2017
  • Dissertação
  • Mostrar Resumo
  • Problemas de Otimização Multiobjetivo podem ser classificados como um conjunto de problemas que possuem mais de uma função objetivo conflitante. Nestes problemas, as funções objetivo a serem otimizadas possuem índices de desempenho que são conflitantes, ou seja, normalmente quando um valor de uma função objetivo tem uma melhoria, um valor de outra função objetivo tende a ter uma piora. Com isto, é necessário obter um conjunto de melhores soluções, onde os valores das funções objetivo simultaneamente sejam aceitáveis. Pode-se destacar que nessa classe de problemas o número de melhores soluções cresce exponencialmente conforme o número de objetivos aumenta. Nesse sentido, esse aumento do número de soluções causa a deterioração da busca por melhores soluções, dificultando o progresso em direção às soluções ótimas. Apesar da aplicação com sucesso de diversos Algoritmos Evolucionários Multiobjetivo a esses tipos problemas, a maioria dos estudos foca em problemas com um número pequeno de objetivos. Além disso, esses algoritmos sofrem com a deterioração da busca quando o número de funções objetivo otimizadas é maior do que três. Assim, recentemente há a busca por novas técnicas e algoritmos que busquem reduzir a deterioração dos algoritmos multiobjetivo. A área que estuda essas novas técnicas é chamada de Otimização com Muitos Objetivos e os problemas multiobjetivo que possuem mais de três funções são classificados como Problemas de Otimização com Muitos Objetivos. Recentemente, diferentes abordagens têm sido propostas para melhorar o desempenho destes algoritmos em problemas de otimização com muitos objetivos. Uma dessas abordagens é o uso de múltiplas populações na otimização multiobjetivo por enxames de partículas, no qual chamamos de Múltiplos Enxames. Múltiplos Enxames são técnicas para explorar populações paralelas para decompor o problema e otimizá-lo de forma colaborativa. Neste trabalho foram desenvolvidos algoritmos que incorporam as características de múltiplos enxames com topologias, arquivamento e pontos de referência para resolver Problemas de Otimização com Muitos Objetivos. O primeiro algoritmo desenvolvido envolveu métodos de arquivamento e topologias, outro explorou pontos de referência e o último trabalhou com modificações dos pontos de referência com o objetivo de obter boa convergência e diversidade nesses tipos de problemas. Um conjunto de experimentos é feito para avaliar os algoritmos propostos e buscar identificar qual a melhor configuração de cada algoritmo. Além disso, é feita uma análise do desempenho dos algoritmos, comparando-os à métodos da literatura.

  • RUAN MARCOS DE ARAUJO CORREIA MELLO
  • Arquitetura de Autoproteção para Internet das Coisas baseada no Laço MAPE-K
  • Orientador : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: 23/08/2017
  • Dissertação
  • Mostrar Resumo
  • A Internet das Coisas é um novo paradigma baseado na Computação Ubíqua ou Computação
    Pervasiva. Computação Ubíqua e Computação Pervasiva que são termos utilizados para descrever
    a onipresença da informática no cotidiano das pessoas. O principal objetivo da Internet das
    Coisas é fazer com que as pessoas se comuniquem com as coisas e que as coisas também
    criem comunicação entre si sem necessidade da intervenção humana. O ambiente da Internet
    das Coisas possui bastantes restrições e a principal delas é o pouco recurso computacional
    dos dispositivos. O pouco recurso computacional dos dispositivos termina resultando em um
    ambiente muito inseguro e propício a diversos tipos de ataques, sejam eles físicos ou lógicos.
    Para tornar o ambiente da Internet das Coisas mais receptivo e bem visto por todos é importante
    investir em segurança. Para isso é muito interessante associar mecanismos de segurança com
    propriedades autonômicas, considerando o crescimento exponencial de dispositivos conectados.
    Este trabalho propõe uma arquitetura de segurança voltada ao ambiente da Internet das Coisas. A
    arquitetura proposta possui características autonômicas e é baseada no Laço de Controle MAPE-
    K. Para poder verificar a eficácia da arquitetura proposta foi abordado alguns dos principais
    ataques ocorridos no ambiente em questão (Selective Forward, Blackhole, Sinkhole e Flooding).
    Analisou-se o impacto causado por esses ataques e a interferência deles no funcionamento da
    rede criada a partir do protocolo de roteamento RPL.

  • OTÁVIO MANOEL PEREIRA SIQUEIRA
  • AIKI ECOSYSTEM ARCHITECTURE: UMA PROPOSTA DE ARQUITETURA DE ECOSSISTEMA DE SOFTWARE DE REFERÊNCIA PARA A ÁREA DA SAÚDE
  • Orientador : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: 17/08/2017
  • Dissertação
  • Mostrar Resumo
  • A crescente pressão pelo aumento da qualidade dos serviços de saúde, bem como a necessidade de redução dos custos, tem feito com que as organizações de saúde adotem, cada vez mais, o uso de Tecnologias da Informação e Comunicação (TIC), através do desenvolvimento e adoção de Sistemas de Informação em Saúde (SIS) para os mais diferentes fins. Com isso, o ambiente tecnológico das organizações cresceu em tamanho e complexidade. Entretanto, a implantação e adoção de SIS nem sempre é uma tarefa de fácil execução. A existência de inúmeros padrões, muitas vezes difíceis de serem utilizados, de sistemas legados e de um ambiente em constante transformação representam grandes desafios. Adicionalmente, a grande carência por essas aplicações faz com que as organizações de saúde não consigam criar todas as soluções que precisam, sendo inevitável a aquisição de SIS de terceiros. Conceitos como Arquitetura de Software e Ecossistemas de Software podem auxiliar no gerenciamento desses ambientes. Nesse contexto, esse trabalho apresenta a AiKi Ecosystem Architecture, uma arquitetura de ecossistema de software de referência, que tem como objetivo definir regras para a criação e adoção de SIS em organizações de saúde, bem como estabelecer critérios para a interação entre os SIS e as pessoas que fazem parte desse ambiente. Uma análise, através de uma sugestão de aplicação foi realizada no Hospital Universitário da Universidade Federal de Sergipe, demonstrando a utilização e viabilidade da arquitetura proposta.

  • ANDRÉ SANTOS OLIVEIRA
  • Uma Proposta de Ensino Semipresencial de Programação Apoiada por Juiz On-line e Ambiente Virtual de Aprendizagem Móvel
  • Orientador : ALBERTO COSTA NETO
  • Data: 16/08/2017
  • Dissertação
  • Mostrar Resumo
  • A programação de computadores é parte integrante do currículo de diversos cursos nas áreas de computação e das engenharias. Contudo, o processo de ensino e aprendizagem de programação é uma tarefa complexa pois diversos são os problemas enfrentados pelos alunos e professores durante esse processo. A evolução na área de Tecnologia da Informação e Comunicação está permitindo mudar o processo de ensino e aprendizagem para atender as novas demandas da educação. A utilização de ambientes virtuais de aprendizagem e outras ferramentas, como sistemas de juízes on-line, surge como uma proposta para atender as novas necessidades educacionais no cenário de ensino e aprendizagem de programação. Além disso, nos últimos anos, os avanços na área de computação móvel permitem mais uma alternativa para ampliar o processo de ensino e aprendizagem na área educacional. Nesse contexto, este trabalho apresenta uma proposta de metodologia semipresencial para ensino de programação apoiada por juiz on-line e por ambientes virtuais de aprendizagem Web e móvel. Essas ferramentas computacionais foram descritas com suas principais funcionalidades adaptadas e utilizadas para a metodologia proposta. A proposta foi avaliada através de um estudo de caso em turmas da disciplina de Introdução à Ciência da Computação (ICC) do Departamento de Ciências da Computação da Universidade Federal de Sergipe (DComp/UFS) que possui em seu conteúdo programação de computadores. Primeiramente, o estudo analisou o desempenho acadêmico das turmas da disciplina ICC do DComp/UFS que utilizaram a abordagem tradicional, de 2002 à 2016, sob a ótica do REUNI, onde foi evidenciado melhores desempenhos das turmas antes do REUNI. Em relação às turmas que utilizaram a metodologia proposta, de 2015 a 2016, os resultados foram comparados com os das turmas passadas após o REUNI ministradas por apenas professores efetivos. Foi identificado que as turmas de 2016 que utilizaram a metodologia proposta tiveram melhores resultados do que as turmas de 2015 e do que as turmas após o REUNI e ministradas apenas por professores efetivos. Foram avaliados que os cumprimentos de atividades do Roteiro de Estudo e a utilização do juiz on-line The Huxley pelos alunos para as atividades práticas de programação influenciam na aprovação do aluno. Além disso, foram realizadas pesquisas com os alunos que permitiram identificar que a experiência na utilização da metodologia proposta e de suas ferramentas de apoio se mostraram eficazes, mas que há algumas melhorias propostas a serem aprimoradas na metodologia. Como contribuição, espera-se que essa metodologia proposta e as ferramentas que a apoiam possam ser empregadas em outras turmas, em outras disciplinas e em outras instituições de ensino, podendo assim melhorar o aprendizado de programação que é uma das bases de conhecimento da Engenharia de Software e da Computação.

  • JOÃO PAULO ANDRADE LIMA
  • PRODIS: PROJETO, DESENVOLVIMENTO E AVALIAÇÃO DE UMA PLATAFORMA DE PROCESSAMENTO, DIGITALIZAÇÃO E INTERFACEAMENTO DE SINAIS BIOELÉTRICOS.
  • Orientador : MARCO TULIO CHELLA
  • Data: 15/08/2017
  • Dissertação
  • Mostrar Resumo
  • Sinais são fenômenos que transmitem informação, mas na maioria das vezes em
    que são utilizados na área biomédica, somente a aquisição do sinal não é suficiente,
    pois o sinal possui ruído e precisa ser processado, ou seja, filtrado. Mesmo que seja
    possível lidar com formas de ondas em tempo contínuo, é geralmente conveniente
    convertê-los em uma forma numérica antes do processamento, uma vez que o
    processamento digital é mais eficiente e flexível do que o analógico. Na área de
    engenharia biomédica, está disponível um grande número de métodos e algoritmos
    de processamento de sinal digital, no entanto, não é fácil implementar novas
    técnicas. Dessa forma, este trabalho desenvolveu o "ProDIS", uma plataforma de
    processamento, digitalização e interfaceamento de sinais biomédicos, nesse caso o
    eletrocardiograma, o eletromiograma e o eletro-oculograma, que permite o acesso
    experimental à operação de filtros digitais, seus algoritmos e seus efeitos. Ademais,
    potencializa a prototipagem rápida de aplicações, visto que visa diminuir a
    sobrecarga em termos de tempo de desenvolvimento quando novos recursos ou
    funcionalidades são necessárias. Além de tornar a aquisição e/ou o estudo de sinais
    biomédicos fácil e acessível a todos, desde estudantes, investigadores e pessoas
    com interesse em trabalhar na área da engenharia biomédica. A avaliação da
    plataforma ocorreu por meio de um estudo experimental que avalia a usabilidade da
    plataforma proposta além de mensurar a curva de experiência da mesma, mediante
    observação do tempo de execução dos experimentos. Por fim, os resultados
    mostraram que não há diferença estatística entre as médias de usabilidade e entre
    as médias dos tempos de execução dos grupos avaliados, como também
    forneceram evidências de que a ProDIS possui uma usabilidade excelente e uma
    curva de aprendizagem rápida.

  • ROBERT ANDERSON NOGUEIRA DE OLIVEIRA
  • Análise e avaliação experimentais de técnicas para o incremento da eficácia de recuperação de documentos jurisprudenciais
  • Orientador : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: 14/08/2017
  • Dissertação
  • Mostrar Resumo
  • Os algoritmos de radicalização são normalmente utilizados na fase de pré-processamento textual,
    com o intuito de reduzir a dimensionalidade dos dados. No entanto, essa redução apresenta
    diferentes níveis de eficácia, a depender do domínio sobre o qual eles são aplicados. Desse modo,
    a título ilustrativo, há relatos na literatura que evidenciam o efeito da radicalização quando aplicada
    a dicionários ou bases textuais de notícias. Por outro lado, não foi encontrado qualquer
    estudo que analisasse o impacto da radicalização sobre a jurisprudência judicial brasileira, composta
    por decisões da magistratura, instrumento fundamental para que os profissionais do Direito
    possam exercer o seu papel. Assim, o presente trabalho apresenta os resultados obtidos
    por meio da análise e avaliação experimentais da radicalização aplicada sobre documentos jurisprudenciais
    verídicos, oriundos do Tribunal de Justiça do Estado de Sergipe. Os resultados
    mostraram que, dentre os algoritmos analisados, o RSLP possuiu a maior capacidade de redução
    de dimensionalidade dos dados. Outrossim, mediante avaliação extrínseca dos algoritmos
    de radicalização sobre a recuperação de documentos jurisprudenciais, os algoritmos RSLP-S e
    UniNE, radicalizadores menos agressivos, apresentaram o melhor relação custo-benefício, haja
    vista que reduziram a dimensionalidade dos dados e tiveram eficácia similar, ou até mesmo superior,
    à do grupo de controle.

  • ANTONIO FERNANDO CRUZ SANTOS
  • SALUTEM: ARQUITETURA DE BIG DATA PARA ÁREA DA SAÚDE
  • Orientador : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: 08/08/2017
  • Dissertação
  • Mostrar Resumo
  • Não é de hoje que os dados são considerados um dos principais ativos das organizações. Nos últimos anos, decorrente a crescente geração de dados, em diversos formatos e variadas fontes, a importância em tornar os dados em informações e em conhecimento, são características basilares do big data. No ambiente da saúde, o big data está se popularizando, trazendo inúmeros benefícios para a área, como: predição de doenças, melhoria no tratamento dos pacientes, entre outros. Mas a aplicação de soluções pode não ser simples, pois apresentar desafios que devem ser levados em consideração, como é o caso da segurança dos dados dos pacientes e profissionais de saúde, além da questão da unicidade semântica empregada. Por um lado, os dados, em contextos de saúde, são sensíveis e por esse motivo devem ser salve guardados contra acessos indevidos. Por outro, os dados que são compartilhados pelos profissionais de saúde devem manter uma mesma interpretação, para que não gere interpretações dúbias. Nesse sentido, esta dissertação apresenta uma arquitetura de big data para a saúde, denominada de Salutem, com vistas a simplificar sua aplicação, mas também contornar os problemas da segurança e semântica dos dados. Como forma de avaliação, a arquitetura proposta foi aplicada em um estudo de caso, onde foi possível avaliar sua utilização. Os resultados obtidos foram satisfatórios, haja vista que foram entregues serviços para os consumidores com êxito.

  • DIEGO ASSIS SIQUEIRA GOIS
  • YOUMAKE: UMA PLATAFORMA DIDÁTICA, DE BAIXO CUSTO, GENÉRICA E DE FÁCIL PROTOTIPAGEM PARA AQUISIÇÃO E CONDICIONAMENTO DE SINAIS BIOLÓGICOS.
  • Orientador : MARCO TULIO CHELLA
  • Data: 04/08/2017
  • Dissertação
  • Mostrar Resumo
  • Com o crescimento da computação física e o aumento do movimento “faça você mesmo”
    (Do-It-Yourself), surgiram diversas plataformas de prototipagem eletrônica como o Arduino
    e o Raspberry pi. Porém essas placas não atendem os requisitos de aquisição e
    condicionamento de sinais biomédicos. Seguindo a ideia do “faça você mesmo”, esta
    dissertação apresenta um framework de aquisição e condicionamento de sinais
    biomédicos formados por um conjunto de placas que tem como características o fato de
    ser composto por placas interconectáveis, intercambiáveis, interconfiguráveis e
    reconfiguráveis denominado YouMake. Além disso, possui um baixo custo e forte
    documentação, possibilitando uma fácil prototipagem e manipulação. A avaliação
    experimental da plataforma foi realizada em um grupo de pessoas que utilizaram a
    plataforma para mostrar o nível de usabilidade e o tempo gasto. Os resultados mostraram
    que não há diferença estatística entre o tempo de prototipagem obtido para os grupos
    “com experiência” e “sem experiência”. Além de fornecer evidências de que a plataforma
    pode ser utilizada como uma alternativa de baixo custo para aquisição e condicionamento
    de sinais biomédicos.

  • LUCIANA MAIARA QUEIROZ DE SANTANA
  • Aplicação de redes neurais recorrentes no reconhecimento automático da fala em ambientes com ruídos
  • Orientador : LEONARDO NOGUEIRA MATOS
  • Data: 26/07/2017
  • Dissertação
  • Mostrar Resumo
  • Inúmeras tarefas de aprendizagem exigem lidar com dados sequenciais, a exemplo de tradutores de textos, geradores de músicas, entre outros. Os sistemas que utilizam redes neurais profundas (DNN) têm mostrado resultados promissores no reconhecimento automático de fala (ASR), onde um dos maiores desafios é o reconhecimento em sinais de voz contaminados com ruído. Para este trabalho, combinamos duas arquiteturas conhecidas de aprendizagem profunda, as redes neurais convolucionais (CNN) para abordagem acústica e uma arquitetura recorrente com classificação temporal conexionista (CTC) para modelagem sequencial. As redes neurais recorrentes são modelos que capturam a dinâmica da sequência através de uma topologia que contém ciclos, ao contrário das redes neurais acíclicas ou de alimentação direta (feedforward). O modelo estudado neste trabalho é um caso particular de rede recorrente profunda que, ao contrário de seus correlatos de arquitetura rasa, é capaz de reter um estado que pode representar informações de uma janela de contexto arbitrariamente longa. Os resultados experimentais mostraram que a arquitetura proposta alcançou um desempenho superior quando comparado ao modelos clássico, modelo oculto de Markov (HMM), em testes realizados sobre as mesmas bases de dados.

  • JOSÉ BONIFACIO DA SILVA JÚNIOR
  • Paralelização em CUDA do Algoritmo Aho-Corasick Utilizando as Hierarquias de Memórias da GPU e Nova Compactação da STT (Tabela de Transição de Estados)
  • Orientador : EDWARD DAVID MORENO ORDONEZ
  • Data: 21/06/2017
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O objetivo principal desta dissertação de mestradoé paralelizar algoritmos de comparação de strings tradicionais através de GPUs usando a linguagem de programação C na plataforma de computação paralela CUDA. Após paralelizar os algoritmos, acelerar o tempo de execução deles fazendo o uso da memória compartilhada das GPUs através de uma nova técnica de compactação.

    1.2.1 ObjetivosEspecíficos

    Para alcançar o objetivo primário, alguns objetivos específicos têm que ser atendidos, a saber:

    • Fazer um estudo na literatura sobre a paralelização do algoritmo de comparação de strings do Snort, o Aho-Corasick;

    • Compactar a máquina de estados do Aho-Corasick a fim de possibilitar que o algoritmo seja executado na memória compartilhada da GPU;

    • Paralelizar o algoritmo em uma GPU fazendo versões nas memórias global, de textura e compartilhada;

    • Comparar o desempenho dos algoritmos paralelizados, além de compará-los com a versão serial do algoritmo;

  • TELMO OLIVEIRA DE JESUS
  • UMA TÉCNICA BASEADA EM EVENTOS PARA RASTREABILIDADE ENTRE REQUISITOS MODELADOS COM SysML
  • Orientador : MICHEL DOS SANTOS SOARES
  • Data: 12/06/2017
  • Dissertação
  • Mostrar Resumo
  • Gerenciar um projeto de software é uma tarefa cada vez mais complexa à medida que as exigências sobre a qualidade do produto final aumentam. Assim, é preciso um gerenciamento eficaz desde a concepção do projeto até a implantação e manutenção do software. Segundo literatura, a Engenharia de Requisitos é a fase que possui maior impacto em um projeto de software. As mudanças nos requisitos de software ocorrem ao longo do processo de software,desde a elicitação e análise de requisitos até a operação do software. A rastreabilidade de requisitos possibilita identificar a origem e a dependência entre os requisitos de software. Estudos mostram que as ferramentas e métodos de rastreabilidade de requisitos atuais são insuficientes e dificultam o uso prático da rastreabilidade. O objetivo deste trabalho foi a criação de uma técnica de rastreabilidade de requisitos combinada com uma linguagem de modelagem e que seja suportada por uma ferramenta. Para atingir este objetivo, foram utilizados como instrumentos de pesquisa a revisão bibliográfica, uma pesquisa do tipo estado da arte, análise comparativa,questionário e entrevistas. Inicialmente, foram realizadas análise das técnicas de rastreabilidadede requisitos e avaliação de ferramentas de rastreabilidade de requisitos com intuito de avaliarse as técnicas são utilizadas na prática, e se estão sendo apoiadas por ferramentas de software.Após estas análises, foi proposta uma técnica de rastreabilidade entre requisitos baseada emeventos utilizando conceitos da linguagem de modelagem SysML. Uma ferramenta de software foi desenvolvida para apoiar essa técnica. Sempre que um requisito é modificado, a ferramenta notifica aos stakeholders a alteração realizada nos requisitos do sistema por meio de e-mails.A técnica e a ferramenta foram avaliadas por vinte e quatro profissionais de tecnologia dainformação utilizando questionário, baseado no modelo TAM, que engloba os conceitos de utilidade percebida, facilidade de uso percebido e uso percebido, e entrevistas. Como resultado,foram observados a falta de relação entre as técnicas e as ferramentas pesquisadas e que o critériode comunicação automática com stakeholders não foi abordado em nenhuma ferramenta avaliada.Com relação à técnica e ferramenta propostas, observou-se uma ampla aceitação da técnica e da ferramenta. A aceitação das propostas foi realizada por profissionais com experiências variadasincluindo conhecimentos em sistemas legados e ERP.

  • AIRTON ANTONIO DE JESUS JÚNIOR
  • Detecção de falhas em Sistema para Ambiente de Vida Assistida
  • Orientador : TARCISIO DA ROCHA
  • Data: 09/06/2017
  • Dissertação
  • Mostrar Resumo
  • Ambiente de Vida Assistida (AVA) é, essencialmente, uma proposta científica e tecnológica que visa auxiliar a manutenção da vida e o bem-estar de pessoas idosas ou com necessidades especiais. Para tanto, utiliza-se um sistema de controle (middleware) que integra e coordena dispositivos inteligentes: braceletes, roupas, camas, quartos etc., com vistas a ampliar a autonomia dos indivíduos na execução das mais simples atividades diárias bem como prover remotamente serviços de saúde e de assistência social. Como então garantir, neste contexto, que o sistema não esteja interpretando uma situação equivocada da realidade do meio ou do próprio paciente? Ou ainda, como prevenir respostas inadequadas ou omissões irremediáveis? Apenas com o cumprimento eficaz de requisitos não funcionais, tais como técnicas de detecção de erros e tolerância a falhas poder-se-á minimizar tais circunstâncias inaceitáveis para preservação da saúde do indivíduo. Neste diapasão, o presente estudo visa levantar o contexto de identificação de falhasem sistemas distribuídos assíncronos de modo a projetar, desenvolver e, em seguida, avaliar a eficácia de módulo de detecção de erros em sistemas para controle de AVA por meio do emprego de tecnologias abertas (open hardware/software).

  • CLAUDIO JUNIOR NASCIMENTO DA SILVA
  • GOVERNANÇA E ALINHAMENTO ESTRATÉGICO DE TIC E NEGÓCIO NO ÂMBITO DAS EMPRESAS SERGIPANAS
  • Orientador : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: 30/05/2017
  • Dissertação
  • Mostrar Resumo
  • Em um mercado cada vez mais competitivo, os recursos de Tecnologia da Informação e Comunicação (TIC) são essenciais e estratégicos nas organizações. Atualmente, o uso das TIC é uma questão de sobrevivência do negócio. Da mesma forma que as organizações e o mercado estão em constantes mudanças, as TIC estão em constante evolução, não sendo mais concebível tratá-las apenas como recursos de apoio, mas também como um recurso estratégico - com riscos para o negócio e sendo conhecido por todos. Consequentemente, o emprego dos recursos tecnológicos deve estar alinhado com os objetivos do negócio. Faz-se necessário, então, identificar como as organizações estão promovendo o alinhamento das estratégias de TIC com as estratégias do negócio e como estão sendo tratadas as questões dos riscos e da comunicação e transparência de TIC. O presente trabalho investigou, após a aplicação de um questionário eletrônico (survey) aos Chiefs Information Officer sergipanos, como as práticas de Governança de TIC são adotadas pelas empresas e como se encontram o planejamento e o alinhamento estratégico entre TIC e negócio. Como resultado, observou-se uma carência das organizações na gestão de riscos, dos processos de comunicação e do alinhamento estratégico entre TIC e negócio, bem como se constatou que as principais práticas de Governança da TIC utilizadas foram Planejamento Estratégico de TIC próprio ou customizado, ITIL, PMBOK e BSC. Além das práticas de Governança de TIC citadas, existem outras metodologias e frameworks que propõem a gestão eficiente dos objetivos de TIC, alinhados com a estratégia da organização. Dentre elas, destaca-se a Metodologia PETIC desenvolvida pela Universidade Federal de Sergipe. Neste cenário, são propostas melhorias na Metodologia PETIC, incorporando ao seu escopo a gestão de riscos e gestão da comunicação e transparência de TIC, possibilitando uma avaliação de TIC eficiente e alinhada com os objetivos estratégicos do negócio. Para evidenciar e comprovar a suposição apresentada de que as melhorias propostas na Metodologia PETIC promovem uma gestão mais eficiente dos riscos e da comunicação e transparência de TIC, um estudo de caso foi aplicado em uma empresa sergipana e, por meio de análises qualitativas e quantitativas das métricas previamente definidas, constatou-se que houve significativa melhoria na elaboração do planejamento estratégico de TIC e na gestão dos riscos e da comunicação e transparência.

  • GEORGE LEITE JÚNIOR
  • I9VANET: um modelo de arquitetura de software para rede veicular em nuvem
  • Orientador : DOUGLAS DYLLON JERONIMO DE MACEDO
  • Data: 29/05/2017
  • Dissertação
  • Mostrar Resumo
  • Em consequência do crescimento populacional, as grandes cidades enfrentam problemas cotidianos relacionados à mobilidade urbana tais como: congestionamentos, baixa qualidade das rodovias, ineficiência de transportes públicos, entre outros. Iniciativas de sistemas de transportes inteligentes (ITS) agem como uma solução eficiente para melhorar o funcionamento e desempenho dos sistemas de tráfego, reduzindo congestionamentos e aumentando a segurança para os cidadãos. Atualmente, pesquisadores vem buscando nas redes veiculares ad-hoc (VANET) uma possível solução para os problemas referentes à mobilidade urbana. Contudo, VANETs ainda apresenta uma série de desafios que devem ser resolvidos para que seu uso seja consolidado. Deste modo, o presente trabalho apresenta uma arquitetura e plataforma denominada I9VANET, cujo intuito é o gerenciamento de uma rede veicular de maneira virtualizada por meio da computação em nuvem, para auxiliar nas soluções dos principais desafios relacionados à VANETs tais como: interferências na comunicação devido a árvores e prédios; alta mobilidade dos nós; alta e baixa densidade dos nós em uma área; garantia de confidencialidade, integridade e disponbilidade, autenticidade e não repúdio. Após realização de experimentos em laboratório, foi constatado a viabilidade técnica para a utilização de velocidades definidas para os modelos de telefonia móvel 3G, 4G e 5G, satisfazendo os critérios de eficiência se comparados a outros trabalhos, na literatura, que utilizaram redes veiculares ad-hoc.

  • JAMILLE SILVA MADUREIRA
  • Avaliação de Equipes de Desenvolvimento de Software por Meio de Métricas Orientadas a Objeto
  • Orientador : MICHEL DOS SANTOS SOARES
  • Data: 12/04/2017
  • Dissertação
  • Mostrar Resumo
  • Gerenciar um projeto de software é uma tarefa cada vez mais complexa à medida que as exigências sobre o produto final aumentam. O ambiente competitivo no mercado de software e as necessidades dos clientes exigem que os desenvolvedores de software tenham preocupação cada vez maior na satisfação do usuário como uma medida da qualidade do produto final. Assim, é preciso um gerenciamento eficaz desde a concepção do projeto até a manutenção do software. A equipe de desenvolvimento é um dos recursos mais relevantes para o êxito dos projetos, mas também é onde frequentemente são encontrados os maiores problemas. O uso de métricas é uma forma de ajudar a equipe do projeto a atingir os seus objetivos e metas. O objetivo deste trabalho foi utilizar métricas de software para avaliar equipes e indivíduos, analisando o desempenho atual dos desenvolvedores. Para atingir esse objetivo, nesse trabalho foram aplicados como instrumentos de pesquisa a revisão da literatura e o estudo de caso. A revisão da literatura propiciou descobrir valores referência para as métricas aplicadas, com a finalidade de estabelecer critérios que serviram de base para avaliar os softwares envolvidos na pesquisa. Após obter esses conhecimentos, foi aplicado o estudo de caso em duas empresas públicas locais e em exercícios com alunos de graduação de duas universidades. No total, foram avaliados treze softwares, sendo quatro desenvolvidos nas empresas e nove pelos estudantes. Para a aplicação das métricas, foi selecionada uma ferramenta que as coletasse automaticamente e fornecesse o resultado em um formato pronto para ser manipulado. Como resultado, foi constatado que a avaliação da qualidade do software por meio de métricas contribui efetivamente na gestão de projetos, pois indica suas falhas e onde deve ser melhorado. Também foram descobertas evidências de que ouso de métricas é útil na avaliação dos membros das equipes de desenvolvimento. Por meio doestudo de caso, descobriu-se que a composição da equipe é importante para o sucesso do projeto,pois a formação e experiência dos membros afetam diretamente a qualidade do software. Nestesentido, as métricas de software podem contribuir para acompanhar tanto o desenvolvimento doprojeto quanto nas decisões que causam mudanças na equipe.

  • ANDERSON SANTOS BARROSO
  • UM ESTUDO SOBRE A INFLUÊNCIA DA PERSONALIDADE HUMANA NA QUALIDADE DO SOFTWARE PRODUZIDO
  • Orientador : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: 30/03/2017
  • Dissertação
  • Mostrar Resumo
  • A personalidade dos profissionais de engenharia de software tem sido um elemento contínuo de interesse na pesquisa acadêmica. Os pesquisadores aplicaram diferentes modelos de análise de personalidade em várias áreas de engenharia de software para identificar pontos de melhoria, promover a satisfação no trabalho e organizar melhor as equipes. Entre esses modelos destacamos o MBTI e BIG Five. Esta dissertação objetiva realizar um estudo para avaliar modelos de personalidade aplicados em engenharia de software e compreender como a personalidade humana influencia a qualidade do software. Dois experimentos controlados foram realizados, o primeiro na indústria, no departamento de TI de uma instituição privada de ensino superior e o segundo em uma disciplina de programação avançada na academia. Para ambas as experiências, a qualidade do software produzido individualmente por cada participante foi avaliada utilizando métricas de software para linguagens de paradigma orientadas a objetos. Como resultado, há evidências de que desenvolvedores com personalidades diferentes não desenvolvem software de qualidade igual. Como os experimentos foram realizados em uma única localização geográfica com uma cultura de desenvolvimento de software própria, estudos adicionais precisam ser realizados para determinar qualquer ligação real entre personalidade e qualidade de software.

    ::

    Personality of software engineering professionals has been a continuous element of interest in academic research. Researchers have applied different models of personality analysis in various software engineering areas to identify improvement points, to promote job satisfaction and to better organize teams. Among these models, we can highlight the MBTI and BIG Five. This work aims to conduct a study to evaluate personality models applied in software engineering and to understand how human personality influences software quality. Two controlled experiments were performed, the first in industry, in IT department of a private higher education institution and the second in an advanced programming discipline in academy. For both experiments, the quality of software individually produced by each participant was evaluated using software metrics for object-oriented paradigm languages. As a result, there is evidence that developers with different personalities do not develop software of equal quality. As the experiments were run in a single geographic location with an own software development culture, additional studies need to be performed to determine any real link between personality and software quality.

  • QUELITA ARAÚJO DINIZ DA SILVA RIBEIRO
  • UMA TÉCNICA BASEADA EM SysML PARA MODELAR A ARQUITETURA DE SISTEMAS EMBARCADOS DE TEMPO REAL
  • Orientador : MICHEL DOS SANTOS SOARES
  • Data: 23/03/2017
  • Dissertação
  • Mostrar Resumo
  • A especificação da arquitetura de sistemas de software de tempo real é uma atividade que depreende análise, conhecimento e compreensão tanto do domínio da aplicação quanto das partes envolvidas na construção do software. A arquitetura tem um papel primordial na comunicação entre os stakeholders, além do planejamento e estrutura de todo o processo arquitetural envolvido no projeto. Contudo, as Linguagens de Descrição de Arquitetura (ADLs) não tem sido amplamente usadas na indústria. Outro fator limitador para o uso efetivo de ADLs é a dificuldade dessas linguagens em expressar efetivamente a arquitetura de sistemas complexos. Considerando essa situação de dificuldade do uso efetivo de ADLs, a UML tem sido utilizada nos últimos anos para modelagem da arquitetura. No entanto, a UML por si só não consegue representar completamente as características pertinentes a sistemas de tempo real, tais como segurança ou restrições de tempo real. Uma das vantagens da UML é a capacidade de extensão permitindo a criação de profiles. Neste sentido, este trabalho apresenta Systems Modeling Language (SysML), um profile da UML, para modelagem da arquitetura de sistemas de tempo real em dois sistemas automotivos, o sistema de controle de airbag e o sistema de controle de faróis. Neste trabalhotem-se como objetivos mostrar a possibilidade de utilizar a UML e a SysML para modelagem edocumentação da arquitetura e delineamento de rastreabilidade de requisitos entre software esistema, ampliando o entendimento do projeto entre as partes envolvidas, e por fim apresentara SysML como uma linguagem capaz de ser usada na descrição da arquitetura de software detempo real. As linguagens SysML e a ADL Architecture Analysis & Design Language (AADL)foram comparadas para mostrar as vantagens da SysML, foi percebido que características abstratas,tais como tomadas de decisão, repetição de uma funcionalidade (loop), características que são relacionadas a realidade e consequentemente, ao sistema não podem ser descritas em AADL. A SysML mostrou-se relevante no contexto da descrição, análise, classificação e modelagemde arquitetura para sistemas de tempo real. O diagrama de Requisitos da SysML mostra explicitamente os diversos tipos de relacionamentos entre diferentes requisitos, o diagrama de Blocos viabiliza a visão global dos sistemas envolvidos num único projeto, o diagrama de Blocos Internos possibilita a visão interna do sistema em construção, o diagrama de Atividades considera a visão comportamental do sistema. Os conceitos de SysML, articulados nos diagramas de Requisitos, Atividades, Blocos e Blocos Internos da SysML são complementares cobrindo os propósitos necessários para a descrição da arquitetura de sistemas de tempo real. Conclui-se quea técnica proposta da junção de UML e SysML fornece elementos para descrever requisitos desoftware e seus relacionamentos com o sistema, gerenciar mudanças, evoluir e rastrear requisitosmais facilmente, além da comunicação ser efetivamente realizada entre os stakeholders. Este aspecto é importante ao desenvolvimento de sistemas de tempo real, por causa da diversidade depessoas/equipes envolvidas e que influenciam uma ampla série de decisões de projeto.

  • ÍTALO PEREIRA TELES
  • BPM4SERVICES: FRAMEWORK DIRIGIDO A MODELOS PARA AUTOMAÇÃO DE PROCESSOS DE NEGÓCIO
  • Orientador : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: 23/02/2017
  • Dissertação
  • Mostrar Resumo
  • Organizações estão cada vez mais conscientes da importância da definição e gerenciamento de seus processos, dessa forma, a Gestão de Processos de Negócio (Business Process Management - BPM) tem evoluído ao longo dos últimos anos. Conceitos como Arquiteturas Orientadas a Serviços (Service Oriented Architecure - SOA) auxiliam na aproximação entre negócio e tecnologia, facilitando a comunicação e entendimento das reais necessidades do negócio. Adicionalmente, o paradigma Model Driven Engineering (MDE) promove a criação de softwares baseados em modelos, o qual visa aumentar a produtividade no desenvolvimento de soluções independentes de plataformas e com um menor custo de implementação. Nesse contexto, este trabalho apresenta o BPM4Services, um framework dirigido a modelos para automação de processos de negócio baseado em uma Arquitetura Orientada a Serviços. O framework tem como objetivo direcionar o desenvolvimento de soluções orientadas a processos de forma eficiente e padronizada, integrando os conceitos de BPM, SOA e MDE. Uma análise do BPM4Services, através de um caso exemplo, foi realizada no processo de Triagem Neonatal no Hospital Universitário da Universidade Federal de Sergipe, demonstrando a utilização e viabilidade do framework.

  • LEONARDO HENRIQUE DA SILVA BOMFIM
  • Um Serviço para Anonimização em Redes Definidas por Software
  • Orientador : EDILAYNE MENESES SALGUEIRO
  • Data: 22/02/2017
  • Dissertação
  • Mostrar Resumo
  • Este trabalho tem como objetivo implementar um serviço de anonimização em Redes Definidas por Software (SDN). Através de um serviço de anonimização é possível realizar a ocultação dos endereços IP dos hosts da rede, garantindo maior proteção contra ataques à segurança, permitindo um aumento de sua disponibilidade. Um dos maiores desafios da arquitetura SDN é a segurança. A separação do controle e do plano de dados permite que desafios para garantir a segurança sejam gerados, devido à permissividade da rede a ataques como ``Homem no Meio'', Negação de Serviço e Saturação. O serviço aqui desenvolvido, denominado de BomIP, utiliza a técnica de anonimização de micro-dados através da randomização dos endereços IP dos hosts. O serviço BomIP foi adicionado ao controlador RunOS, que ficou responsável por realizar o gerenciamento dos endereços IP reais e anonimizados. Para validar este serviço foram realizados dois Estudos de Caso em um ambiente simulando um ataque de Negação de Serviço. O primeiro Estudo de Caso realizou a comparação do funcionamento do serviço de anonimização Crypto-Pan com o BomIP. Enquanto que o segundo Estudo de Caso realizou a comparação de uma rede IP tradicional sob ataque de Negação de Serviço e uma SDN utilizando o BomIP. A análise dos resultados mostrou que o serviço desenvolvido tem um tempo de execução 65\% mais eficiente que o Crypto-Pan. A análise de complexidade do algoritmo do BomIP demonstrou que é de ordem quadrática. Os resultados também demonstraram que os pacotes anonimizados permitem a rastreabilidade e a mitigação de 80\% das tentativas de ataque, dando garantias que os serviços providos pela rede continuem disponíveis.

  • FÁBIO GOMES ROCHA
  • PETIC DECISION MAKING (PDM): UM MODELO AUTOMATIZADO PARA APOIO À TOMADA DE DECISÃO ESTRATÉGICA EM TIC
  • Orientador : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: 09/02/2017
  • Dissertação
  • Mostrar Resumo
  • Strategic planning is essential for the management of Information and Communication Technologies in organizations, providing more assertive decisions to establish the basic purposes of improvement and implementation of new resources. Broaching the subject, the goal of this study was the adaptation of the Technique for Order Preference by Similarity to Ideal Solution (TOPSIS) in the creation of a new model to support decision making on the prioritization of investments in strategic planning of Information and Communication Technologies as a support to the methodology PETIC, called PETIC Decision Make (PDM), evaluating its applicability in real case studies. The investigated institutions were a municipal public administration body and a labor union entity, where the PDM was used in the prioritization of investments for the period of five years, using the tool PDMSys created in this study. By means of the proposed method was possible to select alternatives of actions considered preferable and to analyze their dependencies, besides creating a continuous cycle for classification. The results indicated the practicability of the method, avoiding an indication that the dependencies would jeopardize the investment in technologies. In this way, it was verified that the application of the PDM increases the predictability of expenditures, allows the reduction of initial costs and contributes to the assertiveness in the decisions on the management of the technological resources, implying in the global management of the institutions.

    ::

    O planejamento estratégico é essencial para a gestão das Tecnologias da Informação e Comunicação nas organizações, proporcionando decisões mais assertivas para o estabelecimento dos propósitos básicos de melhoria e implementação de novos recursos. Abordando o tema, o objetivo deste estudo foi a adaptação do Technique for Order Preference by Similarity to Ideal Solution (TOPSIS) na criação de um novo modelo de apoio à tomada de decisão sobre a priorização de investimentos em planejamento estratégico de Tecnologias da Informação e Comunicação como suporte à metodologia PETIC, denominado PETIC Decision Make (PDM), avaliando sua aplicabilidade em estudos de caso real. As instituições investigadas foram um órgão da administração pública municipal e uma entidade sindical, onde se empregou o PDM na priorização de investimentos para o período de cinco anos, utilizando-se a ferramenta PDMSys criada neste estudo. Por meio do método proposto foi possível selecionar alternativas de ações consideradas preferíveis e analisar as suas dependências, além de criar um ciclo contínuo para ordená-las. Os resultados indicaram a praticabilidade do método, evitando indicação em que as dependências prejudicassem o investimento em tecnologias. Dessa forma, constatou-se que a aplicação do PDM amplia a previsibilidade sobre os gastos, possibilita a redução de custos iniciais e contribui para a assertividade nas decisões sobre a gestão dos recursos tecnológicos, implicando na gestão global das instituições.

  • ÉDEN PEREIRA DA SILVA
  • Kernel Sigmoide (KSIG): análise de convergência e experimentos em filtragem adaptativa não linear
  • Orientador : CARLOS ALBERTO ESTOMBELO MONTESCO
  • Data: 27/01/2017
  • Dissertação
  • Mostrar Resumo
  • A filtragem adaptativa é aplicada na solução de diversos problemas da engenharia. Há
    muitas alternativas para melhorá-la, uma delas é o uso de kernel, que consiste na mudança
    do espaço dos dados e, em adição ao uso desta técnica, há a proposta do uso de um dicionário
    pré-definido de dados. Outra alternativa é a mudança da função de custo. Neste contexto, este
    trabalho traz o algoritmo KSIG, a versão em kernel do Sigmoide, no qual se busca a redução
    do erro, decorrente do uso da função kernel, e o aumento na velocidade de convergência
    pela mudança na função de custo par e não linear utilizada. Ademais, descreve-se também
    a versão do KSIG com dicionário de dados pré-definido, visando redução do grande número
    de dados utilizados para obtenção da saída decorrente do uso da técnica com kernel. Este
    trabalho mostra o resultado teórico da eficiência do KSIG e de sua versão com dicionário pré-
    definido está presente nas provas de convergência construídas para ambos os algoritmos, as
    quais demonstraram que estes convergem em média. Por outro lado, as curvas de aprendiza-
    gem, obtidas nas simulações computacionais dos experimentos realizados, demonstraram
    que o KSIG quando comparado ao KLMS, em diferentes problemas de filtragem adaptativa,
    apresenta convergência mais rápida, tanto nas versões sem e com dicionário pré-definido de
    ambos os algoritmos.

2016
Descrição
  • JOVAN DE ANDRADE FERNANDES JUNIOR
  • Reconhecimento Automático de Expressões Faciais Baseado na Geometria Facial
  • Orientador : LEONARDO NOGUEIRA MATOS
  • Data: 21/12/2016
  • Dissertação
  • Mostrar Resumo
  • Nos últimos anos temos observado grandes avanços na área de Visão Computacional que possibilitaram uma mudança na maneira como nos relacionamos com a máquina. Para al- cançar uma efetiva Interface Humano-Computador Inteligente (IHC), além dos movimentos corporais ou comandos vocais, é necessário que a máquina seja capaz de compreender tam- bém as expressões faciais dos seres humanos.

    Nos últimos vinte anos, diversos autores buscaram reconhecer expressões faciais mas essa tarefa ainda não é executada com a mesma eficiência que um humano.

    Este trabalho se utiliza da geometria facial humana para propor dois métodos de seleção de características para reconhecer expressões faciais humanas. Os resultados obtidos foram compatíveis com o atual estado da arte.

  • VICTOR GABRIEL GALVAN
  • Proposta de Identificação de Ataques ao Serviço SSH usando Padrões no Consumo de Corrente em Plataformas Embarcadas
  • Orientador : EDWARD DAVID MORENO ORDONEZ
  • Data: 22/11/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Este trabalho apresenta a obtenção de curvas de consumo de corrente elétrica, a partir das respostas geradas por um sistema embarcado de baixo custo Raspberry Pi 2 Model B executando o sistema operacional Linux Raspbian trabalhando como um servidor de acesso remoto SSH, que é avaliado através de diferentes tipos de acessos e ataques de força bruta com dicionários através das ferramentas especializadas Medusa e Hydra, como também a ferramenta não especializada Metasploit.O comportamento energético é interpretado por um sistema de medição de consumo de corrente desenvolvido pela plataforma embarcada de baixo custo Arduino Uno que administra um sensor de corrente baseado no chip ACS721ELC-5A de efeito Hall, que possui a capacidade de coletar as variações geradas pela plataforma de teste em resposta aos eventos produzidos pelos cenários de provas propostos, os dados são processados pelo Framework Matlab que coleta, analisa e normaliza por meio do método de Welch o sinal de corrente que é interpretado pelo Arduino Uno, posteriormente se apresenta uma curva padrão que caracteriza um determinado evento baseado nos cenários de provas.Os resultados apresentam as diferentes curvas padrões normalizadas, e contextualizadas nos tipos de cenários avaliados, seguidamente se apresenta um modelo matemático teórico do consumo de corrente proposto, como também as regras ou assinaturas propostas para identificar um ataque através do método de detecção por padrões que utilizada o IDS Snort. Essas curvas de corrente facilitam o entendimento e obtenção de um padrão de consumo de corrente para cada acesso e ataque na plataforma embarcada.

  • DAVID WILLIANS DOS SANTOS CAVALCANTI BESERRA
  • Performance Analysis of Virtualization Technologies in High Performance Computing Environments
  • Orientador : EDWARD DAVID MORENO ORDONEZ
  • Data: 19/09/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • High Performance Computing (HPC) aggregates computing power in order to solve large and complex problems in different knowledge areas, such as science and engineering, ranging from 3D real-time medical images to simulation of the universe. Nowadays, HPC users can utilize virtualized Cloud infrastructures as a low-cost alternative to deploy their applications. Despite of Cloud infrastructures can be used as HPC platforms, many issues from virtualization overhead have kept them almost unrelated. In this work, we analyze the performance of some virtualization solutions - Linux Containers (LXC), VirtualBox and KVM - under HPC activities. For our experiments, we consider CPU,(network and inter-process) communication and I/O performance. Results show that different virtualization technologies can impact distinctly in performance according to hardware resource type used by HPC application and resource sharing conditions adopted.

  • MAYKA DE SOUZA LIMA
  • VOCABULÁRIO PADRÃO PARA DESCOBRIR SERVIÇOS NA INTERNET DAS COISAS
  • Orientador : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: 31/08/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A internet das coisas é uma infraestrutura de rede que se baseia em protocolos de comunicação, domínios e aplicações conectando objetos físicos, como sensores ou dispositivos remotos através de comunicações sem fio. Para que objetos inteligentes realizem suas funções quando conectados à internet utilizando os recursos da web, é necessário que as interfaces de comunicações possam tratar a busca de um determinado serviço solicitado pelo usuário com precisão. A busca deste serviço se dará se a semântica utilizada no vocabulário for eficaz ao processo de solicitação. Em algumas pesquisas citadas no trabalho a utilização dos vocabulários semânticos em serviços da web, apresenta alguns problemas que persistem na detecção clara destes serviços. Estes trabalhos que realizam busca de serviços foram analisados e correlacionados seus pontos positivos e negativos sobre a semântica utilizada no vocabulário e sua aplicação na IoT. Desta forma, para obter um processo de descobrimento de serviços, este trabalho apresenta um vocabulário padrão para realizar a descoberta de serviços na internet das coisas. O vocabulário construído foi testado em uma aplicação que simula o processo de busca, Cooja Simulator do sistema operacional Contiki, e utilizando a linguagem JSON(JavaScript Object Notation) para a base do código de descobrimento, uma linguagem simples e muito utilizada para aplicações web. Realizada a simulação foram comparados dados qualitativamente e quantitativamente do consumo de energia e de memória do vocabulário como um todo e parte dele, demonstrando que utilizando parte deste vocabulário o consumo de memória e energia se manteve no padrão necessário, mas se utilizá-lo por completo necessitará de mais recursos de rede.

  • JOSÉ JORGE BARRETO TORRES
  • Identificação e análise de clones de códigos heterogêneos em um ambiente corporativo de desenvolvimento de software.
  • Orientador : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: 31/08/2016
  • Dissertação
  • Mostrar Resumo
  • A exigência por acelerar o desenvolvimento de software nas empresas desencadeia uma série de problemas relacionados à organização do código. As equipes de desenvolvimento, pressionadas a cumprir prazos ditados pela área de negócio, adotam a prática ruim de copiar e colar código. Assim, os clones são criados e povoam os repositórios de software dessas companhias, tornando o aprimoramento e manutenção dos sistemas cada vez mais dificultado. Linguagens de programação que possuem características do paradigma de orientação a objetos tendem a facilitar ainda mais o processo de abstração de código e de reaproveitamento. No entanto, uma questão pode ser feita: uma mesma equipe, trabalhando com diversos tipos de linguagens, sofre influência destes tipos, no que diz respeito à diminuição da incidência de clones? Este trabalho propôs uma abordagem para identificar, analisar e comparar clones em repositórios heterogêneos de software, com uma análise tênue do perfil da equipe envolvida. A avaliação experimental da abordagem foi realizada por meio de dois experimentos controlados, os quais visaram a detecção e a avaliação de clones, utilizando e adaptando o ferramental disponível no mercado. Esta avaliação foi executada in-vivo, em um ambiente organizacional real, o qual possuía uma grande quantidade de aplicações e linhas de código fechado disponíveis para análise. Os resultados finais não apresentaram relação direta com a quantidade de linhas de código das aplicações. Sistemas de linguagem procedural apresentaram menor incidência de clones e, no conflito entre sistemas de código aberto e fechado, ambos tiveram resultados similares no que diz respeito à manifestação de clones de código-fonte.

  • IGOR PETERSON OLIVEIRA SANTOS
  • UM FRAMEWORK DE TESTES UNITÁRIOS PARA PROCEDIMENTOS DE CARGA EM AMBIENTES DE BUSINESS INTELLIGENCE
  • Orientador : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: 31/08/2016
  • Dissertação
  • Mostrar Resumo
  • A qualidade de um produto de software está diretamente relacionada com os testes empregados durante o seu desenvolvimento. Embora os processos de testes para softwares aplicativos e sistemas transacionais já apresentem um alto grau de maturidade, estes devem ser investigados para os processos de testes em um ambiente de Business Intelligence (BI) e Data Analytics. As diferenças deste ambiente em relação aos demais tipos de sistemas fazem com que os processos e ferramentas de testes existentes precisem ser ajustados a uma nova realidade. Neste contexto, grande parte das aplicações de Business Intelligence (BI) efetivas depende de um Data Warehouse (DW), um repositório histórico de dados projetado para dar suporte a processos de tomada de decisão. Sãos as cargas de dados para o DW que merecem atenção especial relativa aos testes, por englobar procedimentos críticos em relação à qualidade. Este trabalho propõe uma abordagem de testes, baseada em um framework de testes unitários, para procedimentos de carga em um ambiente de BI e Data Analytics. O framework proposto, com base em metadados sobre as rotinas de povoamento, realiza a execução automática de casos de testes, por meio da geração de estados iniciais e a análise dos estados finais, bem como seleciona os casos de testes a serem aplicados. O objetivo é melhorar a qualidade dos procedimentos de carga de dados e reduzir o tempo empregado no processo de testes. A avaliação experimental foi realizada através de dois experimentos controlados executados na indústria. O primeiro avaliou a utilização de casos de testes para as rotinas de povoamento, comparando a efetividade do framework com uma abordagem manual. O segundo experimento efetuou uma comparação com um framework genérico e similar do mercado. Os resultados indicaram que o framework pode contribuir para o aumento da produtividade e redução dos erros de codificação durante a fase de testes em ambientes de suporte à decisão.

  • ADRIANA DE MELO FONTES
  • TAXOPETIC: PROPOSTA DE UMA TAXONOMIA PARA A CLASSIFICAÇÃO DOS ARTEFATOS GERADOS PELA METODOLOGIA PETIC
  • Orientador : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: 30/08/2016
  • Dissertação
  • Mostrar Resumo
  • Os avanços das Tecnologias da Informação e Comunicação (TIC) podem proporcionar diferenciais competitivos para as organizações. A busca de inovações pelas organizações exige melhores soluções para a garantia de qualidade e satisfação aos seus clientes. Nesse sentido, as organizações necessitam que o Planejamento Estratégico (PE) e as TIC estejam integrados e coerentes entre si. A Metodologia de Planejamento Estratégico de Tecnologia da Informação e Comunicação (PETIC) é um PE que auxilia gestores na identificação da maturidade dos processos de TIC e sua consequente melhoria. Por outro lado, o crescente número de estudos de caso da PETIC nas organizações tem destacado uma dificuldade de localizar e classificar os Artefatos PETIC gerados. Nesse contexto, a utilização de estruturas classificatórias (taxonomias) tem sido aplicada com sucesso para a classificação e a recuperação de informações. Este trabalho propõe uma taxonomia para dar suporte à Metodologia PETIC, denominada TAXOPETIC. Dentre as diversas abordagens técnicas para a construção de uma taxonomia, optou-se pelo uso das abordagens técnicas de Aganette (2010) e Bayona-Oré et al. (2014). Após a construção da TAXOPETIC, foi realizado um estudo comparativo entre essas abordagens utilizadas. Neste trabalho, também são apresentados os motivos pela escolha de uma dessas abordagens. Para testar a estrutura da TAXOPETIC, foi construído um produto de software chamado TAXOPETICWeb. Entre os resultados, ficou evidenciado que a TAXOPETIC consegue classificar os componentes dos Artefatos PETIC e que a TAXOPETICWeb permite o armazenamento, a classificação e a localização desses Artefatos.

  • EMANUEL FERREIRA DA SILVA
  • SDNMonitor: Um Serviço de Monitoramento de Tráfego em Redes Definidas por Software
  • Orientador : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: 30/08/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Com a popularidade da Internet e a emergência de novos serviços, tornou-se cada vez mais necessário fazer um planejamento da rede, com o objetivo de assegurar que cada um dos elementos que a compõem sejam utilizados de forma eficiente. Além disso, é necessário controlar e monitorar a rede, verificando se tudo está sendo executando da maneira que foi planejada. Em redes que utilizam o paradigma SDN, através da introdução de um controlador de rede, é possível a separação entre o plano de dados (hardware) e o plano de controle (software) existentes nos dispositivos de rede, permitindo que novos protocolos e novas tecnologias sejam implementadas e testadas em qualquer dispositivo de rede, independente do seu fabricante. Em contrapartida, surge o seguinte questionamento: como aplicar monitoramento de tráfego em uma rede SDN diante da sua arquitetura de controle centralizada sem causar atrasos ou inconsistências? Este trabalho propôs um serviço de monitoramento de tráfego em redes SDN baseado no protocolo OpenFlow, chamado SDNMonitor, que tem como principal objetivo prover uma visão do tráfego de dados da rede em três níveis de granularidade, por cada porta de cada switch, por cada fluxo e por cada serviço de rede. Adicionalmente, também foi proposto um serviço de balanceamento de carga, baseado na utilização dos algoritmos Round-Robin e Bandwidth-Based. A avaliação experimental destes serviços foi realizada através de experimentos controlados, onde foram gerados e monitorados alguns tráfegos. Os resultados demonstraram que o serviço SDNMonitor conseguiu monitorar o tráfego da rede nos três níveis de granularidade sem impactar de forma negativa no seu funcionamento, e que o serviço de balanceamento de carga foi capaz de melhorar o tráfego da rede.

  • RODRIGO DE ÁVILA REZENDE
  • Cloudlets móveis: deslocamento de serviços para redução de latência
  • Orientador : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: 29/08/2016
  • Dissertação
  • Mostrar Resumo
  • Serviços em nuvem tem se tornado uma solução frequente para os problemas computacionais convencionais, algumas empresas a exemplo da Amazon ou Microsoft investiram em infraestrutura para vender recursos como PaaS ou IaaS. Subsequentemente novos dispositivos, agora portáteis, tem se disseminado e precisaram adotar o modelo da nuvem de provimento de recursos criando dessa maneira a Mobile Cloud Computing. Mesmo com os vários modelos de arquitetura para essa nova nuvem para dispositivos móveis, a evolução aponta em total transparência para as aplicações e usuários quanto à localização dos recursos, demandando que os equipamentos móveis necessitem uma conexão permanente e uma abordagem de espelhamento de processos conhecidas como Cloudlets. As Cloudlets devem prover recursos exigidos que garantam uma experiência de percepção de uso confortável ao usuário, contornando problemas como alta latência, processamento local e indisponibilidade de conexão. Para a obtenção dessa qualidade de percepção, a Cloudlet deve estar o mais próximo possível do usuário e acompanhá-lo durante seu deslocamento. O modelo convencional de cloud computing oferece esses processos executados em máquinas virtuais, que são onerosas quanto ao seu deslocamento e tempo de subida para execução. Como alternativa, este trabalho propõe um modelo baseado em containeres e dockers que permita um tempo de subida menor e menos dados referentes ao ambiente para serem deslocados entre os centros de processamento das cloudlets. A alternativa demonstrou através de simulação um comportamento condizente com o esperado, apresentado resultados que destacam a redução do tempo e overhead necessário para o deslocamento das cloudlet, beneficiando a percepção do usuário e abrindo novas premissas para implementação e otimização.

  • LUÍS OTÁVIO SANTOS DE ANDRADE
  • Hardware Embarcado para Aquisição e Análise de Sinais Vitais usando o Protocolo de Comunicação ModBus
  • Orientador : EDWARD DAVID MORENO ORDONEZ
  • Data: 26/08/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • As redes de computadores nos ambientes hospitalares são temas centrais de discussão sobre a utilização dos sistemas aplicados à atividade em saúde que garantam a captura dos dados de sinais vitais. O presente trabalho teve como objetivo analisar o modelo de captura dos dados do nó sensor proposto, utilizando o padrão de comunicação do protocolo Modbus na aquisição de informações multiparamétricas de sinais biológicos de pacientes. A pesquisa foi desenvolvida com propósito experimental para a caracterização do protocolo ModBus sob a rede serial RS485. Foi realizada, ainda, uma revisão sistemática para subsidiar a escolha do modelo de dados e do padrão de comunicação serial em redes cabeadas. Para tanto, foi construído um protótipo de nó sensor (PIC18F26K20) para captura de temperatura corporal e frequência cardíaca na comunicação da rede com fio na qual os protocolos CAN e ModBus foram testados. Os dados dos nós sensores foram submetidos a testes de captura e envio dos dados ao nó central, e exibidos em plataforma portáteis (Smartphones). Foram, ainda, observadas as características de largura de banda e qualidade dos dados obtidos. A revisão sistemática demonstrou uma tendência na utilização do protocolo CAN como padrão de comunicação cabeado para as atividades HealthCare, a aplicação utilizada no experimento apresentou limitações. No entanto, após experimento utilizando o protocolo ModBus, este mostrou-se adequado e de fácil implementação às aplicações na área hospitalar, tendo uma plataforma de baixo custo como solução para a referida área.

  • FELIPE DOS ANJOS LIMA
  • Implantação e Desempenho de um Cluster de Baixo Custo com ARM e Plataforma Raspberry Pi
  • Orientador : EDWARD DAVID MORENO ORDONEZ
  • Data: 26/08/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Com o desenvolvimento da computação de alto desempenho (HPC), grandes volumes de dados passaram a ser processados de forma rápida, permitindo assim, que avanços significativos fossem alcançados em varias áreas do conhecimento. Para isso, sempre se observou a área de HPC tendo uma infraestrutura complexa. Por outro lado, nos últimos anos, se observa que a capacidade de processamento dos processadores usados em
    sistemas embarcados, seguindo arquitetura ARM, vem aumentando de forma significativa. Além disso, os custos de aquisição e o consumo de energia dos processadores ARM são menores, quando comparados a processadores de outras plataformas. Neste âmbito, cria-se a possibilidade de ter HPC usando plataformas
    menores e mais econômicas e com um custo de manutenção mais acessível.

    Nesse intuito, esta dissertação de mestrado, propõe a análise de desempenho de um cluster embarcado de baixo custo composto por processadores da arquitetura ARM e plataforma Raspberry Pi. O trabalho analisa o impacto de usar as bibliotecas MPICH-2 e OpenMPI, executando os programas dos benchmarks HPCC e HPL. O trabalho apresenta resultados de desempenho e consumo de energia do cluster com esses programas, mostrando que é possível usar clusters de plataformas embarcadas de baixo custo e tendo speedups e
    consumo de energia satisfatórios.

  • JOSIMAR DE SOUZA LIMA
  • Uma Arquitetura de Software para Implementação de um EHR utilizando SOA considerando a Interoperabilidade entre Sistemas Legados
  • Orientador : MICHEL DOS SANTOS SOARES
  • Data: 25/08/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • No mundo atual, sistemas de informação são cada vez mais necessários para que organizaçõescontinuem prestando seus serviços com qualidade. Estes sistemas têm se tornado cada vez maisheterogêneos e complexos. Funcionar de maneira integrada com outros sistemas passou a ser prérequisitona maioria dos casos. Desenvolver aplicações do zero nem sempre é possível devido aexistência de sistemas legados com dados armazenados que precisam ser mantidos. Essa situaçãose agrava quando se trata de sistemas de informação em saúde pois existem legislações específicasque exigem que os dados sejam mantidos por décadas. Um sistema de saúde bem conhecido éo sistema EHR. O EHR é o registro eletrônico do paciente composto por informações vindasde diversos sistemas. Estes sistemas muitas vezes são desenvolvidos por empresas diferentese utilizam tecnologias diferentes. Com isso em mente o paradigma SOA se torna bastante útil,visto que é uma solução capaz de integrar estruturas heterogêneas utilizando padrões específicoscomo por exemplo web services. No entanto projetar sistemas baseados em SOA não é umatarefa trivial. Uma arquitetura bem definida é crucial para o sucesso de aplicações que baseadasno paradigma SOA. Por essa razão, este trabalho teve como objetivo apresentar uma arquiteturade software para desenvolvimento de aplicações na área de saúde baseada em SOA considerandoa interoperabilidade entre sistemas legados, bem como reunir informações cientificas sobre comomodelar e desenvolver aplicações baseadas em SOA. Para tanto, um conjunto de métodos depesquisas foram aplicados. Inicialmente foi realizada uma revisão da literatura com o intuitode encontrar trabalhos relevantes que pudessem auxiliar no desenvolvimento de aplicações naárea de saúde. Esta revisão foi delimitada a estudos relacionados aos sistemas EHR. A revisãodestes estudos visou primeiramente construir uma base de conhecimento a respeito de problemas,dificuldade e desafios em relação a implementação de sistemas EHR. A análise da literaturamostrou existia uma deficiência justamente na definição de uma arquitetura de implementação.Assim foi definida uma arquitetura de implementação e está foi utilizada em um estudo decaso com o objetivo de testar a aplicabilidade da mesma. O objeto deste estudo foi o HospitalUniversitário da Universidade Federal de Sergipe. Foi desenvolvido um protótipo de sistema EHR.A arquitetura proposta neste trabalho foi de fundamental importância para o desenvolvimentodo protótipo de sistema EHR. A arquitetura proposta definiu um ambiente arquitetural quepermitiu os sistemas legados se comunicassem com o EHR de maneira satisfatória. Entre aslimitações do estudo de caso, destaca-se a impossibilidade de utilizar sistemas reais para arealização dos testes da arquitetura. Foram criadas aplicações que simularam os sistemas reais.No entanto estas simulações não interferiram no resultado do estudo. Enfim, por meio do estudorealizado constatou-se que o uso da arquitetura proposta contribuiu de maneira satisfatória parao desenvolvimento do protótipo de sistema EHR.

  • JISLANE SILVA SANTOS DE MENEZES
  • Processo de Avaliação de Software Aplicado à Seleção de Sistemas Gerenciadores de Conteúdo
  • Orientador : MICHEL DOS SANTOS SOARES
  • Data: 24/08/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Content Management System (CMS) são sistemas de informação utilizados para facilitar amanutenção do conteúdo sobre Internet usando uma interface central. Esta facilidade de usopermite que usuários sem conhecimento em programação e desenvolvimento de software façamuso deste tipo de sistema. Ao longo dos anos, os CMSs evoluíram para plataformas de desenvolvimentorobustas que proporcionaram um grande conjunto de recursos agregados. ExistemCMSs das mais variadas características, aplicações gratuitas ou pagas, construídas em linguagensde programação como Java,PHP,Python e dotNET, utilizando variados sistemas gerenciadoresde bancos de dados como Oracle, MySQL, SQL Server e Postgree. Considerando a importânciade se adquirir uma solução que satisfaça às expectativas do usuário em meio a tantos CMSsdisponíveis, a ISO/IEC 25040 fornece um processo de avaliação da qualidade do produto de softwarepara desenvolvedores, adquirentes e avaliadores independentes. Este processo de avaliaçãodeve ser baseado em critérios de verificação. Para este projeto, a formulação dos critérios serábaseada nos requisitos de qualidade segundo o modelo proposto pela ISO/IEC 25010 e no modelode aceitação de tecnologia (TAM). Este projeto de pesquisa objetiva identificar, selecionar,analisar e classificar ferramentas de Content Management System (Sistema de Gerenciamento deConteúdo) segundo critérios dedesenvolvimento, manutenção e hierarquização de web sites paraorganizações governamentais. A pesquisa é financiada pela Fapitec em parceria com a EMGETISe participa do Programa de Apoio e Desenvolvimento de Políticas Públicas para o Estado deSergipe contribuindo para o processo de seleção e aquisição de CMSs para as secretarias públicasdo estado.

  • FERNANDA GOMES SILVA
  • Integração de Modelos de Processos de Negócio com Modelos de Requisitos de Software: Um Caso na Área de Saúde
  • Orientador : MICHEL DOS SANTOS SOARES
  • Data: 23/08/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Os primeiros passos no ciclo de vida de desenvolvimento de software são cruciais para um

    produto de software bem sucedido. Neste cenário, as atividades de modelagem desempenham

    um papel importante na especificação de requisitos e demais atividades em todo o projeto. Embora

    as atividades de modelagem de processos de negócio e as atividades relacionadas com a

    Engenharia de Requisitos são reconhecidas como importantes individualmente, algumas abordagens

    têm considerado a integração destas atividades. Neste contexto, este trabalho propõe

    uma abordagem e orientações correspondentes à integração da modelagem de requisitos de

    software com SysML e modelagens de processos de negócio e fluxos de trabalho com o apoio

    da BPMN. Essa relação é representada tanto com modelos gráficos como em formato tabular.

    Portanto, os desenvolvedores de software podem rastrear os processos de negócio e requisitos de

    software já durante as atividades iniciais do processo de desenvolvimento de software. A abordagem

    proposta foi apresentada a um grupo de analistas de sistemas, professores universitários

    e estudantes de mestrado, e respondendo a um questionário baseado na teoria TAM afirmaram

    que a integração BPMN e SysML irá contribuir positivamente nas atividades de documentação,

    validação e rastreamento de requisitos. Apesar da demonstração de interesse em aprender mais

    sobre as duas linguagens, declararam a dificuldade em realizar a integração e o custo em utilizar

    esta proposta em projetos reais. Neste trabalho foi ainda apresentado um relato da experiência

    no HU/UFS e um guia para integração de BPMN e SysML, para auxiliar o desenvolvimento de

    um Prontuário Eletrônico do Paciente em um hospital público

  • RAFAEL SANT ANA JACAUNA
  • Avaliação da Experiência do Usuário com base na Arbitragem de parâmetros de QoS em fluxo Multimídia em Cenários com Roteadores Cisco e Placa NetFPGA
  • Orientador : EDWARD DAVID MORENO ORDONEZ
  • Data: 19/08/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Um streaming de víıdeo tem características que o difere dos demais fluxos: a ocupaão de grande quantidade de banda, e a possíveis variações de cenas com consequente aumento (ou diminuição) na quantidade dos bytes transmitidos. Aplicaçções para transmissão de streaming de vídeo (YouTube, Vimeo, NetFlix, Telecine Play, e etc.) tem despertado o interesse dacomunidade científica quanto ao comportamento das redes. Nossa proposta é correlacionar, a partir de um fluxo de vídeo, a experiência do usuário com base na arbitragem de parâmetrosde QoS em ambiente controlado. O resultado dos experimentos demonstrou a eficácia do protocolo TCP sobre o UDP, que na fase da escolha do protocolo mais adequado para ostestes, mostrou-se ineficiente até a taxa Gigabit Ethernet. Esses experimentos ocorreram em topologias físicas distintas; apenas com roteadores Cisco, com e sem QoS, tendo ou não injeão de tráfego gerado pelo software iPerf na rede, e usando a placa NetFPGA no modo router, apenas com e sem tráfego via iPerf, uma vez que o projeto desenvolvido para fazer a placa atuar como roteador não permite configurações de QoS. Nesses cenários, constatou-se a necessidade de iniciar a execuão dos clientes em momentos diferentes, configurandoseus respectivos caches de redes diferentes, para que não coincidissem as cenas, evitandoaltos picos de banda em trechos com muita movimentação.

  • IZABELLA CRISTINE OLIVEIRA REZENDE
  • R2MDD: UM FRAMEWORK PARA RASTREABILIDADE E MONITORAMENTO DE REQUISITOS COM FOCO NO DESENVOLVIMENTO DIRIGIDO A MODELOS
  • Orientador : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: 18/08/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O Model Driven Development (MDD) promove o uso de modelos na geração de soluções de software, no qual os modelos são o artefato principal do desenvolvimento. Nos últimos anos, estudos na área de Engenharia de Software (ES) tem sido intensificados e diversas soluções, definições, métodos e estruturas estão sendo geradas. Entretanto, esse novo paradigma, como é considerado por alguns autores, ainda não é utilizado de forma efetiva, visto que a ES abrange diversos aspectos, e, nem todos estão preparados para o MDD. A Engenharia de Requisitos (ER) ganha destaque nesse cenário, já que ela compreende a fase inicial do processo de desenvolvimento e o produto gerado deve atender aos requisitos definidos nesse momento. Uma vez que o código perde o foco em MDD, surge a necessidade de identificar se os requisitos definidos no início do projeto, ao serem transformados, mantém-se fieis, bem como os elementos alocados a cada requisito em todas as fases e possíveis impactos em caso de alteração. Nesse contexto, torna-se importante introduzir os conceitos da rastreabilidade de requisitos em MDD. Dessa forma, este trabalho apresenta o R2MDD, um framework que visa monitorar e rastrear requisitos durante as transformações de modelos até a geração de código fonte. O R2MDD busca identificar impactos, garantir a consistência dos requisitos e demais características, bem como gerar informações a nível gerencial, que beneficiam todos os stakeholders. Um estudo experimental foi realizado com o auxílio do modelo Qualitas no Hospital Universitário da Universidade Federal de Sergipe (HU – UFS) a fim de avaliar o R2MDD, destacar as vantagens e identificar limitações.

  • ANTONIO ALIBERTE DE ANDRADE MACHADO
  • INFERÊNCIA DE PERSONALIDADE A PARTIR DE TEXTOS DE REDE SOCIAL UTILIZANDO UM LÉXICO AFETIVO EM PORTUGUÊS BRASILEIRO.
  • Orientador : MARIA AUGUSTA SILVEIRA NETTO NUNES
  • Data: 16/08/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A dissertação apresenta estudos sobre a correlação de informações léxicas em textos em Português com características psicológicas do modelo Big Five e as facetas do IPIP-NEO. Discorre-se, especialmente, sobre o uso das classes de sentimentos do dicionário LIWC. O objetivo final foi à adaptação de um léxico que incorpore não apenas o sentimento e/ou a polaridade das palavras, mas também suas possíveis características de personalidade. O experimento realizado mostra que o método proposto é capaz de inferir personalidade desde que o participante envolvido não oculte nenhuma informação, respondendo os questionários com razão e declarando em seus posts a sua real posição sobre quaisquer assuntos.

  • FELIPE VALADÃO GOULART
  • Mapeando traços da personalidade através do ritmo de digitação
  • Orientador : DANIEL OLIVEIRA DANTAS
  • Data: 15/08/2016
  • Dissertação
  • Mostrar Resumo
  • A personalidade pode ser definida como um conjunto de características psicológicas
    capazes de determinar o padrão de pensar, agir e sentir de um indivíduo, não estando apenas
    ligada a traços superficiais, mas como um fator capaz de influenciar os interesses de um
    indivíduo. Desde a concepção da primeira descrição de software, sistemas computacionais são
    criados com o objetivo de gerar resultados baseados nos dados de entrada dos usuários, sem se
    preocupar com quem ele é ou quais são seus interesses. Através do desenvolvimento de um
    método não intrusivo para coleta de dados do ritmo de digitação dos usuários, e a aplicação de
    um questionário de autoavaliação de personalidade, este trabalho tem como objetivo identificar
    abordagens capazes de comprovar a existência da correlação entre tais informações, visando a
    construção de um conhecimento base para a criação de um framework de extração de
    personalidade baseado em ritmo de digitação.

  • DIEGO ARMANDO DE OLIVEIRA MENESES
  • ARCHEALTH: ENTERPRISE ARCHITECTURE FRAMEWORK PARA SISTEMAS TELEHEALTH BASEADOS EM TV DIGITAL INTERATIVA
  • Orientador : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: 10/08/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Desde a década de 70 até o presente momento a Organização Mundial da Saúde (OMS) expõe a importância da promoção a saúde no mundo. O aumento do interesse na Promoção da Saúde e os custos de saúde crescente para as economias, contribuíram para o reconhecimento dos cuidados a saúde como uma importante área de pesquisa. Uma das vertentes mais importantes dessas pesquisas atualmente e a Telehealth, que utiliza das Tecnologias de Informação e Comunicação (TIC) para tentar prover acesso universal a saúde. O uso da tecnologia de TV Digital Interativa auxilia no acesso a locais remotos e cria a oportunidade de distribuir aplicações através de sua infraestrutura. Lidar com os problemas que surgem a partir da convergência desses conceitos é de grande importância. O processo de descrição de arquitetura auxilia no desenvolvimento de aplicações e sistemas baseados nos conceitos referenciados. Porém, não existem muitos frameworks que auxiliem a descrição de arquiteturas para esse domínio especifico. Este trabalho apresenta o framework ARCHealth, que foi desenvolvido para auxiliar o processo de arquitetura e foi baseado na norma ISO/IEC/IEEE 42010:2011. O framework foi elaborado com base nos princípios de Atenção Primária à Saúde, levando em consideração as principais preocupações do ambiente.

  • RAFAEL MENÊSES SANTOS
  • Reconhecimento de fala em ambientes ruidosos usando Redes Neurais Convolucionais
  • Orientador : LEONARDO NOGUEIRA MATOS
  • Data: 30/05/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Um dos maiores desafios no reconhecimento de fala atualmente é usá-lo no contexto diário, no qual distorções no sinal da fala e ruídos no ambiente estão presentes e reduzem a qualidade da classificação. Nos últimos trinta anos, centenas de métodos para reconhecimento robusto ao ruído foram propostos, cada um com suas vantagens e desvantagens. Este trabalho propõe o uso de uma rede neural convolucional no papel de modelo acústico em sistemas de reconhecimento automático de fala, como uma alternativa ao métodos clássicos de reconhecimento baseado em HMM sem a aplicação de um método robusto ao ruído. Os experimentos realizados mostraram que o método proposto reduz o Equal Error Rate e aumenta a acurácia da classificação de comando de voz em ambientes ruidosos quando comparado a modelos tradicionais de classificação, evidenciando a robustez da abordagem apresentada.

  • FERNANDO MENDONÇA DE ALMEIDA
  • Autoproteção para a Internet das Coisas
  • Orientador : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: 23/05/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A Internet das Coisas é um novo paradigma de comunicação baseado na presença ubíquade objetos que, através de endereçamento único, cooperam com seus pares para atingir umobjetivo em comum. Aplicações em diversas áreas podem se beneficiar dos conceitos daInternet das Coisas, porém esta rede é muito vulnerável a ataques, seja pela possibilidadede ataque físico, pela alta conectividade dos dispositivos, a enorme quantidade de dispositivosconectados ou a baixa quantidade de recursos disponíveis. A grande quantidadede dispositivos conectados faz com que abordagens autonômicas sejam necessárias e areduzida quantidade de recursos exige a utilização de técnicas eficientes. Este trabalhopropõe uma arquitetura de autoproteção para a Internet das Coisas utilizando as técnicasde Rede Neural Artificial e Algoritmo de Células Dendríticas, duas técnicas bio-inspiradasque, através de experimentos, mostraram a possibilidade de serem utilizadas na Internetdas Coisas. A implementação da Rede Neural Artificial utilizada consumiu poucos recursosde memória do dispositivo, mantendo uma alta taxa de acerto, comparável a trabalhoscorrelatos que não se preocuparam com o consumo de recursos. A utilização do Algoritmode Células Dendríticas se mostrou interessante pela sua distributividade, permitindo umamelhor utilização dos recursos da rede, como um todo.

  • MARIA GÉSSICA DOS SANTOS LIMA ARAGÃO
  • Alinhamento do Modelo de Forma Ativa com Maquinas de Vetores de Suporte Aplicado na Detecção de Veículos
  • Orientador : LEONARDO NOGUEIRA MATOS
  • Data: 13/05/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Muitas aplicações de processamento de imagens digitais utilizam técnicas de detecção de objetos. Detectar um objeto normalmente está relacionado a localizar a área em torno do mesmo, já a detecção da forma está relacionada a localizar precisamente em uma imagem um conjunto de pontos que constituem sua forma. Quando o problema envolve a detecção de formas que apresentam variações previsíveis, os modelos deformáveis se apresentam como uma alternativa eficaz. A abordagem desenvolvida neste trabalho se refere à detecção da forma de veículos em posição frontal através de métodos que se dividem em dois níveis, no primeiro nível foi feito o uso de uma cascata de máquinas de vetores de suporte e no segundo, de modelos deformáveis. O uso dos modelos deformáveis permitiu que veículos oclusos por objetos como árvores fossem identificados.

  • CLEBESON CANUTO DOS SANTOS
  • PROPOSTA DE UMA METODOLOGIA PARA OBTENÇÃO DE VOCABULÁRIOS DE GESTOS INTUITIVOS PARA A INTERAÇÃO HOMEM-ROBÔ
  • Orientador : EDUARDO OLIVEIRA FREIRE
  • Data: 29/02/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O desenvolvimento da robótica vem ganhando aceleração desde as últimas décadas, moti- vado principalmente pelo avanço da tecnologia, sobretudo dos computadores. No entanto, mesmo tendo tecnologia suficiente para criar robôs que possam participar do cotidiano das pessoas, a robótica ainda não se popularizou, haja vista que a maioria dos robôs adquiridos pelas pessoas ainda se enquadram na categoria de brinquedos, sistemas de monitoramento, dentre outros. A busca por esses tipos de robôs se deve ao fato de que seu repertório de tarefas é bem reduzido e predeterminado, o que acaba facilitando a interação entre usuários e robôs. Enquanto isso, robôs mais sofisticados, por possuírem um maior repertório de tarefas, acabam necessitando de mecanismos de interação mais complexos que, em sua maioria, só podem ser utilizados por pessoas especializadas.

    Em outras áreas, como a informática, a interface de comunicação foi de fundamental importância para a sua popularização. Dessa maneira, a criação de interfaces amigáveis de comunicação entre pessoas e robôs pode ser a chave para que a robótica também possa ser amplamente difundida na sociedade atual. No entanto, não é qualquer interface que pode oferecer uma comunicação fácil e eficiente, para isso as mesmas devem ser o mais intuitivas possível, o que, segundo os estudos psicolinguísticos, pode ser alcançada por meio de gestos espontâneos. Logo, sabendo da dificuldade de se encontrar uma metodologia que ofereça a possibilidade de se obter vocabulários de gestos intuitivos, esta dissertação de mestrado propõe uma metodologia que, baseada na psicolinguística e nos estudos sobre HCI (do inglês - Human Computer Interaction), ofereçe facilidade no processo de obtenção de vocabulários de gestos intuitivos a serem utilizados na interação entre pessoas e robôs. Desta maneira, após a aplicação de tal metodologia, pôde-se perceber que a mesma, apesar de ser nova, além de poder levar a resultados tão bons quanto uma outra metodologia já utilizada e aceita em HCI, ainda possui diferenciais, como a possibilidade de obter vocabulários mais complexos, que podem levar a vocabulários de gestos mais intuitivos e possivelmente mais robustos. Além disso, ao submeter os gestos obtidos a um reconhecedor, obteve-se uma taxa de acertos de 83,78%, que mesmo não sendo alta, pode ser considerada boa, pois, uma vez que alguns gestos obtidos são realizados com os dois braços, a complexidade do reconhecimento é aumentada de maneria considerável. Logo, ao final desta dissertação, são apresentados vários trabalhos complementares a este, que devem ser realizados para que se possa avançar ainda mais na direção do desenvolvimento das interfaces intuitivas para a interação homem-robô.

  • WAGNER LUÍS DE ARAUJO MENEZES MACÊDO
  • GoThings: Uma Arquitetura de Gateway de Camada de Aplicação para a Internet das Coisas
  • Orientador : TARCISIO DA ROCHA
  • Data: 29/02/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Com a Internet das Coisas (IoT), é previsto que o número de dispositivos conectados atingirá o número de 50 bilhões até 2020. Muitos desses dispositivos adotam, na camada de aplicação, protocolos de mensagem mutualmente incompatíveis entre si. Uma possível solução a esse problema é usar um mesmo protocolo de mensagem em todos os dispositivos. No entanto, um único protocolo nem sempre é adequado para dispositivos restritos e não restritos ao mesmo tempo. Diversas soluções à questão da interoperabilidade na IoT foram propostas, mas elas ou não provêem interoperabilidade transparente ou não são extensíveis e configuráveis o suficiente. Esta dissertação apresenta uma proposta de uma arquitetura para o desenvolvimento de gateways, a qual denominamos de GoThings, que permite habilitar a interconectividade entre diferentes
    protocolos de mensagem. A arquitetura proposta é focada na extensibilidade, configurabilidade e generalidade, no contexto de problemas da IoT.

  • MICHAEL OLIVEIRA DA CRUZ
  • Sobre a similaridade de usuários para recomendação de caronas em sistemas computacionais
  • Orientador : HENDRIK TEIXEIRA MACEDO
  • Data: 26/02/2016
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A falta de mobilidade urbana é uma grande preocupação da gestão pública em todo o mundo. Algumas políticas têm sido adotadas a fim de minimizar seus efeitos nas grandes cidades. Construção de rotas alternativas, melhorias e incentivo ao uso de transportes públicos, construção de ciclovias e estímulo ao uso de bicicletas são algumas dessas políticas. Uma prática que pode contribuir para a solução do problema é a carona. Carona consiste no ato de transportar gratuitamente num veículo pessoas que possuem trajetórias semelhantes. Embora existam algumas aplicações que se propõem a facilitar a prática de caronas, nenhuma dessas aplicações possuem funcionalidades de busca por usuários que possuem similaridades de trajetória e de perfil demográfico e social para posterior recomendação de caronas mais apropriadas. Neste trabalho, propomos uma abordagem inovadora, considerando peculiaridades do contexto do uso de caronas, que visa a descoberta de agrupamentos de usuários que possuem trajetórias semelhantes, usuários que possuem perfis semelhantes e agrupamentos de usuários que são similares considerando suas trajetórias e seus perfis. Elementos intrínsecos ao problema são formalmente definidos e uma primeira análise de complexidade para tempo de processamento foi realizada. Uma rede social de propósito específico para o compartilhamento de caronas foi modelada e implementada com respeito à abordagem proposta. O método para experimentação e avaliação da abordagem consistiu (i) na confecção de base de dados alimentada periodicamente em tempo real por dados de trânsito obtidos a partir de aparelhos de smartphone com GPS de voluntários em trânsito com seus automóveis, (ii) aplicação da abordagem proposta para geração dos agrupamentos de usuários a partir da base estabelecida e (iIi) aplicação da métrica Davies-Boulding Index, que indica o quão factível os agrupamentos são. Resultados mostraram a efetividade da abordagem para solução do problema se comparada a formas bem estabelecidas da literatura relacionada, como o K-means, por exemplo. Resultados da análise da base de dados também mostraram que algumas informações de trânsito podem ser inferidas a partir de ações de mineração. Por fim, a aceitabilidade de potenciais usuários da rede social foi medida a partir de questionário.

2015
Descrição
  • LIDIANY CERQUEIRA SANTOS
  • Um Estudo de Caso da Adoção da Programação Orientada a Aspectos para Melhoria do Processo de Manutenção e Evolução de Sistemas Integrados de Gestão
  • Orientador : ALBERTO COSTA NETO
  • Data: 31/08/2015
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A necessidade de atender a diferentes clientes e incluir diferentes requisitos aumentam a complexidade da manutenção e evolução de sistemas, envolvendo tarefas de customização e adaptação para corrigir problemas e incluir novas funcionalidades. Atualmente a equipe de desenvolvimento da Universidade Federal de Sergipe vem trabalhando com a customização e manutenção de Sistemas Integrados de Gestão que informatizam operações fundamentais para a gestão acadêmica e administrativa. Para atender aos requisitos da universidade, são necessárias modificações constantes no código fonte original do sistema, isso demandou a criação de um processo adotado atualmente para gerenciar essa atividade. No entanto, a abordagem atual adotada pela UFS não vem se mostrando adequada, pois as adaptações introduzidas pela equipe de desenvolvimento estão espalhadas e entrelaçadas com o código original, dificultando as tarefas de identificar e reaplicar as customizações em novas versões, causando atrasos na implantação de novos recursos e na manutenção dos que estão em produção. Nesta pesquisa é apresentado um estudo de caso que avalia a adoção da Programação Orientada a Aspectos na adaptação, manutenção e evolução de sistemas customizados em comparação ao processo adotado atualmente na UFS. Como resultado, observou-se que foi possível implementar 99,68% dos tipos de variações utilizando a POA e obteve-se um ganho qualitativo em relação em abordagem atual, em termos de tamanho de métodos, acoplamento, coesão e complexidade. A análise indica que houve um pequeno número de erros detectados após a reintrodução das variações com a POA.Contudo, esses erros precisam ser avaliados cuidadosamente devido a ocorrência de conflitos de versão. Os resultados obtidos com avaliação do estudo indicam que há benefícios com a adoção da POA no contexto avaliado.

  • NAYARA ROSY FELIX DA SILVA
  • Geração multi-parametrizada de corpora linguísticos
  • Orientador : HENDRIK TEIXEIRA MACEDO
  • Data: 31/08/2015
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O desenvolvimento de software de Processamento de Linguagem Natural (PLN) é altamente dependente da boa qualidade do que chamamos de Corpus Linguístico. Um corpus é uma coleção de textos processáveis pelo computador, mas produzidos dentro de um ambiente comunicativo natural. Essa dependência advém do fato de que a maior parte do trabalho realizado com PLN hoje em dia está relacionado ao uso de técnicas de Aprendizado de Máquina para criação de modelos de linguagem. Para sistemas que permitem correção automática e previsão de palavras e sentenças, por exemplo, modelos linguísticos são gerados a partir de um corpus de texto a partir de transcrições usando N-Gram. Infelizmente, corpora linguísticos em português do Brasil não são abundantes e sua confecção não é uma tarefa trivial. Um caminho é a confecção de Crawlers Web. Focused Crawlers, em particular, têm o propósito de coletar páginas da Web que sejam relevantes a um tópico ou interesse específico do usuário. Focused Crawlers existentes ainda não atendem completamente a necessidades específicas e toda potencialidade de um sistema de PLN. Esta dissertação de mestrado se propõe a contribuir com o Estado da Arte ao propor uma ferramenta para a confecção automática de corpora bem representativos ao objetivo do usuário que possam ser balanceados em respeito a fatores tais como tipo de coleta, domínio, língua, formalidade do discurso e rotulação do texto. A ferramenta permite ainda que etapas de pós-processamento sejam realizadas, como por exemplo limpeza do corpus, construção de um modelo de linguagem e de um modelo de entidades nomeadas. Dois corpora foram criados em duas formas de coleta distintas: por dados da Web (corpus VazaBarris) ou por dados do Twitter (corpus Poxim). O corpus VazaBarris consiste de 86 milhões de palavras e o Poxim consiste de 3 milhões de palavras. Estes corpora foram avaliados por meio da criação de modelo de linguagem e comparação com dois outros corpora em Português. Os resultados mostram que Poxim alcançou o melhor valor de perplexidade. Poxim também traz maior contribuição quando interpolado com algum outro corpus. Além dos corpora, foi criado um método de coleta automática para streaming de dados, utilizando o algoritmo de Relevance Feedback. Segundo os resultados, utilizar Relevance Feedback para a coleta dos dados melhorou o valor de perplexidade com o corpus coletado inicialmente. Um terceiro corpus foi criado para rotulação de Entidades Nomeadas, o Paramopama. O Paramopama é uma versão estendida PtBR do corpus WikiNer, com inclusão das entidades Pessoa, Localização, Organização e Tempo. Os resultados mostram que o Paramopama apresentou melhoria para as métricas de Precisão, Cobertura e Medida-F na comparação com outros três corpora do Estado da Arte.

  • JULI KELLE GÓIS COSTA
  • UMA ABORDAGEM PARA AUTOMATIZAR A MANUTENÇÃO DO CÓDIGO DE PROCEDIMENTOS DE CARGA PARA AMBIENTES DE BUSINESS INTELLIGENCE
  • Orientador : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: 27/08/2015
  • Dissertação
  • Mostrar Resumo
  • Grande parte das aplicações de Business Intelligence (BI) efetivas depende de um Data Warehouse (DW), um repositório histórico de dados projetado para dar suporte a processos de tomada de decisão. Sem um DW eficiente, as organizações tendem a não extrair, em um tempo aceitável, os dados que viabilizam ações estratégicas, táticas e operacionais mais eficazes. Muitos ambientes de BI possuem um processo de Engenharia de Software particular, baseado em dados, para desenvolver programas de Extração, Transformação e Carga (ETL) de dados para o DW. Este trabalho propõe o desenvolvimento e experimentação de uma abordagem de Desenvolvimento Rápido de Aplicações (RAD) para aumentar a eficácia e a eficiência da manutenção de procedimentos de carga SQL,utilizados em processos ETL, avaliando a relação existente entre a sua utilização e a qualidade dos dados que são movidos, gerados e atualizados durante o processo de povoamento de um Data Warehouse. Este é um ambiente ímpar que necessita de maior integração e interdisciplinaridade entre as áreas de Engenharia de Software (ES) e Banco de Dados. Foi feita uma avaliação da criação e manutenção automática de procedimentos em extensões da SQL, perfazendo dois experimentos controlados feitos na indústria, para analisar a efetividade de uma ferramenta que encapsula e automatiza parte da abordagem. Os resultados indicaram que a nossa abordagem pode ser usada como método para acelerar e melhorar o desenvolvimento e manutenção de processos ETL.


  • ELISALVO ALVES RIBEIRO
  • Imputação de Dados Faltantes via Algoritmo EM e Rede Neural MLP com o método de Estimativa de Máxima Verossimilhança para aumentar a acurácia das estimativas
  • Orientador : CARLOS ALBERTO ESTOMBELO MONTESCO
  • Data: 14/08/2015
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Base de dados com valores faltantes é uma situação frequentemente encontrada no mundo
    real, sendo as causas deste problema originadas por motivos diversos (falha no equipamento
    que transmite e armazena os dados, falha do manipulador, falha de quem fornece a informação,
    etc.). Tal situação pode tornar os dados inconsistentes e inaptos de serem analisados,
    conduzindo à conclusões muito viesadas. A maioria das ferramentas utilizadas nos softwares
    estatísticos é simples, não conseguindo resolver da forma mais adequada tal problema. Esta
    dissertação tem como objetivo explorar o emprego de Redes Neurais Artificiais MLP, com
    novas funções de ativação, considerando duas abordagens (imputação única e imputação
    múltipla). Primeiramente, é proposto o uso do Método de Estimativa de Máxima
    Verossimilhança na função de ativação de cada neurônio da rede, em contrapartida à abordagem
    utilizada atualmente, que é sem o uso de tal método, ou quando o utiliza é apenas na função de
    custo (na saída da rede). Em seguida, são analisados os resultados destas abordagens em
    comparação com o algoritmo EM que é o estado da arte para tratar dados faltantes. Os resultados
    obtidos indicam que ao utilizar a Rede Neural Artificial MLP com o Método de Estimativa de
    Máxima Verossimilhança, tanto em todos os neurônios como apenas na função de saída, pode
    auxilia a reduzir o erro de imputação. Estes resultados foram mensurados via algumas métricas,
    sendo as principais o MAE (Mean Absolute Error) e RMSE (Root Mean Square Error), as quais
    apresentaram melhores resultados na maioria dos experimentos quando se utiliza a RNA MLP
    abordada neste trabalho para fazer imputação única e múltipla.

  • ROBERT PAULO BARBOSA E SILVA
  • Metodologia de Caracterização e Modelagem de Tráfego para Transmissão de Imagens Médicas
  • Orientador : EDILAYNE MENESES SALGUEIRO
  • Data: 28/05/2015
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Caracterização e modelagem de tráfego em transmissões de imagens médicas é uma atividade importante para a gestão de redes corporativas. Com a popularização do uso de equipamentos de diagnóstico radiológico, uma grande quantidade de informações sobre o paciente passou a estar disponível. Essas novas formas digitais de imagens de alta definição e vídeo vêm sendo integradas às redes de computadores ao longo dos anos, com uso de protocolo DICOM. Recentemente, a Computação nas Nuvens passou a ser usado para transmissões de imagens médicas, gerando assim, novos desafios para operações de monitoramento e gerenciamento de redes. Modelos de tráfego de aplicações de imagens médicas são escassos na literatura. Este trabalho apresenta uma metodologia para a modelagem de tráfego DICOM. Foram realizadas medições de tráfego na rede e diretamente nos equipamentos radiológicos de um hospital de pequeno porte. A análise do tráfego da rede foi efetuada para caracterizar o comportamento deste tráfego, identificando assim, a sua forma e composição na rede. Medições nos equipamentos radiológicos foram executadas ao longo de um ano. A caracterização da fonte de tráfego foi realizada com uso de técnicas estatísticas de ajuste de curvas, para modelar a distribuição de tamanho dos arquivos de imagens. Análises de testes de aderência apontaram a distribuição de Dagum como a de melhor aproximação nestes resultados. Deste modo, o modelo de fonte de tráfego sugerido por esse trabalho pode ser utilizado em experimentos de simulação em projetos de expansão da rede.

  • SÁVIO ROBERTO AMORIM ARAGÃO SILVA
  • Um Algoritmo de Decisão de Handover baseado em QoS e Autonomia Energética
  • Orientador : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: 27/05/2015
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Uma etapa fundamental no processo de handover corresponde à fase de decisão, na qual é selecionada a rede candidata para a qual o dispositivo móvel irá se transferir. O critério normalmente utilizado na etapa de decisão é a potência de sinal da rede que se encontra disponível. Além da potência de sinal, outros critérios também necessitam ser explorados em ambientes heterogêneos para a tomada de decisão de handover, uma vez que as tecnologias de rede divergem quanto aos tipos de serviços, protocolos, níveis de qualidade, faixas de frequência e custos monetários. Este trabalho propõe um algoritmo de decisão de handover baseado em função de custo que leva em consideração, além da potência de sinal recebida, alguns critérios de Qualidade de Serviço, tais como taxa de perda de pacotes, atraso e jitter, bem como o consumo de energia da interface de rede da estação móvel. A fim de avaliar o desempenho do algoritmo foram considerados dois cenários, um no qual a bateria do terminal móvel está com carga suficiente e outro onde a mesma se encontra com a carga baixa, sendo realizadas simulações no NS-2 em um ambiente composto pelas redes Wi-Fi e WiMAX. Os resultados obtidos mostraram que o algoritmo proposto contribuiu para reduzir o número dedecisões erradas de handovers, de modo que não houvesse uma degradação da Qualidadede Serviço que viesse a afetar o desempenho da rede na qual o terminal móvel se encontra conectado.

  • HALLAN COSMO DOS SANTOS
  • Classificação de sinais EGG combinando Análise em Componentes Independentes, Redes Neurais e Modelo Oculto de Markov
  • Orientador : CARLOS ALBERTO ESTOMBELO MONTESCO
  • Data: 26/05/2015
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Identificar características digestivas de pessoas através da Eletrogastrografia (EGG) é importante pois esta costuma ser uma opção barata, não-invasiva e incomoda menos que o tradicional procedimento de Endoscopia. Este trabalho avalia o comportamento do aprendizado das Redes Neurais Artificiais (RNA) e do Modelo Oculto de Markov (HMM) diante de componentes extraídas por algoritmos de Análise de Componentes Independentes (ICA). Nesta pesquisa é realizado um experimento com análise estatística cujo objetivo apresenta a relação entre a visualização de imagens neutras, negativas ou positivas e as reações digestivas.
    Treinando alguns classificadores com uma base de dados de sinais EGG, onde se conhece os estados emocionais dos indivíduos durante a sua obtenção, seria possível realizar o caminho inverso? Em outras palavras, apenas a partir dos sinais EGG, pode-se estimar o estado emocional de indivíduos? O desafio inicial é tratar o sinal EGG que encontra-se misturado aos sinais de outros órgãos como coração e pulmão. Para isto foi utilizado o algoritmo FastICA e os métodos tensoriais, com o intuito de produzir um conjunto de componentes independentes onde se possa identificar a componente do estômago. Em seguida, a classifição do sinal EGG é realizada por meio dos modelos de RNA e HMM. Os resultados mostraram que classificar apenas as componentes com mais presença da frequência do sinal do estômago pode reduzir a taxa de erro do aprendizado dos classificadores no experimento realizado.

    Identificar características digestivas de pessoas através da Eletrogastrografia (EGG) é importante pois esta costuma ser uma opção barata, não-invasiva e incomoda menos que o tradicional procedimento de Endoscopia. Este trabalho avalia o comportamento do aprendizado das Redes Neurais Artificiais (RNA) e do Modelo Oculto de Markov (HMM) diante de componentes extraídas por algoritmos de Análise de Componentes Independentes (ICA). Nesta pesquisa é realizado um experimento com análise estatística cujo objetivo apresenta a relação entre a visualização de imagens neutras, negativas ou positivas e as reações digestivas.

    Treinando alguns classificadores com uma base de dados de sinais EGG, onde se conhece os estados emocionais dos indivíduos durante a sua obtenção, seria possível realizar o caminho inverso? Em outras palavras, apenas a partir dos sinais EGG, pode-se estimar o estado emocional de indivíduos? O desafio inicial é tratar o sinal EGG que encontra-se misturado aos sinais de outros órgãos como coração e pulmão. Para isto foi utilizado o algoritmo FastICA e os métodos tensoriais, com o intuito de produzir um conjunto de componentes independentes onde se possa identificar a componente do estômago. Em seguida, a classifição do sinal EGG é realizada por meio dos modelos de RNA e HMM. Os resultados mostraram que classificar apenas as componentes com mais presença da frequência do sinal do estômago pode reduzir a taxa de erro do aprendizado dos classificadores no experimento realizado.
  • OTÁVIO CORDEIRO SIQUEIRA DE OLIVEIRA
  • MEPARALEL: um método para análise de implementação de algoritmo baseado em CUDA
  • Orientador : MARCO TULIO CHELLA
  • Data: 25/05/2015
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Algoritmos para Aprendizado de Máquina (ML) são muitas vezes dispendiosas, uma vez que a aprendizagem é uma tarefa que exige uma grande quantidade de conhecimentos e aprimoramento constante da mesma, exigindo, portanto, enorme processamento de dado, e isso muitas vezes gera uma limitação no tempo de processamento e no consumo de memória. O algoritmo selecionado por este trabalho para aprendizado de máquina é de Maximização de Expectativa (EM), usado para o treinamento de um dos modelos estatísticos parametrizados mais utilizados, o Modelo de Mistura Gaussianas (GMM) que exige um alto poder de processamento. Uma técnica que veem sendo aplicada para solucionar problemas de performance em algoritmos é a paralelização. Algoritmos paralelos, em comparação com os sequenciais, tendem a executar suas tarefas mais rapidamente devido a sua capacidade de distribuir sua carga de trabalho pelos múltiplos núcleos de processadores disponíveis, e assim diminuir o tempo de processamento. Porém a tarefa de paralelizar de forma a vim otimizar a utilização de recursos e reduzir o tempo de processamento não é uma tarefa fácil. Desta forma, este trabalho propõe um método para análise de algoritmos paralelos que possa vim auxiliar o processo de análise e refatoração de códigos construído com a linguagem de programação Cuda e podendo assim, gerar algoritmos mais rápidos e eficientes no consumo de recursos de hardware.


  • DIEGO SANTANA SILVEIRA
  • UEF-WEB: FRAMEWORK DE APOIO À ENGENHARIA DE USABILIDADE PARA APLICAÇÕES WEB
  • Orientador : HENRIQUE NOU SCHNEIDER
  • Data: 13/03/2015
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Nos últimos anos, a demanda por aplicações Web vem crescendo rapidamente para atender às necessidades das pessoas e empresas. Essas aplicações têm proporcionado benefícios que vão desde melhorias no processo de comunicação e maior velocidade ao realizar tarefas até a redução de custos. No entanto, inúmeros problemas relacionados à usabilidade de interfaces, a exemplo da alta complexidade e baixa eficácia de uso têm dificultado e, em muitos casos, inviabilizado a utilização de aplicações Web. Esse fato é preocupante, pois a usabilidade é apontada pelos usuários como o atributo de qualidade de software mais importante e por constatar que muitas organizações ainda não empregam os recursos de suporte à usabilidade sob vários motivos, tais como: desconhecimento de técnicas, métodos e ferramentas; restrição de orçamento; e dificuldade de seleção e uso sistemático desses recursos. Desenvolver interfaces com maior qualidade de uso é um desafio que tem se tornado crítico para o sucesso das aplicações Web junto às empresas e aos usuários. Pesquisas foram realizadas, mas há lacunas quanto ao fornecimento de soluções integradas de suporte à usabilidade nas diversas fases de um projeto de aplicação Web. Diante dessa necessidade, este trabalho propõe o Framework UEF-WEB de apoio à Engenharia de Usabilidade. Este framework, composto por fases, atividades, recursos e artefatos, tem por objetivo principal auxiliar as organizações a introduzir, de maneira sistematizada, recursos de usabilidade no processo de planejamento, desenvolvimento e avaliação de interfaces de aplicações Web, com vistas à ampliação da qualidade de uso das interfaces construídas.

  • ERIC BERNARDES CHAGAS BARROS
  • JEMADARIUS: UMA WEB-API AUTOCONFIGURÁVEL PARA A INTERNET DAS COISAS
  • Orientador : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: 24/02/2015
  • Dissertação
  • Mostrar Resumo
  • De acordo com a National Intelligence Council, a Internet of Things (IoT), chamada de Internet das Coisas no Brasil, é o paradigma que até 2025 estará dominando o mundo da computação. A grande divulgação da Internet, que em menos de 20 anos conseguiu conectar quase todas as pessoas do mundo, gerou espaço para novas demandas. Agora não só pessoas e serviços precisam trocar informações, mas objetos também. Desta forma, estudos devem ser realizados de maneira a garantir a busca pela evolução desse paradigma. O objetivo deste trabalho é unir diferentes tecnologias, como REST, computação nas nuvens e sistemas operacionais embarcados, a fim de obter um mecanismo capaz de realizar a autoconfiguração de dispositivos embarcados e Web-APIs para automaticamente realizarem a sincronização e troca de mensagens de ambientes inteligentes. Além disso, essa autoconfiguração deve ser feita em cima de dispositivos que possuem poucos recursos de hardware, pois a eficiência energética também é um ponto fundamental dentro de redes IoT. Dessa forma esta pesquisa oferece o desenvolvimento de uma WEB-API, denominada Jemadarius, para alcançar o próximo passo da evolução desse novo conceito, a autoconfiguração.

  • FRANKLIN MAGALHÃES RIBEIRO JUNIOR
  • Abordagem Dirigida a Modelos para Implantação Automática de Software em Nuvem
  • Orientador : TARCISIO DA ROCHA
  • Data: 05/01/2015
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A computação em nuvem oferece recursos para reduzir os custos computacionais nas instituições que utilizam recursos de hardware e software através da virtualização, além da entrega de software como serviço. Existem mecanismos automáticos para implantação de software em provedores de nuvem, no entanto, demandam codificação ou requerem conhecimento aprofundado do desenvolvedor acerca da tecnologia específica do provedor de nuvem, sobretudo da reconstrução de vários requisitos, já que ambientes em nuvem possuem arquiteturas de software próprias. Nesta pesquisa foi apresentada uma abordagem baseada em modelos para implantação automática de software no ambiente em nuvem. Foi apresentada uma breve revisão da literatura sobre as propostas existentes para implantação automática de software na nuvem. Foram analisadas as propostas, onde cinco mecanismos de implantação baseiam-se em script ou linguagem de programação, duas propostas utilizaram em mecanismos manuais e duas propostas aplicaram uma abordagem baseada em modelos para implantação de software na nuvem, no entanto ainda fortemente ligadas a aspectos manuais e de modelagem complexa, uma vez que requer do desenvolvedor a compreensão da arquitetura do provedor de nuvem. Esta investigação apresenta uma nova proposta com arquitetura detalhada, casos de uso, fluxo de dados e visão conceitual de uma abordagem
    dirigida a modelos para implantação de software automática na nuvem. Esta abordagem tem como objetivo reduzir os esforços humanos e tempo para implantar serviços de software na nuvem por meio de diagramas de implantação UML como entrada, a fim de realizar a implantação numa camada mais alta de abstração.

2014
Descrição
  • EDVAN DOS SANTOS SOUSA
  • Monitoramento e análise de tráfego na computação em nuvem
  • Orientador : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: 30/09/2014
  • Dissertação
  • Mostrar Resumo
  • Usuários de sistemas de Tecnologia de Informação e Comunicação vêm cada vez mais migrando suas aplicações de computadores locais para serviços oferecidos na Internet, utilizando o paradigma de computação em nuvem. Na computação em nuvem os recursos computacionais são disponibilizados na forma de serviços e utilizados de acordo com necessidades específicas do usuário. Tais serviços, muitas vezes impõem um tráfego intenso na rede, podendo degradar a qualidade dos serviços oferecidos. Este trabalho propõe e analisa o uso de técnicas multi-adaptativas para a monitoramento do tráfego em nuvens computacionais. Nesta dissertação, a metodologia de amostragem Multi-Adaptativa com Detecção de Picos (MAS-PD) é utilizada para monitorar o tráfego de dados em instâncias de uma nuvem privada Eucalyptus. A MAS-PD executa a captura passiva do tráfego, baseando-se na adaptabilidade do intervalo e tamanho das amostras às condições do tráfego, promovendo uma redução no volume de dados de gerenciamento armazenados e entregues na rede. A análise estatística do volume de dados e da vazão em experimentos realizados demonstraram a eficiência do MAS-PD em comparação com outros métodos apresentados na literatura.

  • MARCOS PEREIRA DOS SANTOS
  • Laboratório de Acesso Remoto para Controle, Experimentação, Automação e Validação de Processos em Tempo Real – “Baseado em HTML5”
  • Orientador : MARCO TULIO CHELLA
  • Data: 30/09/2014
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O objetivo geral desta pesquisa é propor um sistema de software e de hardware
    cuja principal função é realizar experimentos em sistema hardware, eletronicamente
    interconectados e atualizando sistemas embarcados através de acesso remoto em tempo real,
    sendo econômico e pedagogicamente viável. A solução proposta neste trabalho permite
    que alunos, pesquisadores e desenvolvedores de sistemas embarcados programem os seus
    próprios experimentos e realizem a integração na plataforma, usufruindo, assim, de todos
    os benefícios de controle, monitoração e distribuição experimento que a arquitetura da
    plataforma oferece. A plataforma do laboratório virtual foi projetada para viabilizar o conceito
    prático de laboratório remoto, promovendo a colaboração na pesquisa prática e no ensino de
    experimentos remotos.

  • FERNANDA ALMEIDA PASSOS
  • Avaliação de Técnicas de Linha de Produto de Software no Processo de Adaptação e Manutenção de Sistemas Customizáveis
  • Orientador : ALBERTO COSTA NETO
  • Data: 24/09/2014
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A customização em sistemas de software para atender aos diferentes requisitos funcionais e não funcionais de cada cliente envolve a criação de novos artefatos e mudanças nos existentes. Porém, nem todas as empresas fornecedoras de aplicativos de software realizam as customizações necessárias nos sistemas para atender a cada um dos seus clientes. Com isso, as organizações clientes ao adquirirem um sistema original fornecido por essas empresas, realizam as adaptações e manutenções necessárias diretamente no código base do sistema original para a obtenção de um sistema customizado específico aos seus negócios. Por este motivo, essas organizações normalmente enfrentam problemas na manutenção e evolução da aplicação. Um dos maiores desafios é identificar as variações presentes na versão corrente e reaplicá-las nas versões mais recentes do sistema original. Isto pode demandar retrabalho se estas variações não estiverem adequadamente separadas do código base. Neste contexto, a aplicação de técnicas de Linha de Produto de Software (LPS) surge como uma proposta para prover suporte à customização nos aplicativos de software. Assim, este trabalho tem como objetivo primeiramente efetuar a seleção de técnicas de LPS, levantadas em estudo sistemático realizado, baseado na análise comparativa entre elas tomando como premissa abordagem que possibilite criação de artefatos customizáveis, modularização das variações e implementação das variações sem realizar modificações ao código base. Com o intuito de avaliar as técnicas selecionadas, foi realizado um estudo experimental, que consiste na aplicação destas no processo de adaptação, manutenção e evolução de um sistema de informações gerenciais real, comprovando ou não a viabilidade do uso quanto à eficiência e eficácia.

  • LEONARDO BEZERRA SILVA JUNIOR
  • Investigando a refatoração automática de software baseada em algoritmos de otimização multiobjetivos
  • Orientador : LEILA MACIEL DE ALMEIDA E SILVA
  • Data: 19/09/2014
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Refatoração é um processo que objetiva a mudança de código sem a mudança de comportamento visível e é utilizada para corrigir problemas estruturais no software, advindos de manutenções sem planejamento ou de um processo de desenvolvimento desestruturado. Os mecanismos por trás do processo de refatoração, entretanto, são relativamente complexos e perigosos se feitos manualmente (para cada refatoração é preciso avaliar uma série de pré e pós-condições para garantir que o comportamento não seja alterado). Muitas ferramentas de desenvolvimento atuais facilitam as refatorações, mas de forma semiautomatizada, de maneira que o programador deve perceber a necessidade de uma refatoração específica. Novas técnicas tem surgido em um esforço para aproximar a engenharia de software das outras engenharias no que diz respeito à automatização de processos. Neste contexto, a aplicação de algoritmos de busca surge como uma proposta para prover suporte à manutenção de software através da aplicação automática de refatorações.
    Este trabalho se insere neste contexto, o de Refatoração de Software Baseada em Buscas (do inglês Search-Based Software Refactoring), e investiga detalhadamente o tema, propondo inclusive um algoritmo específico para a área, intitulado MultiObjective Particle Swarm Optimization with Path Relinking (MOPSOPR). Um framework open-source que possibilita a busca e aplicação automática de sequências de refatorações foi também proposto. Este framework permite a exploração do problema de refatoração automática através de vários algoritmos de otimização. Em particular, neste trabalho o framework foi utilizado para viabilizar análises comparativas do algoritmo proposto com o algoritmo mais utilizado na literatura deste tema, o Non-Dominated Sorting Genetic Algorithm-II (NSGA-II). Vários experimentos foram conduzidos, inclusive considerando-se softwares reais. Apesar de apresentar alguns resultados positivos, a avaliação geral não indica uma superioridade unânime do algoritmo proposto em relação ao NSGA-II nos diversos experimentos realizados. Entretanto, o estudo realizado revelou interessantes fronteiras de investigação a serem exploradas em trabalhos futuros.

  • GABRIEL FERREIRA ARAUJO
  • Sobre o uso do Contexto no Reconhecimento Automático de Fala
  • Orientador : HENDRIK TEIXEIRA MACEDO
  • Data: 12/09/2014
  • Dissertação
  • Mostrar Resumo
  • Interfaces de fala têm se popularizado comercialmente nos últimos anos, principalmente devidoao advento das tecnologias pervasivas, móveis e acessíveis. Entretanto, a comunicação verbale falada é uma tarefa extremamente complexa em diversos aspectos, desde a sua variabilidadeacústica à ambiguidade. Tais interfaces, ou sistemas de reconhecimento de fala, enfrentamdiversos problemas que os limitam, à exemplo da precisão do reconhecimento. De maneirasimilar aos humanos, que combinam sensações auditivas e visuais na percepção da fala, aincorporação de informações de contexto à interface de fala pode melhorar significativamente aeficiência do reconhecimento. Portanto, o objetivo deste trabalho é investigar o impacto docontexto na performance do reconhecimento de fala. As definiçoes de contexto e formalizaçãodos tipos de informações contextuais são apresentadas inicialmente, seguidas pela proposta deum modelo contextual e seu respectivo uso através de um método de adaptação para o modelode linguagem. Tal adaptação objetiva a manutenção do foco do reconhecimento no domínioatual da aplicação. Diante de um situação de aplicação simples, a navegação falada de robôsmóveis, o efeito provocado pela inclusão do contexto nas taxas de reconhecimento de fala foiavaliado pelas métricas WER (Word Error Rate) e WIL(Word Information Lost). Na maioria doscenários de teste os resultados demonstraram reduções entre 1,5~2,5%, alcançando até 3,3%para o modelo linguístico mais restrito. Um outro estudo de caso mais abrangente foi posteriormente desenvolvido para o controle de automação residencial, este qual foi simulado na plataforma Arduino. Adicionalmente, um modelo de processo foi proposto a fim depadronizar e guiar o desenvolvimento de interfaces de fala, uma vez que que a criação de taissistemas não é uma tarefa trivial.

  • SAULO EDUARDO GALILLEO SOUZA DOS SANTOS
  • HighFrame: Uma solução para desenvolvimento em alto nível e deployment automático de sistemas distribuídos baseados em componentes
  • Orientador : TARCISIO DA ROCHA
  • Data: 19/08/2014
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Sistemas distribuídos têm se mostrado altamente heterogêneos e dinâmicos, mudanças acontecem constantemente e rapidamente. Uma abordagem largamente adotada no desenvolvimentode sistemas distribuídos é a do desenvolvimento baseado em componentes, que permite desenvolver softwares flexíveis através da composição de componentes individuais.Mas, com a grande diversidade de modelos de componentes, cada modelo possui sua especificidade de desenvolvimento e nativamente estes não possuem interoperabilidade. O desenvolvimento de métodos de comunicação remota e o deployment distribuído são tarefas difíceis que contribuem no aumento da complexidade. Considerando toda essa complexidade, os esforços destinados ao desenvolvimento de código técnico para sistemas distribuídos são obstáculos que desencorajam desenvolvedores. Neste cenário apresentamos o HighFrame - uma solução integrada para desenvolvimento em alto nível e deployment automático que tem como propósito reduzir a complexidade do desenvolvimento de sistemas distribuídos baseados em componentes heterogêneos. Com esta solução o desenvolvedor mantém o foco de desenvolvimento no negócio da aplicação. Ele utiliza anotações e um planejador gráfico para definir componentes e a arquitetura do sistema distribuído. O HighFrame desempenha o processo de deployment automaticamente e abstrai do desenvolvedor a complexidade de modelos de componentes, métodos de comunicação remota e interoperabilidade entre componentes heterogêneos.

  • MARCELINO NASCIMENTO DE OLIVEIRA
  • Avaliação de Desempenho de Serviços Emergenciais de Saúde em Redes Sem Fio Heterogêneas
  • Orientador : EDILAYNE MENESES SALGUEIRO
  • Data: 16/05/2014
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • As aplicações de saúde voltadas para monitoramento de pacientes à distância, têm atingido grandes proporções com o avanço das redes sem fio. Este trabalho apresenta o estudo de avaliação de desempenho do tráfego de biosinais, no qual foi simulado a transmissão de dados de pacientes em situações de emergência. Os sinais foram transmitidos a partir de uma ambulância, através de rede sem fio e coletados em um centro de monitoramento médico. No percurso até o hospital, o móvel transmitiu biosinais enquanto transitou entre áreas cobertas por tecnologias de rede distintas, caracterizando situação de handover vertical. Com base nos requisitos mínimos de QoS praticados na comunidade científica, foram avaliados os parâmetros mais importantes em aplicações de saúde como taxa de perdas, atraso, vazão e jitter. Ainda, foi considerado uma largura de banda mínima necessária para transmissão de sinais vitais, levando-se em conta as taxas de amostragens conhecidas para sinais médicos como Eletrocardiograma(ECG), Pressão arterial, Frequência cardíaca, Temperatura do corpo e Taxa de saturação de oxigênio no sangue. Para avaliar o desempenho, foram realizadas simulações computacionais, com o uso de uma implementação do padrão IEEE 802.21 para o simulador NS-2. O cenário simulado utilizou as redes das tecnologias Wi-Fi e WiMAX , dispositivo móvel com múltipla interface e nós de carga, os quais realizaram transmissões com taxas constantes CBR. Os resultados mostraram que as tecnologias de rede em uso, atenderam os requisitos mínimos de QoS para aplicações médicas.

  • CHRISTIANO LIMA SANTOS
  • Dmitry - Uma Arquitetura para Gestão Ágil de Projetos no Moodle
  • Orientador : HENRIQUE NOU SCHNEIDER
  • Data: 16/05/2014
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Nas últimas décadas, barreiras geográficas deixaram de existir, a comunicação tornou-se muito mais veloz e acessível e ferramentas tecnológicas ampliaram o poder de processamento humano das informações, levando a profundas transformações econômicas, sociais e culturais. Assim, Tecnologias da Informação e Comunicação receberam papel fundamental em uma sociedade que se comunica, negocia e aprende "em rede", entretanto abordagens educacionais adotadas nas instituições de ensino ainda se encontram defasadas. Novas técnicas de ensino construtivistas como a Aprendizagem Baseada em Projetos e ferramentas computacionais como os Ambientes Virtuais de Aprendizagem são pesquisadas e experimentadas, apontando a gestão de projetos educativos por meio do ciberespaço como uma possível abordagem educacional capaz de promover a construção do conhecimento pelos próprios aprendizes de forma colaborativa e superando restrições geográficas. Esta dissertação analisa o Ambiente Virtual de Aprendizagem Moodle como suporte à técnica de Aprendizagem Baseada em Projetos e apresenta uma arquitetura de software para a gestão de projetos educativos como um ambiente que permita a aprendizagem de forma mais autônoma e colaborativa.

  • RAFAEL XAVIER DE OLIVEIRA SOUZA
  • ModelER: Uma Abordagem baseada em Modelos aplicada ao Processo de Elicitação de Requisitos.
  • Orientador : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: 27/02/2014
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A Engenharia de Requisitos (ER) possui um importante papel na Engenharia de Software pelo fato de compreender a fase inicial do processo de desenvolvimento de software, servindo de base para a realização das demais atividades, contribuindo decisivamente para a qualidade do produto de software final. O processo de Elicitação de Requisitos está entre as principais preocupações da ER. Ele envolve o reconhecimento e a descrição das necessidades dos clientes, de tal forma que seja possível refletir o negócio de forma precisa e coerente. Além disso, de maneira geral, a maior parte dos problemas que ocorrem durante o processo de desenvolvimento de software é causada por falhas nas fases iniciais. Diante desse contexto, o uso de abordagens que busquem compreender e descrever os processos de negócio e que permitam uma visão mais próxima do domínio, ou que possuam alto grau de abstração, tais como o Desenvolvimento Orientado por Modelos (Model-Driven Developement – MDD) e a Modelagem de Processos de Negócio (Business Process Modeling – MPN), sobretudo quando apoiadas por ferramentas de suporte, pode contribuir para a melhoria da qualidade dos requisitos e do processo de Elicitação de Requisitos. Este trabalho apresenta a abordagem ModelER, a qual busca promover melhorias no processo de Elicitação de Requisitos, através da utilização de conceitos e práticas do MDD e da MPN para identificação de requisitos de software.

  • LUIZ MARCUS MONTEIRO DE ALMEIDA SANTOS
  • My-Direct: Um Middleware para Desenvolvimento de Redes Sociais Móveis P2P
  • Orientador : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: 25/02/2014
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Nos últimos anos, o tema middleware para redes sociais móveis têm atraído a atenção do meio acadêmico, causando o projeto e desenvolvimento de diversas soluções por parte dos pesquisadores. Esse tipo de middleware facilita e torna mais eficiente o pro­cesso de desenvolvimento de aplicações de redes sociais para o ambiente móvel. Além disso, essas soluções de middleware também abstraem o processo de comunicação entre parceiros e permitem a aquisição, persistência e reuso de informações de contexto social e de localização do usuário, além de disponibilizarem API para que os desenvolvedores possam acessar essas informações rapidamente e construir novas aplicações sociais

    Tendo em vista colaborar para esta nova tendência de pesquisa, esta dissertação propõe uma arquitetura de middleware para redes sociais móveis chamada de My-Direct que faz uso da tecnologia Wi-Fi Direct em conjunto com o Bluetooth, visando proporci­onar comunicação flexível entre os nós da rede social móvel. Junto ao My-Direct, tam­bém foi criado um mecanismo de privacidade para o usuário baseado em informações disponíveis no dispositivo móvel, de forma que a execução de atividades sociais ocorra apenas entre parceiros com algum grau de afinidade.

  • CARLA CÁSSIA DE JESUS ALMEIDA
  • Qualitas: Um Processo de Desenvolvimento de Software Dirigido por Modelos
  • Orientador : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: 25/02/2014
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Model Driven Development (MDD) é um paradigma de desenvolvimento de produtos de software, cujo objetivo é colocar os modelos como o artefato central do processo de desenvolvimento, ao invés do código-fonte. Nos últimos anos, pesquisas na área de Engenharia de Software têm criado e adaptado definições, métodos e estruturas para a realização desse paradigma. No entanto, os modelos de processo de desenvolvimento de software, bem como, as atividades de testes envolvidas nestes modelos não são adequados e não permitem o uso efetivo desse paradigma. Tendo em vista que, a área de Engenharia de Software possui como objetivo principal, o desenvolvimento de produtos de software com qualidade, é necessário também que estes modelos de processo de desenvolvimento envolvam cada vez mais abordagens de teste de software, com o intuito de realizá-los desde as fases iniciais, visando que os erros sejam identificados e corrigidos o quanto antes, agregando qualidade ao software. Uma abordagem que faz uso de modelos no teste de software é o Model Driven Testing (MDT), a qual faz uso de práticas do MDD, através da geração automática de artefatos de teste de acordo com as regras de transformação pré-definidas a partir de modelos de desenvolvimento. Desta forma, este trabalho apresenta o Qualitas, um modelo para o desenvolvimento de software orientado a modelos, que possibilite tanto o uso de modelos quanto à efetiva integração do MDD e MDT. O modelo busca promover um maior controle das etapas e atividades do processo de desenvolvimento de software, como também, agregar qualidade aos produtos de software desenvolvidos. Uma avaliação e um estudo experimental do Qualitas foram realizados através do desenvolvimento e implementação de funcionalidades para o Sistema de Informação da Triagem Neonatal do Hospital Universitário (HU) da Universidade Federal de Sergipe (UFS), destacando as vantagens e mostrando as limitações do modelo.

  • LUANA BARRETO DA SILVA
  • Modelagem e Análise do Protocolo de Roteamento Leach
  • Orientador : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: 21/02/2014
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • As Redes de Sensores Sem Fio (RSSF) são sistemas auto-organizáveis formadas por nós sensores que comunicam-se entre si trocando informações e auxiliando as mais diversas áreas. Porém, essas redes possuem grandes limitações devido à escassez de recursos, principalmente energético. Essa limitação se deve ao fato de que, em geral, os sensores possuem baterias limitadas e não há possibilidade de recarga de energia. Porém, para garantia de sua empregabilidade as RSSF devem possuir uma comunicação não somente eficaz, mas também eficiente. Para alcançar uma comunicação eficiente é necessário o uso de protocolos que priorizem as limitações enfrentadas por uma RSSF. A escolha equivocada de protocolos de roteamento em RSSF pode levar a uma utilização inadequada dos recursos da rede, acarretando a diminuição do seu tempo de vida e/ou diminuindo a qualidade dos dados capturados. Para o presente trabalho foi selecionado o protocolo de roteamento Leach (Low Energy Adaptive Clustering Hierarchy), para realizar através das Redes de Petri uma análise de desempenho dos componentes e fases existentes nele e posterior aplicação de melhorias. Para realizar a análise de desempenho, são estudadas métricas como: economia de energia de cada nó, tempo de vida da rede, atraso médio na entrega de pacotes, e escalabilidade. A partir do exame dessas métricas em cada uma das fases presentes no protocolo Leach, são propostas melhorias no protocolo e analisada sua empregabilidade.

2013
Descrição
  • MARLON SANTOS PRATA
  • Extração De Padrões Em Imagens De Ressonância Magnética Funcional Na Dimensão Temporal.
  • Orientador : CARLOS ALBERTO ESTOMBELO MONTESCO
  • Data: 05/12/2013
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Este trabalho busca avaliar a efetividade do Modelo de Análise de Componentes Independentes (ACI) em imagens de ressonância magnética funcional (fMRI) na dimensão temporal. Diante dos resultados dessa avaliação, serão extraídos padrões latentes da função resposta hemodinâmica (FRH), em um experimento que tem como base um protocolo que será executado por um voluntário. Imagens cerebrais de ressonância magnética serão usadas para que com o auxilio da técnica de ACI possam ser identificadas as áreas cerebrais que estão ativas no momento da execução do protocolo, separando-os dos sinais ativos que não pertencem ao protocolo, como batimentos cardíacos, respiração etc.

  • MURILO ALVES BEZERRA JUNIOR
  • Pré-Processamento dos Intervalos de Tempos Observados na Dinâmica de Digitação (KeyStroke) de Senhas Curtas
  • Orientador : JUGURTA ROSA MONTALVAO FILHO
  • Data: 27/09/2013
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Em 2006, um método foi proposto sobre o uso da equalização de intervalos de tempos,
    como forma de melhorar o desempenho de alguns métodos biométricos baseados em
    dinâmica de digitação (keystroke). Naquele artigo, pequenas bases de dados, com textos estáticos
    e livres, foram usadas para mostrar, em termos de taxas de erros, os ganhos quando
    a equalização era aplicada antes do uso de métodos clássicos. Em 2009, lançou-se uma
    base pública grande, correspondente a uma única senha hipotética curta, digitada por 51 voluntários,
    usada pelos autores do trabalho e, posteriormente, disponibilizada, publicamente,
    para novos experimentos. Nesta dissertação utilizou-se essa grande base pública, para a qual
    adapta-se a equalização de intervalos. Utilizando os mesmos métodos usados pelos proprietários
    da base experimental, obtém-se resultados que mostram, claramente, um notável
    ganho de desempenho para todos os métodos testados, quando a equalização de intervalos
    é usada no pré-processamento dos dados. É observado, também, o desempenho no tocante
    ao tamanho da senha, e analisa-se a estabilização do padrão de digitação. Por fim, pode-se
    verificar a montagem de uma nova base, a partir da qual foi possível verificar e analisar o
    seu desempenho, assim como a relação existente em abordagens tradicionais, no tocante ao
    layout do teclado e à “força” que a senha possui em sua essência.

  • CARLOS AUGUSTO DOS SANTOS
  • Uso de Análise Espectral e Máquinas de Vetores de Suporte no Reconhecimento de Assinaturas Vibracionais de Equipamentos Eletromecânicos
  • Orientador : LEONARDO NOGUEIRA MATOS
  • Data: 16/08/2013
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Desde seus primeiros dias, os seres vivos aprendem a identificar diferentes padrões de sinais, de acordo com suas capacidades sensoriais. De uma forma particular, os humanos sempre utilizaram sua capacidade auditiva em suas atividades laborais ligadas à mecânica. Sistemas mecânicos em funcionamento produzem vibrações, muitos deles gerando ruídos característicos. Esses sinais audíveis ao serem aprendidos são utilizados no reconhecimento de anomalias simples ou complexas, dependendo do sistema e do analista. Partindo do princípio de que se pode simular a capacidade humana de reconhecimento de padrões de audio através de sistemas computacionais, essa dissertação procura apresentar uma visão prática do reconhecimento de defeitos em equipamentos eletromecânicos, através da extração de características do espectro de frequências oriundas da vibração dos sistemas e o reconhecimento feito por Máquinas de Vetores de Suporte (SVM), especificamente SVM de Classe Única.

  • SIDNEY CASSEMIRO DO NASCIMENTO
  • UM FRAMEWORK EXTENSÍVEL PARA INTEROPERABILIDADE DINÂMICA ENTRE COMPONENTES DISTRIBUÍDOS
  • Orientador : TARCISIO DA ROCHA
  • Data: 29/07/2013
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A popularização do middleware ocorrida nos últimos anos promoveu o surgimento de diferentes modelos tecnológicos. Devido a essa diversidade, a interoperabilidade entre diferentes modelos de componentes de software torna-se imprescindível para promover a integração entre partes heterogêneas.
    A heterogeneidade de middleware é um desafio para o desenvolvimento de sistemas distribuídos. Os problemas envolvidos com a interoperabilidade são tratados, em geral, pela adoção de sistemas de middleware capazes de intermediar e estabelecer a comunicação entre plataformas distintas.
    Nesse contexto, esta dissertação propõe, então, um framework padrão para interoperabilidade entre diferentes modelos de componentes de software. Para diminuir o acoplamento da plataforma proposta, foi implementado um framework distribuído com uma arquitetura extensível para suportar novos modelos de componentes e novos tipos de binding na forma de plugins independentes. O framework proposto possibilita a reutilização de componentes heterogêneos (i.e. OpenCOM e Fractal) na composição de sistemas distribuídos complexos, bem como a interoperabilidade entre componentes distribuídos de tais modelos.
    Para confirmar os benefícios em desempenho, usabilidade e extensão, está dissertação apresenta um estudo de caso de uma aplicação distribuída baseada no Servidor Web Comanche usando composição de componentes heterogêneos para avaliar a viabilidade do framework proposto.

  • GUSTAVO DA SILVA QUIRINO
  • Análise Arquitetural de Algoritmos Criptográficos Assimétricos em Plataformas Embarcadas usadas em RSSF
  • Orientador : EDWARD DAVID MORENO ORDONEZ
  • Data: 13/03/2013
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Esse trabalho consiste na avaliação de desempenho de algoritmos criptográficos assimétrico

    em plataformas embarcadas usadas em Redes de Sensores Sem Fio (RSSF). Os dispositivos

    sensores têm baixa capacidade computacional e energética, portanto técnicas de segurança

    não devem consumir grande quantidade de recursos. Os algoritmos criptográficos assimétricos

    RSA, ECC e MQQ foram avaliados nas plataformas Desktop, ARM, MSP430 e AVR.

    A avaliação de desempenho foi realizada com auxílio dos simuladores SimpleScalar, Sim-

    Panalyzer, MSPsim e AVRORA. Os critérios de avaliação foram: tempo de processamento,

    uso de memória e processador, além do consumo de energia. Os dados revelaram que o algoritmo

    MQQ foi mais eficiente que os algoritmos RSA e ECC na maioria dos critérios de

    avaliação, além disso, o algoritmo ECC obteve os melhores resultados quando comparado

    com o algoritmo RSA.

  • LUCAS AUGUSTO MONTALVÃO COSTA CARVALHO
  • Abordagens de Teoria dos Jogos para Modelagem de Sistemas de Recomendação para Grupos
  • Orientador : HENDRIK TEIXEIRA MACEDO
  • Data: 20/02/2013
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Sistemas de Recomendação tradicionalmente recomendam itens para usuários individuais.Em alguns cenários, entretanto, a recomendação para um grupo de indivíduos faz-se necessária,onde a grande dificuldade é como lidar adequadamente com as preferências de seusintegrantes para geração da recomendação. Diferentes métodos de agregação dessas preferênciastêm sido propostos na literatura científica relacionada, onde o objetivo principal éa maximização da satisfação média do grupo e assegurar justiça na recomendação. Porém,características do grupo influenciam sobremaneira os resultados obtidos pelos diferentes métodosde agregação. Esta dissertação defende a hipótese de que a Recomendação para Grupode usuários pode ser modelada como um problema de encontrar os itens em Equilíbrio deNash. Os itens disponíveis para potencial recomendação são modelados como ações de umJogo Não-Cooperativo. A abordagem seleciona os itens de forma racional e trata os membrosdo grupo como jogadores com interesses próprios. Garante-se a existência de ao menos umEquilíbrio de Nash como solução para a recomendação. O experimento realizado comparaa satisfação média do grupo entre a abordagem proposta e estratégias de agregaçãos entreelas a conhecida como Average, pertencente ao Estado da Arte. Para grupos de diferentesníveis de homogeneidade, os resultados alcançados são bastante promissores. Uma outrahipótese defendida nesta dissertação é a de que a formação de um grupo de usuários dentrode um determinado contexto deve ser baseada em Estruturas de Aliança com o objetivo demaximizar o bem-estar social total do grupo (Social Welfare). Enquanto a maioria das recomendaçõespara grupos são realizadas para um grupo fixo e pré-determinado de usuários, aorganização em grupos poderia ser de acordo com um objetivo. Um experimento comparouo resultado da abordagem de formação de grupos baseadas em Estruturas de Aliança comuma abordagem baseada em agrupamento com o algoritmo K-Means. Resultados mostraramque os grupos formados com a nova abordagem possuem um índice de similaridade internamaior.
  • DILTON DANTAS DE OLIVEIRA
  • Uma Arquitetura Baseada na Teoria do Perigo para Predição de Ataques de Segurança em Redes Autonômicas
  • Orientador : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: 31/01/2013
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
    • O crescimento do número de dispositivos conectados, do volume de dados trafegados e dasaplicações utilizadas tem evidenciado um aumento importante na complexidade das redesatuais, deixando a atividade de gerência cada vez mais difícil para os administradores de redese sistemas. Aspectos de gerência, como a segurança desses sistemas tem sido um dosprincipais desafios enfrentados pelos pesquisadores, principalmente, considerando que, emparalelo, observa-se um também importante aumento no grau de sofisticação das atividadesmaliciosas. Tal cenário exige o desenvolvimento de sistemas de segurança igualmentesofisticados, com o intuito de impedir ou conter ataques cada vez mais destrutivos aossistemas, como os ataques de worms. E a inspiração biológica tem sido uma das grandesaliadas nesta empreitada, trazendo diversos conceitos e novas formas de pensar e resolveresses problemas. Este trabalho utilizou os conceitos bio-inspirados das Redes Autonômicas(redes autogerenciáveis inspiradas nos funcionamento do sistema nervoso humano) e dosSistemas Imunes Artificiais (sistemas de segurança computacional inspirados nofuncionamento do sistema imunológico humano), para definir um arquitetura de gerência paraautoproteção de redes, através da predição de ataques de segurança. Tal arquitetura incorpora o modelo imuno-inspirado da Teoria do Perigo e utiliza o seu Algorítmo das CélulasDendríticas para correlacionar eventos e detectar anomalias. A análise da arquitetura foirealizada em um Sistema de Alerta Antecipado, que usa notificações recebidas de máquinas jáinfectadas por worm como informação adicional para identificar a iminência de uma infecçãoem máquinas ainda vulneráveis. Nos testes foi utilizado o modelo de propagação do wormConficker a fim de predizer sua infecção e os resultados apontaram uma redução deaproximadamente 8,45% no número de máquinas infectadas e, consequentemente, na propagação do worm em uma rede.
  • LEILA BUARQUE COUTO DE MATOS
  • Análise de Desempenho de Algoritmos Criptográficos Assimétricos em uma Rede Veicular (VANET)
  • Orientador : EDWARD DAVID MORENO ORDONEZ
  • Data: 30/01/2013
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Esta dissertação de mestrado descreve o impacto de usar algoritmos assimétricos de criptografia, dando ênfase aos algoritmos RSA, ECC e MQQ em cenários de VANET (Vehicular Ad hoc Network). Na pesquisa foram investigados alguns simuladores como GrooveNet, VANET/DSRC, VANET/Epidemic CRL, NS-2, TraNS, NCTUns/EstiNET, SUMO, VanetMobiSim e ns-3, próprio para VANET. Os algoritmos foram implementados em C e inseridos no ns-3, onde se criam cenários simples de uma rede VANET. Os resultados obtidos permitem concluir que é possível agregar ao protocolo, na camada de serviços de segurança das redes veiculares (1609.2), esses algoritmos assimétricos e obter comunicação segura entre os nós da VANET.

  • ESTELAMARIS DA COSTA PINA
  • GRESSUS: UMA METODOLOGIA PARA IMPLANTAÇÃO DA BPM EM ORGANIZAÇÕES PÚBLICAS
  • Orientador : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: 29/01/2013
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Desde a década de 90, vem-se desenvolvendo ações para estimular as organizações públicas brasileiras a administrar visando o cidadão e não somente os seus processos internos. Essas ações estão consolidadas, entre outras formas, na Carta de Serviço ao Cidadão e na Lei do Acesso a Informação (LAI). Uma das finalidades da Carta de Serviços ao cidadão é divulgar os serviços prestados pelas organizações públicas com os seus compromissos de atendimento para que sejam amplamente conhecidos pela sociedade, já a LAI, obriga as organizações públicas a fornecerem informações aos cidadãos permitindo o acesso e conhecimento dos seus direitos essenciais. Neste contexto, é imperativo conhecer e melhorar os processos da organização que são os alicerces para atender essas demandas, como também buscar o alinhamento da visão de processos à de dados, viabilizando a implementação de sistemas de informação (SI) mais racionais e integrados. Business Process Management (BPM) é uma alternativa para conhecer, melhorar, automatizar e adequar os processos de negócio de forma a apoiar as atividades administrativas provendo maior controle e qualidade às iniciativas desempenhadas. No entanto, existem obstáculos para uma organização pública implantar a BPM e alinhar aos sistemas de informação, um deles é o desconhecimento de uma estratégia para a transição da gestão por funções para a gestão por processos. Este trabalho apresenta a metodologia Gressus para conduzir a implantação da BPM em organizações públicas, com vistas a subsidiar o desenvolvimento de SI aderentes aos processos da organização. A aplicabilidade da Gressus foi verificada através de um estudo de caso que selecionou o processo de compras em uma organização pública. Os resultados apontaram que a metodologia Gressus pode ser uma opção viável para a implantação de BPM em organizações que ainda não adotaram a gestão por processos. Este trabalho contribui proporcionando um caminho para a institucionalização da BPM em organizações públicas, apoiando o desenvolvimento de SI alinhados e assim obter os melhores resultados.

  • SANDRA COSTA PINTO HOENTSCH ALVARENGA
  • SOCIALNETLAB: SERVIÇOS DE LOCALIZAÇÃO ATRAVÉS DA API DE GEOLOCALIZAÇÃO DO HTML5 E DO WEB SERVICE DINÂMICO
  • Orientador : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: 15/01/2013
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Diante da grande quantidade de dispositivos móveis pessoais vendidos no mercado e do vasto número de tecnologias de localização disponível para serem utilizadas por esses equipamentos, apresentamos uma solução de localização que é capaz de posicionar geograficamente um usuário e seus amigos em qualquer dispositivo móvel, independente da tecnologia de localização presente no equipamento, bem como calcular a distancia que o mesmo se encontra em relação aos amigos e definir a distância que deseja ser notificado da proximidade dos mesmos. Essa solução é composta por dois serviços de localização: o serviço de localização que utiliza a API de Geolocalização do HTML5 e o serviço de localização que utiliza Web Service Dinâmico. Ambos os serviços foram implantados e testados na SocialNetLab, que é a rede social móvel que foi implementada para validar esses serviços de localização e que servirá de laboratório para futuras pesquisas em redes sociais e estará disponível para o Departamento de Computação da Universidade Federal de Sergipe. Como principal resultado obtivemos a integração de dois serviços de localização em uma rede social móvel, a SocialNetLab, tornando-a capaz de localizar e notificar usuários da proximidade de amigos independente da tecnologia de localização disponível no dispositivo (móvel ou não). Ao término dos testes obtivemos resultados satisfatórios nos dois serviços de localização testados.

2012
Descrição
  • ANDERSON SANTOS FERREIRA DA SILVA
  • Algoritmo de Handover Vertical Baseado em Função de Utilidade com Prevenção Probabilística de Decisões Erradas
  • Orientador : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: 20/12/2012
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O problema da decisão de handover entre redes sem fio heterogêneas ganhou grande importânciapara garantir aos usuários uma conexão contínua e um serviço de qualidade. Adisponibilidade de diversas tecnologias de redes sem fio proporciona ao usuário de um dispositivomóvel a possibilidade de selecionar a rede mais adequada às suas necessidades.Este trabalho apresenta um algoritmo de decisão handover vertical baseado em função deutilidade que previne decisões erradas de handover. O algoritmo é dividido em duas fases:Avaliação de RSS e avaliação de QoS. A avaliação de RSS verifica se o valor de RSS das redescandidatas atingiu um nível mínimo para estabelecer uma conexão na camada de enlace.Na avaliação de QoS, são coletadas medições de QoS, cujos valores servem como entradapara uma função de utilidade que pontua as redes de acordo com a QoS obtida. A fim de evitardecisões erradas de handover, causadas por flutuações nos valores das medições de QoS,é realizada uma análise probabilística sobre valores da função de utilidade. Para avaliar odesempenho do algoritmo foram realizadas simulações computacionais, com o uso de umaimplementação do padrão IEEE 802.21 para o simulador NS-2. O cenário simulado utilizouas redes das tecnologias Wi-Fi e WiMAX e dispositivos móveis com múltiplas interfaces, osquais realizaram chamadas VoIP e transmissões de vídeo. Os resultados mostraram a efetividadedo algoritmo em termos de diminuição do número de decisões erradas de handover emelhorias na qualidade do serviço. A redução de decisões erradas evita o efeito “ping-pong”,o que melhora o nível de QoS experimentado pelo terminal móvel, bem como garante umaconexão menos sujeita a interrupções.

  • JEIRLAN CORREIA PALMEIRA
  • PETIC 3.0: PROPOSTA DE APERFEIÇOAMENTO DA METODOLOGIA PETIC
  • Orientador : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: 20/12/2012
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Atualmente, as organizações enfrentam um mercado bastante competitivo precisando de informações e conhecimentos que possam auxiliar de forma inteligente a sua gestão. As Tecnologias da Informação e Comunicação (TIC) são uma grande aliada para a obtenção de vantagens competitivas. Para isso, necessita-se de práticas de gestão que visem ampliar os benefícios das TIC para a organização.

    Neste contexto, será mostrada a importância da Governança de TI e do Planejamento Estratégico (PE) de TIC. Serão descritas as principais metodologias para o PE das TIC. Em particular, será apresentada uma proposta da aperfeiçoamento da metodologia PETIC. Essencialmente, esta proposta preocupa-se em manter o público-alvo da metodologia nas pequenas e médias organizações, procura alinhar a PETIC aos principais frameworks e modelos de governança de TI, bem como ao uso de uma ferramenta de apoio – o software PETIC Wizard. Será discorrido sobre os estudos de caso realizados no Centro de Processamento de Dados (CPD) da Universidade Federal de Sergipe (UFS) e no CPD da Universidade Federal do Amazonas (UFAM), além da aplicação do PETIC Wizard nas duas referidas instituições e na Secretaria de Tecnologia da Informação do Tribunal Regional Eleitoral de Sergipe. Por fim, será mostrada uma análise acerca dos resultados obtidos. Esta análise permitiu inferir que por meio da proposta de aperfeiçoamento da metodologia PETIC, é possível aprimorar o processo ligado ao planejamento estratégico de TIC.

  • JOSÉ HENRIQUE DE MELO CARDOSO
  • UMA ABORDAGEM PARA O PROCESSO DE ENGENHARIA DE REQUISITOS SOB A ÓTICA DA GESTÃO DE PROCESSOS DE NEGÓCIO
  • Orientador : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: 19/12/2012
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Pesquisas recentes relatam problemas de gestão no processo de Engenharia de Requisitos (ER). São problemas relacionados com comunicação, pessoas, metas, cultura e política, ligados diretamente à gestão do processo, que influenciam negativamente a ponto de inviabilizar projetos, causando prejuízos consideráveis para os negócios. Apesar do processo de ER apresentar como uma de suas atividades a Gerência de Requisitos, essa atividade tem como foco a qualidade do produto final, o Documento de Requisitos. Consequentemente, esforços para melhoria da qualidade da gestão de todo o processo, fazem-se necessários. Esta dissertação apresenta uma abordagem que propõe a visualização do processo de ER como um processo de negócio, possibilitando a inserção de princípios de gestão sob a ótica da Gestão de Processos de Negócio (Busines Process Management - BPM). A inserção tem por objetivo, a melhoria de desempenho de processos tradicionais de ER a fim de resolver o problema da gestão inadequada desses processos. Como modelo de partida (As Is), considera-se o processo de ER, conforme o SWEBOK. Em seguida um processo desejável (To Be) é definido e modelado, introduzindo-se princípios de gestão que proporcionam um aumento de efetividade e qualidade. A elevação da efetividade é obtida pelo Gerenciamento Estratégico, enquanto a melhoria da qualidade pelo Gerenciamento de Desempenho. A gerência estratégica é alcançada pelo alinhamento dos requisitos com as metas da organização e dos processos de negócio, já a gerência de desempenho é estabelecida pela aplicação da técnica do Controle Estatístico de Processos (Statistical Process Control - SPC). Como forma de validação, a abordagem proposta foi aplicada em um estudo de caso, onde dois processos foram avaliados em uma mesma organização, um com e outro sem a utilização da proposta. Para medição, foram empregados os indicadores de desempenho introduzidos pela abordagem. Como resultado, foi obtido um processo de ER com melhor efetividade e qualidade, capaz de realizar novas inserções, de forma objetiva, buscando a melhoria contínua desse processo.

  • RICARDO ARIEL CORREA RABELO
  • Um Arcabouço para Especificação e Modelagem de Estratégias de Jogo para Modalidade SIMUROSOT de Futebol de Robôs
  • Orientador : HENDRIK TEIXEIRA MACEDO
  • Data: 19/12/2012
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Futebol de robôs é um campo de pesquisa multidisciplinar crescente que envolve investigação científica acerca de aspectos relacionados ao controle de dispositivos móveis, comunicação, processamento de imagens, inteligência artificial, sistemas multiagentes, engenharia eletrônica, mecânica, entre outros. Competições científicas de âmbito mundial têm impulsionado grandes avanços tecnológicos nestes diversos aspectos, uma vez que institutos de pesquisa e universidades costumam inscrever anualmente seus times robóticos e apresentar, desta forma, as evoluções obtidas durante o ano anterior. A FIRA é uma das maiores organizações internacionais que promovem este tipo de competição e atualmente provê disputas em sete diferentes categorias de robôs que vão desde agentes virtuais até humanoides físicos. A categoria de agentes virtuais é denominada SimuroSot e consiste de um servidor e dois programas clientes que executam estratégias de jogo pré-programadas. Uma interface gráfica 3D exibe a partida. Esta plataforma de simulação 3D está disponível para que as equipes possam desenvolver seus times e testar seu desempenho apropriada e repetidamente. Esta plataforma também auxilia a codificação e testes de execução de estratégias de times de robôs para uma das outras categorias disponíveis, a MiroSot, que consiste de robôs móveis físicos de pequena dimensão. O grande problema com a codificação usualmente utilizada para confecção dos times para o SimuroSot é a falta de um processo formal de programação que padronize e modele as estratégias de jogo. Esta falta de padronização causa diversos problemas e limitações da competição como fomento à ciência, a saber: (1) dificuldade de entendimento de uma codificação alheia, (2) ausência de abstração para confecção de estratégias de jogo, (3) necessidade de grande conhecimento de linguagem de programação para confecção de estratégias e (4) falta de separação clara entre primitivas de movimentação de robôs e aspectos específicos do domínio de aplicação – neste caso, o futebol. Estes problemas, por sua vez, restringem o alcance da competição a pesquisadores especialistas e estudantes de cursos de Engenharias e Computação, dificultando a disseminação, por exemplo, a estudantes de nível médio ou técnico. Neste sentido, esta dissertação propõe uma especificação semi-formal para modelagem de estratégias de jogo para times de robôs na categoria SimuroSot. Esta especificação define dois níveis de mapeamento: (1) mapeamento das informações de domínio da aplicação – neste caso, o futebol enquanto competição – para máquinas de estado finito e (2) mapeamento de máquinas de estado finito que representam estratégias de jogo de um time para sua respectiva codificação em linguagem de programação, utilizando-se de padrões de codificação que garantem a legibilidade e manutenabilidade do código final. Esta dissertação apresenta ainda o desenvolvimento de uma ferramenta que implementa a especificação proposta e permite a programação visual das estratégias de times de robôs enquanto máquinas de estado finito e subsequente geração automática de código para linguagem de programação Lingo, comumente utilizada na plataforma SimuroSot. Cenários de experimentação consistindo de voluntários com diferentes graus de formação acadêmica e diferentes níveis de conhecimento técnico sobre programação de robôs foram definidos. Resultados mostram que a especificação e a ferramenta desenvolvida melhoram de fato a curva de aprendizagem da programação de times de robôs.

  • JENIFER VIEIRA TOLEDO
  • HARPIA: Um modelo para avaliação e condução da Gestão de Projetos de Software apoiado pelas práticas de Métodos de Desenvolvimento
  • Orientador : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: 18/12/2012
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Desenvolver software com qualidade é, sem dúvida, o principal objetivo da Engenharia de Software. A qualidade do software está diretamente relacionada à qualidade do processo e da sua gestão. Várias abordagens podem ser utilizadas durante a aplicação de um desenvolvimento de software. Em destaque o uso de Métodos Ágeis e Dirigidos por Planejamento, fazendo parte cada vez mais da realidade das organizações de desenvolvimento, que acabam utilizando práticas de ambos os métodos, formalizando o emprego dos métodos híbridos, tendência para Engenharia de Software. Mas mesmo com tantas técnicas e métodos disponíveis, a escolha sobre o que usar em cada tipo de problema ou organização ainda é feita de maneira empírica, sem bases que justifiquem a aderência ao problema em questão. Este trabalho apresenta um modelo de gestão para obter atributos que viabilizem o delineamento de um perfil composto pelas características inerentes à equipe, ao ambiente e aos problemas relacionados ao desenvolvimento. Esse perfil torna-se a base para a escolha das melhores práticas dos métodos de desenvolvimento de software e mapeamento da contribuição destas práticas para a Gerência de Projetos de software, formulando-se assim, o modelo Harpia. A aplicabilidade do modelo Harpia foi verificada em um estudo de caso real, no qual problemas recorrentes como mudanças de requisitos e baixa qualidade dos dados exercem uma influência significativa no alcance dos objetivos dos projetos. O modelo favorece com o mapeamento de práticas de desenvolvimento que auxiliam a Gerência de Projetos de software e que se enquadram a realidade das empresas gerando uma maior satisfação quanto ao planejamento e execução dos projetos.

  • GIVANILDO SANTANA DO NASCIMENTO
  • AgileKDD: Um Processo Ágil para a Engenharia de Sistemas de Descoberta de Conhecimento
  • Orientador : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: 06/11/2012
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • No contexto das economias baseadas em conhecimento e da Sociedade do Conhecimento, a
    competição global é cada vez mais baseada na capacidade de transformar dados em
    informações, informações em conhecimento e conhecimento em valor. Dados, informação e
    conhecimento constituem-se ativos intangíveis fundamentais para todas as organizações que
    atuam neste modelo sócio-econômico. A construção de sistemas de software capazes de
    extrair conhecimento de dados e de informações constitui um dos desafios mais significativos
    com que se depara a comunidade de Engenharia de Software. O desenvolvimento desse tipo
    de sistemas deve ser guiado por processos capazes de conduzir a transformação dos requisitos
    de negócio dos clientes em produtos de software, observando restrições cada vez mais rígidas
    de prazo, custo e qualidade. O esforço de sistematização da Descoberta de Conhecimento em
    Bancos de Dados e do Business Intelligence resultou em uma variedade de processos. No
    entanto, estes processos não contemplam elementos fundamentais para a Engenharia de
    Sistemas de Software, como os gerenciamentos de projetos, de requisitos e de mudanças, ou
    são incompatíveis com as evoluções constantes nos ambientes de negócios corporativos.
    Muitos dos processos existentes também carecem de experimentação científica em casos
    reais, capazes de confirmar as suas qualidades e identificar as suas deficiências. O processo
    proposto neste trabalho, o AgileKDD, busca integrar as melhores práticas dos principais
    processos de Descoberta de Conhecimento em Bancos de Dados existentes com um processo
    de software ágil. A aplicabilidade do AgileKDD foi verificada em um estudo de caso real, no
    qual problemas recorrentes como mudanças nos requisitos e baixa qualidade dos dados
    exerceram uma influência significativa no alcance dos objetivos do projeto. O estudo de caso
    apontou necessidades de melhoria do processo, as quais foram consideradas no refinamento
    do AgileKDD. O processo refinado resultante deste trabalho pode ser empregado como um
    arcabouço adaptável e flexível na construção de sistemas de software capazes de extrair
    conhecimento de dados e de informações. O processo favorece a entrega antecipada e
    contínua de valor ao cliente por meio de um ciclo de vida iterativo e incremental, da resposta
    imediata a mudanças, da adaptabilidade e da flexibilidade inerentes aos processos ágeis.

  • PRISCILA LÔBO GONÇALVES DORIA
  • “Avaliação de Desempenho de Variantes dos Protocolos DCCP e TCP em Cenários Representativos.”
  • Orientador : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: 15/05/2012
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O Datagram Congestion Control Protocol (DCCP) é um proeminente protocolo de transporte que vem atraindo a atenção da comunidade científica pelos seus rápidos avanços e bonsresultados. A principal inovação do DCCP é a priorização de desempenho, como ocorre como UDP, mas com capacidade de realizar controle de congestionamento, como ocorre com oTCP. Entretanto, a literatura sobre o DCCP ainda é escassa e necessita ser complementadapara trazer elementos científicos suficientes para novas pesquisas. Neste contexto, este trabalho vem se somar aos esforços da comunidade científica para analisar, mensurar, comparare caracterizar o DCCP em cenários representativos que incorporem diversas situações de uso.Trabalhos anteriores já compararam o desempenho do DCCP com protocolos clássicos, entretanto limitando-se a um protocolo de cada vez por enlace, em enlaces supostamente isentos de falhas. Identificaram-se então três questões alvo, ainda em aberto na literatura: qualé o comportamento do DCCP (i) quando disputa o mesmo enlace com outros protocolos detransporte; (ii) com protocolos de transporte relevantes (e.g., Compound TCP, CUBIC) e(iii) em disputa no mesmo enlace com o Compound TCP e o CUBIC, utilizando aplicaçõesmultimídia (e.g., VoIP). Neste trabalho, simulações computacionais são utilizadas para comparar duas variantes do DCCP (CCID2 e CCID3) a três variantes do TCP (Compound TCP,CUBIC e TCP SACK), em cenários onde ocorrem situações de mundo real, incluindo utilização concorrente do enlace pelos protocolos, presença de erros de transmissão no enlace,variação de largura de banda, variação de latência, e variação de padrão e distribuição detráfego. Os resultados das simulações apontam que, sob contenção, na maioria dos cenárioso desempenho dos protocolos obedece à seguinte ordem de classificação: (i) DCCP CCID2;(ii) Compound TCP; (iii) TCP SACK; (iv) DCCP CCID3. Entretanto, os resultados tambémapontam que o DCCP CCID3 obtém desempenho significativamente melhor na presença deerros de transmissão, chegando a ultrapassar o desempenho do Compound TCP e do TCPSACK. Além disso, o DCCP CCID3 obtém melhor desempenho com valores maiores delatência e largura de banda. Por fim, o CUBIC obtém os melhores valores de vazão namaioria dos cenários, mas com o maior descarte de pacotes e a menor taxa de entrega

  • PRISCILA LÔBO GONÇALVES DORIA
  • “Avaliação de Desempenho de Variantes dos Protocolos DCCP e TCP em Cenários Representativos.”
  • Orientador : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: 15/05/2012
  • Dissertação
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O Datagram Congestion Control Protocol (DCCP) é um proeminente protocolo de transporte que vem atraindo a atenção da comunidade científica pelos seus rápidos avanços e bonsresultados. A principal inovação do DCCP é a priorização de desempenho, como ocorre como UDP, mas com capacidade de realizar controle de congestionamento, como ocorre com oTCP. Entretanto, a literatura sobre o DCCP ainda é escassa e necessita ser complementadapara trazer elementos científicos suficientes para novas pesquisas. Neste contexto, este trabalho vem se somar aos esforços da comunidade científica para analisar, mensurar, comparare caracterizar o DCCP em cenários representativos que incorporem diversas situações de uso.Trabalhos anteriores já compararam o desempenho do DCCP com protocolos clássicos, entretanto limitando-se a um protocolo de cada vez por enlace, em enlaces supostamente isentos de falhas. Identificaram-se então três questões alvo, ainda em aberto na literatura: qualé o comportamento do DCCP (i) quando disputa o mesmo enlace com outros protocolos detransporte; (ii) com protocolos de transporte relevantes (e.g., Compound TCP, CUBIC) e(iii) em disputa no mesmo enlace com o Compound TCP e o CUBIC, utilizando aplicaçõesmultimídia (e.g., VoIP). Neste trabalho, simulações computacionais são utilizadas para comparar duas variantes do DCCP (CCID2 e CCID3) a três variantes do TCP (Compound TCP,CUBIC e TCP SACK), em cenários onde ocorrem situações de mundo real, incluindo utilização concorrente do enlace pelos protocolos, presença de erros de transmissão no enlace,variação de largura de banda, variação de latência, e variação de padrão e distribuição detráfego. Os resultados das simulações apontam que, sob contenção, na maioria dos cenárioso desempenho dos protocolos obedece à seguinte ordem de classificação: (i) DCCP CCID2;(ii) Compound TCP; (iii) TCP SACK; (iv) DCCP CCID3. Entretanto, os resultados tambémapontam que o DCCP CCID3 obtém desempenho significativamente melhor na presença deerros de transmissão, chegando a ultrapassar o desempenho do Compound TCP e do TCPSACK. Além disso, o DCCP CCID3 obtém melhor desempenho com valores maiores delatência e largura de banda. Por fim, o CUBIC obtém os melhores valores de vazão namaioria dos cenários, mas com o maior descarte de pacotes e a menor taxa de entrega

SIGAA | Núcleo de Tecnologia da Informação/UFS - - | Copyright © 2009-2018 - UFRN - bicudo.ufs.br.bicudo1 v3.5.16 -r5161-00809bb31