A UFS preocupa-se com a sua privacidade

A UFS poderá coletar informações básicas sobre a(s) visita(s) realizada(s) para aprimorar a experiência de navegação dos visitantes deste site, segundo o que estabelece a Política de Privacidade de Dados Pessoais. Ao utilizar este site, você concorda com a coleta e tratamento de seus dados pessoais por meio de formulários e cookies.

Ciente
Dissertations/Thesis

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFS

2024
Description
  • WALDSON RODRIGUES CARDOSO
  • APSEA: Um sistema especialista como ferramenta de conscientização e prevenção contra ataques de engenharia social
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Feb 28, 2024
  • Dissertação
  • Show resume
  • Introdução: A crescente preocupação com a segurança da informação decorre dos riscos associados à disseminação de dados pessoais na internet e ao aumento dos ataques de enge- nharia social, que exploram vulnerabilidades psicológicas. Esses ataques representam uma ameaça substancial para indivíduos e organizações, podendo resultar em prejuízos financeiros significativos. A abordagem para enfrentar a engenharia social envolve a conscientização e treinamento de funcionários, sendo um sistema especialista uma ferramenta valiosa para simular o raciocínio humano e fornecer recomendações baseadas nas interações do usuário. Esta dissertação é motivada pela necessidade premente de conscientizar as pessoas sobre as ameaças da engenharia social e fornecer mecanismos eficazes para proteger informações pessoais e organizacionais contra esses ataques. Objetivos: O objetivo principal é desenvolver e validar um sistema especialista centrado na engenharia social, visando conscientizar e educar usuários para prevenir e diagnosticar vulnerabilidades. Objetivos específicos incluem mapeamento da literatura, condução de estudo exploratório, coleta de dados e desenvolvimento do sistema, culminando em uma avaliação qualitativa e de desempenho para validação. Metodologia: Esta pesquisa adota uma abordagem aplicada de desenvolvimento tecnológico, dividida em duas fases distintas. A primeira fase compreende o mapeamento sistemático, o estudo exploratório e a coleta de dados. Na segunda etapa, o foco é direcionado para o desenvolvimento do sistema, sendo validado por meio de uma avaliação qualitativa e de desempenho do sistema especialista. Essa validação inclui a aplicação de um questionário Likert e a subsequente análise dos dados resultantes. Resultados: Os resultados revelam a eficácia da metodologia adotada. O mapeamento sistemático proporcionou insights valiosos sobre os ataques de engenharia social, enquanto o sistema especialista demonstrou sucesso na conscientização e prevenção de ameaças. A aplicação do questionário Likert confirmou a aceitação positiva pelos usuários, solidificando a utilidade percebida do sistema. Conclusão: A avaliação conclusiva destaca a relevância da ferramenta desenvolvida, que se revela uma contribuição significativa para a estratégia de conscientização e treinamento contra ameaças de engenharia social. Além de reafirmar os resultados obtidos, são discutidas as limitações do estudo, proporcionando um contexto mais abrangente, e são sugeridas possíveis direções para pesquisas futuras, visando a contínua melhoria da segurança da informação em um cenário dinâmico e desafiador.

  • JEFERSON ANDRADE DE JESUS
  • Investigação da Evasão Estudantil por meio da Mineração de Dados e Aprendizagem de Máquina
  • Advisor : RENE PEREIRA DE GUSMAO
  • Data: Feb 28, 2024
  • Dissertação
  • Show resume
  • A evasão dos alunos nas escolas e universidades é um problema recorrente na educação, tanto é danoso para o aluno em termos de aprendizagem, como gera prejuízos financeiros para as instituições, sejam públicas ou privadas. Estudos que usam técnicas de mineração de dados (MD) e aprendizagem de máquina (AM) para investigar problemas na educação estão em ascensão, e a evasão estudantil é um desses problemas, por meio dessas técnicas é possível identificar padrões em indivíduos ou grupos de indivíduos que possam vir a desistir dos estudos. Com essas predições e outras informações exploradas pelas técnicas de MD e AM é possível diminuir a evasão dos alunos nas instituições de ensino, pois, o estudo ajuda a entender melhor o fenômeno e a partir disso verificar ações que ajudam na tomada de decisão e consequentemente na resolução do problema. Esse trabalho tem como objetivo investigar a evasão universitária através de dados do Censo da Educação Superior obtidos no portal do INEP e analisar a classificação de evasão de alunos do ensino superior utilizando algoritmos clássicos na construção dos modelos de classificação. A investigação mostra que com base no Censo de 2016, 30\% dos alunos do ensino superior chegam a desistir do curso ao qual ingressou ou a desistir do ensino superior, também é possível evidenciar que todos os estudos que usam classificadores de evasão estudantil como uma maneira de minimizar esse problema não seguem um padrão de atributos utilizados por outras instituições na construção dos seus modelos, de maneira que não é possível reaproveitar esses modelos para outras instituições. Considerando essas informações foram utilizados os dados do INEP na construção dos modelos de classificação construídos nos experimentos preliminares desse trabalho, tendo como melhor resultado para a métrica de acurácia: 0.979, resultado obtido pelo modelo baseado no algoritmo Árvore de Decisão, na modalidade EAD (Educação a Distância) e categoria administrativa pública.

  • JOSE MARCELO DOS SANTOS
  • Investigação dos Efeitos do Envelhecimento de Software e Avaliação de Políticas de Rejuvenescimento em Sistema de Orquestração de Contêineres
  • Data: Feb 27, 2024
  • Dissertação
  • Show resume
  • O envelhecimento e rejuvenescimento de software (SAR) têm recebido atenção nos últimos anos e foram extensivamente estudados em diversos cenários computacionais, especialmente em sistemas que demandam alta disponibilidade. Esse foco reflete a crescente importância de sistemas de software para a operação eficiente de várias organizações, tornando-se um tópico de pesquisa proeminente, impulsionado pela crescente demanda por confiabilidade e disponibilidade de serviços. Esta dissertação apresenta experimentos conduzidos em duas versões do Ubuntu Linux, simulando cenários de operação de uma nuvem privada. A plataforma de conteinerização utilizada é o Containerd, com o Kubernetes (K8s) como orquestrador, em 5 cenários distintos. Para cada um dos 5 cenários, as condições de hardware e softwares foram mantidas, incluindo cargas de trabalho e durações de testes. Durante a realização dos experimentos, métricas como utilização de CPU, uso de memória e uso de disco foram monitoradas em todo o sistema, além dá análise dos serviços do Containerd e do Kubelet. Os experimentos também incluíram a medição do tempo de resposta de servidor web para solicitações HTTP externas. O cenário inicial concentrou-se na investigação dos efeitos do envelhecimento de software, enquanto cenários subsequentes exploraram a adoção de diferentes estratégias de rejuvenescimento. Efeitos do envelhecimento de software foram observados em todos os cenários, com vazamentos de recursos identificados, especialmente no uso de memória, mesmo quando o cluster estava sem carga após um período de estresse. Os problemas observados neste trabalho resultam na degradação do desempenho do sistema e comprometem a confiabilidade e disponibilidade quando o sistema falha devido à exaustão do uso de memória. O rejuvenescimento não surtiu efeito nos cenários de limpeza de memória cached, muito menos nos momentos de reinicialização dos serviços do Containerd e Kubelet. No entanto, o rejuvenescimento de software provou ser eficaz no cenário final, quando a reinicialização controlada dos nós Workers foi realizada, permitindo assim o cumprimento do tempo estipulado para o experimento.

  • TACITO AUGUSTO FARIAS JUNIOR
  • Privacidade de Dados em Blockchain: Um Estudo Detalhado Sobre a Conformidade Regulatória Com as Regulamentações de Proteção de Dados do Brasil e da Europa
  • Advisor : RAFAEL OLIVEIRA VASCONCELOS
  • Data: Feb 20, 2024
  • Dissertação
  • Show resume
  • A privacidade de dados refere-se ao direito fundamental dos indivíduos de controlar as suas informações pessoais e a forma como essas informações são coletadas, armazenadas e utilizadas. Isso abrange a proteção dos dados contra os vazamentos e acessos não autorizados. Neste sentido, foram criadas regulamentações de proteção de dados, como a Lei Geral de Proteção de Dados (LGPD) no Brasil e a General Data Protection Regulation (GDPR) na Europa, para controlar a privacidade e o tratamento dos dados pessoais. A Blockchain é uma tecnologia em ascensão na atualidade que utiliza uma cadeia de blocos para registrar transações de maneira imutável, descentralizada e transparente, a partir disso surgem os conflitos dessa tecnologia com as regulamentações de proteção de dados. Esta dissertação apresenta como objetivo principal uma análise detalhada da conformidade regulatória da privacidade de dados existente na Blockchain com a LGPD e GDPR. A metodologia deste trabalho consiste num Mapeamento Sistemático da Literatura (MLS) que investiga a conformidade regulatória da Blockchain com a LGPD ou GDPR em relação à privacidade de dados. Posteriormente, é realizado um estudo comparativo entre 2 (duas) das principais técnicas de criptografia e privacidade utilizadas em Blockchain, visando conformidade regulatória com a LGPD e GDPR. Por fim, esta dissertação contribui para o entendimento das questões de privacidade de dados em Blockchain e fornece insights valiosos para empresas, organizações e reguladores sobre a utilização da tecnologia Blockchain em conformidade regulatória com as regulamentações de proteção de dados do Brasil e da Europa.

2023
Description
  • SANDRO ANDRADE MONTEIRO MENEZES
  • Avaliação de Protocolos IoT e Enlaces para Comunicação V2V como Suporte a Ultrapassagens Seguras em VANETs
  • Data: Dec 21, 2023
  • Dissertação
  • Show resume
  • Baseando-se nos conceitos de cidades inteligentes, Internet of Things - IoT e nos recursos que as redes de sensores podem agregar, este trabalho tem como base a avaliação de protocolos e padrões que podem ser empregados em redes veículares (Vehicular Ad Hoc Networks – VANET) com a intenção de realizar a análise de três dos mais promissores protocolos da camada de aplicação IoT. Foram analisados os protocolos Constrained Application Protocol – COAP, o Message Queuing Telemetry Transport - MQTT e o IPv6 over Low power Wireless Personal Area Networks - 6LowPAN, esses protoclos possuem características similares entre si, como: eficiência energética, pouca necessidade de processamento e baixa latência, características estas que são ideais para as redes veiculares. Em um cenário elaborado pelo simulador Omnet++ juntamente com os frameworks Veins e Sumo, testamos a eficiência desses protocolos em uma rede Vanet onde foram utilizadas as métricas de latência, perda de pacotes, jitter e throughput. Para as análises, foi considerado um modelo de ultrapassagem veicular, onde os veículos envolvidos necessitam estar cientes da existência de outros veículos próximos e estarem alertas a suas mudanças de rota e velocidades, este trabalho foi realizado utilizando-se em conjunto as redes 802.11p a rede 802.15.4 e a promissora rede móvel 5G com a intenção de verificar sua eficiência no suporte aos motoristas em ultrapassagens onde os mesmos não possuam uma boa visibilidade. Em nossas simulações foram aplicados os conceitos de Distância de Visibilidade de Ultrapassagem – DVU, que são utilizados pelo Departamento Nacional de Infraestrutura de Transportes - DNIT e até mesmo pela American Association of State Highway Transportation Officials – AASHTO. Ao final das simulações, que se basearam em um cenário de rodovia bidirecional com veículos em diferentes direções e em velocidades aleatórias, foi identificada a eficiência superior do protocolo MQTT trabalhando em conjunto com o padrão de redes móveis 5G. A eficiência dessa combinação foi constatada em todas as métricas utilizadas, deixando claro que a associação entre essas duas tecnologias constitui-se em uma excelente escolha em favor do conceito das cidades inteligentes.

  • LUAN BRUNO BARBOSA DE SOUZA COSTA
  • Criação e Avaliação de um Ambiente de Análise de Riscos de Fraudes em Contratos Públicos
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Dec 19, 2023
  • Dissertação
  • Show resume
  • Contexto: O gerenciamento de recursos públicos está sujeito a atos ilegais, que privam a sociedade de usufruir desses recursos em sua integralidade. A identificação de tais atos, por sua vez, depende da análise de uma grande quantidade de dados. Objetivo: O objetivo do presente trabalho é a criação e avaliação de uma ferramenta capaz de reduzir o escopo de busca por irregularidades, por meio de sinalizações de possíveis fraudes (redflags) em contratos firmados pelo estado, no contexto dos servidores do Grupo de Atuação Especial de Combate ao Crime Organizado (GAECO) do Ministério Público do Estado de Sergipe (MPSE). Metodologia: Utilizando a metodologia de pesquisa-ação, o que incluiu a realização de um mapeamento sistemático, uma lista de tipologias de risco de fraude foi identificada e automatizada na aplicação Galactus Snitch, a qual foi avaliada por meio de uma pesquisa qualitativa. Resultados: O mapeamento sistemático realizado identificou 19 trabalhos segundo os critérios informados, no qual cerca de 80% destes buscavam indicar algum tipo de fraude em processos licitatórios, obtendo acurácias entre 72% e 99%, com diferentes técnicas para abordar o problema. A partir de então, o Galactus Snitch foi desenvolvido e o survey aplicado revelou uma alta aceitabilidade da ferramenta, para a qual 66.7% dos servidores afirmaram concordar totalmente que o sistema é capaz de reduzir em mais de 90% o escopo de busca por irregularidades, ao apontar possíveis esquemas fraudulentos. Além disso, 91.7% dos servidores afirmaram também concordar totalmente que as tipologias identificadas são de grande relevância para que o sistema atinja o objetivo esperado. Conclusões: Utilizando análise de dados de diferentes fontes de informação, o trabalho apresenta uma importante contribuição para o processo de identificação de esquemas fraudulentos em contratos públicos, à medida que, segundo os entrevistados, é capaz de reduzir o escopo de busca por fraudes.

  • IGOR LOPES SOUZA
  • Acquisition of electrocardiogram signals and cardiac arrhythmia detection using neural networks
  • Advisor : DANIEL OLIVEIRA DANTAS
  • Data: Dec 19, 2023
  • Dissertação
  • Show resume
  • Electrocardiography is a frequently used examination technique for heart disease diagnosis. Represented by the test called an electrocardiogram (ECG), electrocardiography is essential in the clinical evaluation of athletes, risk patients who need surgery, and also those who have heart disease. Through electrocardiography, doctors can identify whether the cardiac muscle dysfunctions presented by the patient are of inflammatory or degenerative origin and early diagnose serious diseases that primarily affect the blood vessels and the brain. Thus, the objective of this project is to develop a prototype capable of capturing, analyzing, and classifying a patient's electrocardiogram signals for the detection and prevention of cardiac arrhythmia in clinical patients.

  • WESCKLEY FARIA GOMES
  • Análise Exploratória e Experimental de Aplicações de Inteligência Artificial para Classificação de Descrições Incongruentes em Compras na Área de Saúde Pública
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Dec 13, 2023
  • Dissertação
  • Show resume
  • Contexto: O setor de Órteses, Próteses e Materiais Especiais (OPME) na área da saúde apresenta uma ampla variedade de produtos e tecnologias, envolvendo tanto empresas multinacionais quanto locais. Apesar dos avanços tecnológicos, muitos serviços e sistemas de informação, especialmente no setor público, ainda utilizam descrições não estruturadas em linguagem natural de produtos, serviços ou eventos, dificultando suas classificações e análises. Todavia, para auditorias eficientes, é necessário classificar e totalizar automaticamente faturas emitidas para compra de produtos. Desta forma, a falta de padronização na nomenclatura na comercialização de OPMEs, não apenas dificulta a comparação dos produtos, seja para uniformização de preços ou padronização de uso, mas também abre espaço para possíveis atos de corrupção. Objetivo: Para mitigar o problema de padronização e codificação ineficazes, desenvolver e avaliar a eficácia e eficiência de um classificador de OPMEs, no contexto de descrições de notas fiscais eletrônicas, do ponto de vista de auditores, profissionais de saúde e cientistas de dados. Método: Inicialmente, foi realizado um Mapeamento Sistemático (MS), como forma de identificar e caracterizar as abordagens e técnicas de inteligência artificial para a classificação automática de descrições textuais incongruentes em notas fiscais. Em seguida, foi implementada uma ferramenta baseada em inteligência artificial, o OPMinEr, para classificar notas fiscais de OPMEs. Ato contínuo, foi realizado um experimento controlado para avaliar os algoritmos de Inteligência Artificial (IA) mapeados. Resultados: A estratégia de busca utilizada no mapeamento sistemático selecionou 225 artigos, os quais passaram pelos critérios de inclusão e exclusão. Dentre as abordagens encontradas para resolução do problema de descrições textuais incongruentes, o destaque foi para o aprendizado de máquina supervisionado, presente em 60% dos trabalhos. Já no experimento controlado, considerando a significância estatística, o algoritmo Linear Support Vector alcançou uma acurácia de 99% e se destacou dentre os demais. Em termos de eficiência, o algoritmo Naïve Bayes Multinomial se destacou, tendo o tempo médio de treinamento mais rápido, com 4,375 segundos. Conclusão: Os resultados mostraram que é possível identificar e classificar OPMEs em notas fiscais de forma automática. Isso permite uma análise mais precisa e eficaz de indícios tais como, por exemplo, preços anomalamente altos e quantidades de OPMEs compradas por habitante, os quais são analisados pela Auditoria do Sistema Único de Saúde (AudSUS), Ministério da Saúde - Brasil, para identificação de potenciais irregularidades e contribuição para a transparência e eficiência na gestão de recursos da área da saúde.

  • ÁLEX DOS SANTOS MOURA
  • Recommendation of Microservices Patterns Through Information Retrieval
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Dec 1, 2023
  • Dissertação
  • Show resume
  • Software development inherently involves solving recurring design problems, which can negatively affect the quality attributes of a system. These problems are commonly solved through the application of design patterns – proven solutions forged by experienced developers. Microservices architecture, a variant of Service-Oriented Architecture, is on the rise, with giants like Amazon, eBay and Netflix adopting this approach. In this architectural style, systems are composed of microservices that communicate through messages. Each microservice has a specific responsibility and is deployed, scaled, and tested independently. Design patterns used to solve design problems present in microservices-based systems are called microservices patterns. Solving design problems is theoretically simple, the developer only needs to select design patterns and apply them. However, in practice, both beginners and experienced developers have difficulty selecting design patterns, the reasons for this difficulty are: the substantial number of design patterns and limited knowledge. Thus, the overall goal of this work is to provide a way to help developers select the right microservices pattern to solve a given design problem. This work was developed through the research methodology called Design Science Research, which proposes the development of Information Technology artifacts to solve real-world problems. Initially, a recommendation approach based on Information Retrieval was proposed to make recommendations for microservices patterns, where the developer can report a design problem, in natural language (text), and receive recommendations for microservices patterns that can solve the design problem reported. Overall, testing using a set of toy design problems showed that the recommendation approach was able to solve 60% of design problems and that there is room for improvement as 40% of design problems were not solved. This approach was then used in a tool called Floc. This tool has a friendly user interface where the developer can manage design issues and get microservices pattern recommendations for them. The tool was evaluated using industrial design problems and demonstrated promising results. Furthermore, interviews with industry developers corroborated the effectiveness and practicality of the recommendation tool.

  • LEONARDO ARAUJO ZOEHLER BRUM
  • PATRICIA: um sintetizador de canto em tempo real para o português brasileiro
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Nov 17, 2023
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O presente trabalho descreve o desenvolvimento de PATRICIA (acrônimo para Programa que Articula em Tempo Real o Idioma Cantado Inscrito em Arquivo) um sistema que realiza a síntese de canto em tempo real para o português brasileiro. Um mapeamento sistemático foi conduzido a fim de prover diretrizes para o projeto e implementação de PATRICIA. O mapeamento incidou a escolha da abordagem de síntese concatenativa baseada em samples e arquivos de texto provendo a letra da canção antecipadamente para prover os fonemas. De acordo com tais diretrizes, uma versão inicial do sintetizador foi implementada na linguagem SuperCollider, a título de prova de conceito. Na implementação, a articulação fonética foi feita em conjunto com o controle das qualidades básicas dos sons musicais: altura, intensidade, duração e timbre. Experimentos foram conduzidos no intuito de demonstrar as capacidades musicais do sistema e perfazer uma análise comparativa de seu desempenho em um computador pessoal e num dispositivo Raspberry Pi. Tais experimentos validaram a prova de conceito, demonstrando a viabilidade da ideia, sobretudo em termos de desempenho, que mostrou indicadores excelentes em ambas as plataformas. Algumas melhorias são apontadas no intuito de que o sintetizador supere suas atuais limitações em versões futuras

  • MARCUS VINICIUS SANTANA POLETTI
  • UMA ANÁLISE EXPLORATÓRIA E PRÁTICA DO USO DE ETL EM PORTAIS DE TRANSPARÊNCIA
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Aug 30, 2023
  • Dissertação
  • Show resume
  • Contexto: Os portais de dados abertos são construídos com base em processos ETL (Extract, Transform and Load), os quais aumentam a qualidade e interoperabilidade dos dados, perfazendo um subsistema crítico para estas aplicações, passível de pesquisas avaliativas para melhorias. Objetivo: Analisar publicações sobre o uso de ETL em portais de transparência, a fim de caracterizá-las quanto aos seus cenários, impactos, métodos empíricos e dados bibliométricos gerais. A partir dessa caracterização, desenvolver e avaliar um módulo ETL para um portal de transparência, comparando-o qualitativamente com módulos desenvolvidos em duas ferramentas ETL amplamente usadas no mercado. Adicionalmente, foi feita uma análise das eficiências dos procedimentos de carga gerados pelos 3 tratamentos avaliados. Método: Utilizando a estratégia PICO (População, Intervenção, Comparação e Resultado), foi realizado um mapeamento sistemático da literatura. Além disso, foi executada uma Pesquisa-Ação para construção de procedimentos ETL do Anuário Econômico de Sergipe. As ferramentas avaliadas durante o processo de desenvolvimento foram: (1) Pentaho Data Integration - Kettle, Open Source, e (2) SQL Server Integration Services - SSIS, Closed Source, contra (3) um código ETL construído na linguagem Python. Resultados: De um total de 204 publicações pesquisadas, foram selecionados 25 trabalhos, dos quais 40% apresentam, como principal impacto para os portais, a disponibilidade de suporte para construção de cargas por meio de uma interface gráfica, seguida da possibilidade de conectividade entre bases de dados heterogêneos (27%) e capacidade de monitoramento de cargas (22%). Em relação à automação real de cargas e seu controle de qualidade, respectivamente, apenas 8% e 3% dos trabalhos discutiram os impactos dessas características. No que concerne à pesquisa-ação, foram encontradas evidências de destaque da ferramenta Kettle, do ponto de vista da usabilidade e eficiência de desenvolvimento por meio de interface gráfica, bem como do ponto de vista da curva de aprendizagem. Na sequência, vieram a linguagem de programação Python e a ferramenta SSIS. Em relação à eficiência, a mensuração do tempo de carga mostrou um melhor desempenho da linguagem Python, seguida do Kettle e do SSIS. Conclusão: O trabalho mostrou que o uso de ETL em portais de transparência ainda carece de estudos comparativos e de viabilidade. Nesse sentido, um desafio existente é a escassez de pesquisas que realizem replicações para consolidar e validar os trabalhos já publicados, evidenciado pela insufuciência de experimentos controlados na área. Além disso, análises sobre o controle de qualidade das cargas foi uma importante lacuna identificada. Por fim, definidas as prioridades contextuais de portais de transparência, como por exemplo a eficiência das cargas ou a eficiência de desenvolvimento, a avaliação sistematizada de soluções disponíveis, tal como a proposta nesta dissertação, norteia situações de trade-off e seleção do melhor custo-benefício.

  • JOSIMAR DOS SANTOS
  • Análise de Arquitetura baseada em nuvem utilizando protocolo MQTT para letramento em Braille
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Aug 30, 2023
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Este estudo aborda a relevância da tecnologia na educação inovadora, especialmente para pessoas com deficiência visual. O objetivo central é apresentar uma arquitetura baseada em tecnologia em nuvem que integra um dispositivo tátil de leitura com um display Braile, tornando a aprendizagem do Braile mais acessível. A arquitetura proposta centraliza o processo de conversão de texto em Braile na nuvem, usando comandos de voz enviados e processados por uma API, disponível no github 1, para transformar o texto em caracteres Braile exibidos no dispositivo. Essa abordagem oferece uma experiência de uso intuitiva e otimiza os custos ao recorrer ao protocolo de comunicação MQTT. Ao permitir que indivíduos com deficiência visual leiam os caracteres por meio da sensibilidade tátil, a tecnologia proposta promove inclusão e participação ativa no processo educacional. O estudo detalha aspectos conceituais relacionados às pessoas com deficiência, a Internet das Coisas, computação em nuvem, modelagem 3D e a cultura maker, além de descrever o uso do Arduino no dispositivo. A metodologia de pesquisa adotada é apresentada, seguida pela exposição da arquitetura proposta e seus resultados discutidos. O estudo conclui que a solução prática e acessível pode facilitar o aprendizado do Braile e a leitura para pessoas com deficiência visual, contribuindo para uma sociedade mais inclusiva. As considerações finais abordam insights e possíveis direções para trabalhos futuros, e as referências bibliográficas fundamentam o estudo, garantindo uma análise abrangente e embasada sobre o projeto em questão.

  • ANA CARLA DO NASCIMENTO SANTOS
  • Sistema de Informação Executivo para Gestão de Ativos por meio de Modelagem de Processos de Negócios
  • Advisor : GILTON JOSÉ FERREIRA DA SILVA
  • Data: Aug 23, 2023
  • Dissertação
  • Show resume
  • Asset Management (AM) garante que os ativos sejam adequadamente adquiridos, utilizados, mantidos, renovados, atualizados e descartados, fornecendo suporte às operações da organização. Isso envolve a aplicação de práticas, políticas e processos para maximizar a eficiência operacional, minimizar riscos, atender aos requisitos legais e regulatórios, e proporcionar valor sustentável aos stakeholders. Diante disto, este trabalho assumiu o processo de AM do Departamento de Obras do Tribunal de Justiça do Estado de Sergipe (TJSE). Para este estudo, foram utilizadas referências teóricas da literatura sobre: Sistemas de Informação (SI), AM, Business Process Management (BPM), Business Process Managementl and Notation (BPMN). Ao modelar o cenário atual (as is) do departamento de obras do TJSE, foi identificado que o gerenciamento de ativos é realizado de forma estratégica utilizando planilhas de Excel, o que pode ser um processo moroso e propenso a erros. Afim de otimizar e agilizar o processo de gerenciamento de ativos por meio da automatização de tarefas e fluxos de trabalho utilizando a notação BPMN, o Sistema de Informação Excecutivo (SIE) foi modelado, documentado e validado fazendo uso do Goal Question Metric (GQM), por dois serviços públicos do Estado de Sergipe, o Tribunal de Justiça e a Secretaria de Educação. Tornando apto ao desenvolvimento, tendo em vista o resultado satisfatório do questionário aplicado aos dois serviços. O SIE permite uma visualização clara e intuitiva dos processos, facilitando a tomada de decisões e melhorando a eficiência operacional do departamento. Além disso, possibilita o armazenamento centralizado de informações, o compartilhamento de dados entre as equipes e a geração de relatórios automatizados. Trazendo benefícios significativos para o Departamento de Obras, incluindo redução de erros, agilidade no acesso às informações, otimização de recursos e melhoria na tomada de decisões estratégicas. O uso do BPMN como base para o sistema garante uma representação visual compreensível dos processos, facilitando a colaboração entre as equipes e promovendo uma gestão mais operativa dos ativos do Tribunal de Justiça de Sergipe.

  • LUCAS DOS SANTOS NUNES
  • Visualização. Interação e Analise de dados do COVID-19 no Sistema Prisional prisional
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Aug 22, 2023
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: A pandemia por coronavírus recém-identificada, mais tarde denominada como COVID19, é altamente transmissível e patogênica. Uma preocupação adicional neste contexto refere-se à entrada e disseminação da doença nas prisões brasileiras, cujas condições de encarceramento no país são celas superlotadas e mal ventiladas, o que torna esses ambientes extremamente suscetíveis à rápida disseminação da doença.

    Objetivo: Analisar os dados do COVID-19 no sistema prisional a fim de caracterizar seu uso em termos de fontes, finalidade e disponibilidade de dados.

    Método: Apresentar a elaboração de um mapeamento sistemático, com o intuito de identificar publicações relacionadas ao COVID-19 no sistema prisional que utilizam registros do Departamento de Informática do Sistema Único de Saúde (DATASUS) e como estão sendo tratados. Em seguida, é feita a coleta de informações do COVID-19 e de outras doenças no estado da Bahia, Brasil, onde serão processadas e armazenadas. O intuito é converter estes dados patológicos em um painel visual, denominado como dashboard, ou seja, uma representação da pandemia por meio de atributos visuais de fácil compreensão, como gráficos, histogramas e mapas geográficos. O painel será desenvolvido com a colaboração de heurísticas de Nielsen e testes de usabilidade com participantes convidados, para que possam auxiliar pesquisadores e organizações interessadas, principalmente na área da saúde e da computação. E por fim, algoritmos de Machine Learning (ML) foram usados para prever a propagação dessas doenças, com o objetivo de ajudar os responsáveis a tomarem ações emergentes.

    Resultados: Foram revisadas 125 publicações, das quais 29 foram identificadas como relevantes em relação aos objetivos do mapeamento sistemático realizado. Em seguida, foram encontrados mais 8 trabalhos por meio da técnica de Forward Snowballing (FS), totalizando 37 estudos. Enquanto aos experimentos com ML, os modelos de Regressão Polinomial obteve as melhores aferições com os dados do DATASUS. Os resultados apontam para tendências e necessidades de pesquisas sobre o assunto, pois a ideia é auxiliar na redução da taxa de mortalidade por COVID19 e outras doenças. Já as contribuições feitas pelos participantes dos testes vêm obtendo importância para o desenvolvimento do dashboard, para assim compreendermos melhor o seu funcionamento, além da possibilidade de aperfeiçoá-lo ainda mais.

  • JONATHAN SANTOS CUNHA
  • Optimizing Fog Service Placement with R3GP: A Rotation-Guided Greedy Genetic Particle algorithm
  • Data: Aug 17, 2023
  • Dissertação
  • Show resume
  • O paradigma Fog Computing surgiu como uma solução complementar à Cloud para levar o processamento de aplicações para dispositivos edge, perto dos dispositivos IoT. Entretanto, a capacidade limitada dos nós edge lança alguns desafios no gerenciamento dos recursos disponíveis para as aplicações distribuídas. O service placement em Fog Computing é um problema NP-completo que consiste no gerenciamento da decisão de qual nó da Fog o serviço de uma aplicação IoT será executado. Se não houver recurso suficiente na Fog, a aplicação é enviada para a Cloud. Este trabalho consiste na otimização do Fog Service Placement Problem para execução de aplicações IoT para ajudar a prevenir colisões de veículos em vias urbanas. O problema é formulado como um modelo Integer Linear Programming para otimização de cinco funções objetivos: makespan, energy consumption gap, CPU load-balancing, memory load-balancing e bandwidth load-balancing. Neste trabalho é proposto um algoritmo para otimização do problema, denominado Rotation-Guided Greedy Genetic Particle (R3GP). O estudo é conduzido com um experimento in silico que compara o algoritmo com outros encontrados na literatura. Os resultados estatísticos mostram que o R3GP consegue superar os algoritmos comparados, principalmente, na otimização da métrica energy consumption gap.

  • ANTONIO JOSÉ ALVES NETO
  • Desenvolvimento e Avaliação de Desempenho de um Cluster Raspberry Pi e Apache Hadoop em Aplicações Big Data
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Apr 20, 2023
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Atualmente, com o exponencial avanço da tecnologia, uma grande quantidade dados é gerada diariamente. Dados esses que não são gerados apenas por pessoas. Uma gama de equipamentos eletrônicos também tornaram-se grandes geradores, onde esses grandes volume de dados são conhecidos como Big Data e produzem informações valiosas e úteis para business intelligence, previsão, suporte à decisão, dentre outras possibilidades. Entretanto, o processamento desse grande volume de dados requer uma abordagem computacional diferente da tradicional, chamada de Computação de Alta Performance ou High Perfomance Computing - HPC. Ao longo dos anos, a HPC vem sendo obtida graças à utilização de supercomputadores ou através de clusters computacionais. O primeiro deixou de ser uma opção pelo seu alto custo e difícil de manutenção, deixando a ``clusterização'' como a alternativa perfeita. Os clusters são sistemas fracamente acoplados, formados por um conjunto de computadores que trabalham em colaboração uns com os outros, usando bibliotecas de troca de mensagens. Além disso, os clusters} formados por Computadores de Placa Única (Single Board Computer - SBC) são uma alternativa viável para o desenvolvimento de pesquisas nessa área. Dentre os computadores de placa única, destaca se a Raspberry Pi, um SBC desenvolvido inicialmente para promover o ensino da ciência da computação. Sua variedade de modelos permite atender a diversas necessidades específicas e não requer grandes investimentos.
    Para operacionalização e processamento desse grande volume de dados em um cluster, faz-se necessário a instalação de uma plataforma de big data, sendo o Apache Hadoop uma das mais difundidas disponíveis atualmente. Desta forma, uma boa solução para se obter um cluster big data de baixo custo é utilizar a Raspberry Pi como estrutura de hardware e o Apache Hadoop como plataforma Big Data. No entanto, a falta de um material detalhado explicando todas as etapas da instalação, o processo de configuração e, por fim, a certificação de que o cluster Hadoop está funcionando corretamente é um problema pouco explorado pela comunidade acadêmica. Além disso, o monitoramento de recursos do cluster também é um problema que é pouco abordado pela academia. Partindo dessa problemática, este trabalho tem como objetivo, o desenvolvimento e avaliação de desempenho de um cluster big data de baixo custo utilizando Raspberry Pi, como estrutura hardware de baixo custo e o Apache Hadoop como plataforma de Big Data. A avaliação do mesmo será feita utilizando benchmarks difundidos na área Terasort e TestDFSIO, além de acompanhar e monitorar o uso dos seus recursos utilizando as ferramentas Zabbix e Grafana, provendo um material completo e detalhado de todo esse processo.

  • JALISSON TAVARES COSTA
  • Práticas de Governança de TIC e Tecnologias 4.0 no apoio à tomada de decisão em Cidades Inteligentes Brasileiras diante da pandemia COVID-19
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: Feb 28, 2023
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Diante de um cenário de incertezas catalisadas pela pandemia COVID-19, a tomada de decisão dos Gestores de TIC em cidades inteligentes tornaram-se imprescindíveis para o desenvolvimento tecnológico do município. O presente estudo analisa os efeitos das práticas de Governança de TIC e o uso de Tecnologias 4.0 na tomada de decisão do gestor de TIC em cidades brasileiras consideradas inteligentes diante cenário de pandemia COVID-19. Para tanto, foram selecionados 39 municípios com base em classificações de cidades inteligentes brasileiras, e realizada a coleta de dados por meio do sistema eletrônico de atendimento ao cidadão (e-SIC) e aplicação de survey com os Gestores de TIC. Dos resultados alcançados, destaca-se o uso de ITIL e PDTIC como as práticas de Governança de TIC mais utilizadas e o uso de Business Intelligence e Cloud Computing como recursos mais utilizados das Tecnologias 4.0. Além disso, verificou-se a necessidade de desenvolvimento de cultura de planejamento e a necessidade de capacitação interna dos profissionais diante de novos recursos tecnológicos. Em relação ao uso de sistemas de apoio à decisão, nota-se que apenas 40% dos gestores fazem uso desse recurso. Ficou esclarecido que tanto as práticas de governança de TIC quanto o uso de Tecnologias 4.0 surtem efeitos positivos, se usados de maneira holística em conformidade com os objetivos estratégicos do município. É imprescindível que a alta administração dos municípios vislumbrem a importância de efetivar investimentos constantes tanto na infraestrutura, quanto na capacidade técnica dos profissionais, prevalecendo a eficiência e eficácia do uso da TIC.

  • MAIANE DE CASTRO SANTOS
  • Levantamento de Requisitos para Internet das Coisas na Saúde com Ênfase em Segurança da Informação
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Feb 15, 2023
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Os avanços tecnológicos no âmbito da informação, têm contribuindo de forma significativa em diversos setores, de modo que estes novos aparatos, ampliem a cada dia as possibilidades de otimização em vários dos seus produtos, através da interação entre sistemas de software e usuários. A atual realidade tecnológica que envolve IoT, envolve também coleta e gerenciamento de grandes volumes de dados, através de uma crescente rede de dispositivos e sensores. Entretanto, a grande quantidade de dados gerados por objetos IoT, tende a significar uma séria ameaça à privacidade e segurança dos usuários, já que suas atividades podem ser monitoradas a qualquer hora, em qualquer lugar. No contexto da IoT em saúde, na contramão da praticidade e funcionalidade, o risco de ataques cibernéticos direcionados a aplicativos mHealth pode comprometer a disponibilidade e integridade das informações do paciente, prejudicando a mobilidade do atendimento e, às vezes, ameaçando a vida dos pacientes se as decisões forem tomadas com base em informações inválidas. Frente a esta demanda, o objetivo macro deste trabalho é o de desenvolver um modelo de boas práticas para o levantamento de requisitos de Software voltados para segurança em Internet das Coisas aplicada à saúde.

2022
Description
  • FILLIPE ALMEIDA PAZ
  • Planejamento de Rotas Veiculares e Otimização de Mobilidade Urbana Utilizando Algoritmo Bioinspirado e Paralelo
  • Data: Dec 16, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A concentração da população mundial nas áreas urbanas tem imposto desafios à qualidade de vida dos cidadãos. Congestionamentos, aumento da poluição atmosférica, desperdício de recursos naturais e redução da produtividade do cidadãos são alguns exemplos de prejuízos decorrentes da mobilidade precária nas cidades. Simultaneamente, tecnologias inerentes às cidades inteligentes podem ajudar na mitigação desses efeitos, melhorando a qualidade de vida nas cidades e fomentando um ambiente mais sustentável ambiental e economicamente. Mecanismos e ferramentas de coleta, como nós sensores; análise de dados, como modelos de predição; e, transmissão de dados, como redes veiculares e celulares, fazem parte do arcabouço das cidades inteligentes e podem auxiliam na tomada de decisão de forma a otimizar os recursos. Contudo, ainda que a quantidade de dados a respeito a situação do tráfego urbano seja considerável, o planejamento dinâmico de rotas veiculares que leve em consideração uma grande quantidade de vias e veículos é limitado pelo custo computacional envolvido.

    Nesse contexto, este trabalho tem por objetivo avaliar experimentalmente o impacto de roteamento veicular dinâmico sobre métricas relativas à mobilidade urbana. Foram experimentados algoritmos heurísticos, clássicos e bio-inspirados sob diferentes condições de fluxo viário, com ênfase no PPUMO (Parallel and Pheromone-based Urban Mobility Optmization), algoritmo para roteamento veicular proposto neste trabalho. Além disso, será proposta uma arquitetura de comunicação e processamento que utiliza o 5G para a transmissão dos dados necessários aos replanejamentos. A metodologia de análise dos resultados utilizou tanto do teste de hipóteses quanto de análise gráfica aplicados às métricas coletadas.

    Ficou evidenciado que o PPUMO foi capaz de produzir os melhores resultados dentre os tratamentos analisados com relação às métricas Timeloss (redução de até 27.8%, em média); Trip Duration (redução de até 28.4%, em média); Jams (redução de até 73.9%, em média) para condições de elevada carga no sistema de tráfego. Foi possível constatar ainda que o PPUMO chegou a reduziu da ordem de 100 s para 10-4 s o tempo de replanejamento de rotas se comparado aos algoritmos seriais. Especialmente com relação ao tempo de viagem dos veículos, ele apresentou-se como a melhor escolha uma vez que diferenciou-se estatisticamente e apresentou menor mediana em 4 das 5 condições de carga avaliadas, dentre todos os algoritmos experimentados. Finalmente, com relação ao comprimento de rota, o PPUMO alcançou resultados menores ou próximo do menor se comparado ao caso base e distanciou-se das abordagens que realizaram replanejamento de rotas em até 32.4%, em média.

    Entre as contribuições esperadas para este trabalho estão: a identificação pontos positivos e fraquezas associadas ao uso de roteamentos dinâmicos baseados em algoritmos determinísticos ou probabilísticos, clássicos, bioinspirados ou metaheurísticos; uma arquitetura de roteamento veicular dinâmico que prevê o uso de redes 5G V2X para a transmissão de dados em um Sistema Inteligente de Transporte. É esperado também que o procedimento experimental aqui adotado, que utiliza testes de hipóteses como arcabouço ferramental e teórico, seja replicável para outros trabalhos no âmbito de simulações de mobilidade urbana. Por fim, intenciona-se que as implementações deste trabalho sirvam como artefato de software para o desenvolvimento de soluções para a redução de congestionamento em sistema de tráfego urbano.

  • DANILLO SIQUEIRA RAMOS
  • A Bottom Up Approach for Modeling Business Process using 'Time Petri Nets
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Nov 25, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • UML is considered a de facto standard software modeling language, offering a wide range of diagrams that provide engineers with a detailed view of various aspects of the modeled software.With the UML, it is possible to model business processes, data models, use cases, activities, user scenarios, among others, providing a high level of abstraction. Despite offering many types of diagrams, UML is not free from semantic inconsistencies, ambiguities, or inappropriate notations. Such problems end up creating misinterpretations of UML diagrams, becoming obstacles in the construction of reliable software and adoption of an architecture that is suitable for the project. One way to mitigate these gaps left by the UML is the use of formal methods, such as Petri Nets, for modeling systems. Using formal methods allows, among other advantages, to simulate
    the behavior of the modeled system and analyze its properties. In addition, the use of formal methods helps in choosing the appropriate architectural components for the software, which satisfactorily meet your needs. In this dissertation, the formal method used to develop the models is the Time Petri Nets. For modeling an overview of the system, smaller models representing each microservice were modeled, and later joined using a bottom-up approach. To investigate in the literature which is the most used and most suitable type of Time Petri Nets, a systematic mapping was carried out on the state of the art of the last two decades (2001-2021), in which it was found that Petri Nets with time associated with its transitions are the most used. After the investigation, an industry case study was conducted in order to verify the behavior and analyze the properties of the models in Petri Nets with time associated with transitions on a microservices architecture.
    Activity diagrams and UML Use Cases of the Electronic Document Management System were transcribed to diagrams in Petri Nets with time associated with their transitions. The system uses the microservices architecture, in which small services are implemented that perform a single task and communicate with each other through asynchronous messages. From transcribed models, their properties were analyzed and microservices behavior modeled in Time Petri Nets was verified. In addition, it was also possible to observe software timing problems and identify bottlenecks, which helped in the choice of appropriate architectural components for the software

  • THIAGO JOSÉ SANDES MELO
  • Análise de Desempenho do Mobile Blockchain em Arquitetura de Computação de Borda Móvel
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Oct 26, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O blockchain é um sistema que permite rastrear o envio e recebimento de alguns tipos de informação pela internet. São pedaços de código gerados online que carregam informações conectadas – como blocos de dados que formam uma corrente. À medida que a tecnologia blockchain continua a evoluir, ela tem oportunidades cada vez maiores de ajudar as aplicações para dispositivos móveis com sua rede segura. Isso é interessante para a segurança móvel, visto que tornou-se cada vez mais importante devido ao crescimento do uso dos aplicativos móveis para transações financeiras. Neste trabalho, vamos prover uma visão geral do estado corrente da pesquisa relacionada à avaliação de desempenho e aplicação de mobile blockchain, investigando problemas encontrados, benefícios e fraquezas, escopo alvo das iniciativas e tecnologias empregadas. Ademais, é realizado um estudo de benchmark do blockchain em dispositivos móveis, ilustrando seu processo com o auxílio da arquitetura que permite a melhor performance do blockchain em dispositivos móveis: com o uso da computação de borda. Com esse benchmark, no que se refere ao desempenho conseguido, é possível comparar a diferença do uso do blockchain em uma arquitetura de computação de borda móvel e sem essa arquitetura, validando que adicionar computação de borda ao processo de mineração do mobile blockchain aumenta sua eficiência. Também é ilustrada uma aplicação do mobile blockchain em um sistema simples de votação eletrônica, colocando em evidência a implementação do blockchain em dispositivos móveis.

  • RAFAEL ANDRADE DA SILVA
  • A Resource Constrained Pipeline Approach to Embed Convolutional Neural Models (CNNs)
  • Advisor : BRUNO OTAVIO PIEDADE PRADO
  • Data: Aug 31, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • The objective of autonomous driving edge computer systems is to ensure the safety of Autonomous Vehicles (AV). However, this is extremely difficult. Advanced Driver Assistance Systems (ADAS) are of great importance in AV systems, as they increase the level of safety in vehicles. As vehicles become more connected, some ADAS features can be improved with the cooperation of the surrounding vehicles. For example, cooperative adaptive cruise control or a lane departure warning for all vehicles in the vicinity. Traffic Signal Detection and Recognition (TSDR) is a recent technology applied to intelligent driving responsible for identifying and recognizing traffic signs in the images captured by the vehicle's sensors. TSDR systems have a wide range of applications. However, many of the proposed techniques use solutions based on expensive devices and are unsuitable for large-scale and low-cost edge computing solutions. Implementing these systems on OEM embedded platforms will provide the opportunity to create genuinely cost-effective and low-energy systems.
    In order to contribute to this research area, our study proposes not only the development of a convolutional neural network capable of performing the classification of vertical traffic signals but also the creation of a neural model compression pipeline. Based on the literature and experiments located through a systematic review, we chose to use the GTSRB dataset to evaluate the work. The pipeline has three stages: knowledge distillation, pruning, and quantization of neural models. The goal is to reduce the complexity of the final neural network, thus allowing the model to be embedded in a device with limited computational resources. The final models are evaluated considering performance metrics such as accuracy, precision, recall, F1-Score, inference time, and model size in bytes.
    Using the proposed methodology, our compressed CNN model achieved an accuracy of 85.91% and an F1-Score of 85.80%. The final model size was only 59 KB and the inference of a color image with a resolution of 32x32 pixels took only 80 ms to run in ESP32 and 83 ms to run in ESP32-S2, demonstrating the capability of this resource-constrained device to detect an image with a reasonable accuracy rate.

  • MARIANO FLORENCIO MENDONÇA
  • E-LITESENSE EM REDE DE SENSORES SEM FIO COM CLUSTER EM CONTROLADOR EXTERNO
  • Advisor : KALIL ARAUJO BISPO
  • Data: Aug 30, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A Internet das Coisas é um conceito em tecnologia que está em crescimento constante devido a quantidade de serviços que podem ser oferecidos, e gerenciar uma rede de sensores sem fio (RSSF) tem sido um dos desafios para comunidade. Atualmente não só computadores estão conectados à internet, como também há uma grande heterogeneidade de equipamentos. Trabalhar esta rede de sensores heterogêneas de baixo processamento e coeficiente eficiência energética encaixam-se em diversos estudos, dentre eles o e-LiteSense, sendo um protocolo que controla a comunicação do nó sensor conforme o nível energético. Outra técnica que visa gerenciar a comunicação da RSSF é organizar esta rede em clusters, que gera maior processamento para o sensor responsável por receber a informação dos demais e transmitir para a estação base. Dessa forma, motivado pelas questões envolvendo as RSSFs, esta pesquisa objetiva desenvolver um controlador externo responsável controlar rede cluster virtual de sensores sem fio otimizando com implementação de e-LiteSense, atualizando seus parâmetros internos em tempo de execução. O protocolo de comunicação MQTT (\textit{Message Queue Telemetry Transport}) servirá para recepção e envio das informações da rede de sensores sem fio. Este trabalho preenche lacunas envolvendo o controle da comunicação nas RSSFs e gerenciamento da mesma a partir de um ambiente externo.

  • HELIO CARDOSO DE MOURA FILHO
  • Avaliação de Fog Computing para suporte a sistemas de localização interna de equipamentos hospitalares
  • Data: Aug 29, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O hospital é um local com grande fluxo de pessoas e vários tipos de pessoal. O Hospital inteligente baseado em sistemas IoT pode proporcionar uma gestão muito mais eficiente e refinada para pessoas e regiões da área hospitalar, além de atender às necessidades de informações médicas de saúde como uso de equipamentos e suprimentos médicos e gestão inteligente e monitoramento da segurança de saúde pública. Não há dúvida de que a tecnologia IoT tem grande potencial na área médica podendo ajudar os hospitais a realizar um tratamento médico inteligente e a administrar as coisas. Desta forma, com objetivo de implementar os benefícios supracitados, o presente trabalho propõe a análise de uma arquitetura em 5 (cinco) camadas com uso da Fog Computing para gerenciar/monitorar os equipamentos hospitalares, tendo como propósito facilitar a localização interna desses equipamentos e consequentemente reduzir custos e esforços que poderiam ser empregados em outras atividades de atendimento de saúde.

  • JACKSON TAVARES DA COSTA
  • Avaliação de Desempenho e Problemas de Envelhecimento de Software em Clusters de Contêineres
  • Data: Aug 26, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Com o aumento das implementações em nuvem dos mais variados serviços por diversas companhias nos últimos anos, foram elevadas significativamente as demandas dos provedores por arquiteturas robustas, escaláveis e complexas, necessitando também de requisitos essenciais como confiabilidade, desempenho e disponibilidade. Com isso, tecnologias baseadas em virtualização de contêineres tem ganhado muito destaque. Em contrapartida, com o significativo aumento na utilização de contêineres comportando os serviços, surge também a necessidade de ferramentas de gerenciamento visando controlar as tarefas de automatização de implantação, processamento, escalonamento e operações gerais dos aplicativos. Para esta finalidade, o Kubernetes tem sido a ferramenta mais utilizada devido a sua eficiência na orquestração de contêineres, também no ambiente de tempo de execução, além da sua maturidade e robustez. Diante disso, pretende-se avaliar o desempenho do Kubernetes, para verificar possíveis níveis de degradação ou falhas, visando detectar sinais oriundos do fenômeno de envelhecimento de software e propor abordagens de rejuvenescimento de software, com o objetivo de evitar repentinas interrupções no fornecimento dos serviços do Kubernetes.

  • YÚRI FARO DANTAS DE SANT'ANNA
  • Modelo Combinado e Interpretável para a Classificação de Células Leucêmicas
  • Advisor : DANIEL OLIVEIRA DANTAS
  • Data: Aug 26, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O problema de classificação de linfócitos é usualmente resolvido com o uso de técnicas de \textit{deep learning} como as rede neurais convolucionais com múltiplas camadas. No entanto, Essas técnicas necessitam de hardwares específicos e um longo período de treinamento. Este trabalho propõe um classificador de imagens leve capaz de distinguir os linfócitos saudáveis e cancerígenos de pacientes com leucemia usando processamento de imagem e extração de características aplicadas a algoritmos de aprendizagem de máquina que exijam menos tempo de processamento e sejam executáveis em uma CPU convencional. As características extraídas são informações estatísticas, morfológicas, de textura, de frequência e contorno extraídas de cada imagem e usada para o treinamento de um conjunto de algoritmos leves que classificam as células entre malignas e saudáveis. Após o treinamento, esses classificadores são combinados em uma solução conjunta que otimiza o resultado final. A técnica proposta possui custo computacional inferior à maioria das estratégias de aprendizagem profunda em tempo de execução e tamanho da RNA. Os resultados aqui expostos contribuem para a classificação de linfócitos demonstrando que é possível atingir alta performance com classificadores treinados com um conjunto diversificado de características. Por fim, com o uso da análise de componentes principais foi possível reduzir o número de características utilizadas mantendo a alta performance do classificador.

  • ARTUR SANTOS NASCIMENTO
  • Detecção e Descrição de Pontos de Controle em Imagens HDR
  • Advisor : BEATRIZ TRINCHAO ANDRADE DE CARVALHO
  • Data: Aug 26, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Na visão computacional, o termo característica se refere a regiões de imagens com propriedades especiais, tais como regiões com cantos, bordas, texturas ou áreas de alto contraste. Essas regiões também são chamadas de pontos de controle, do inglês, Control Points (CPs). Os detectores e descritores de CPs identificam características em imagens e são a base de diversas aplicações, tais como reconhecimento de objetos, reconstrução tridimensional de cenas, e sistemas biométricos. A maioria dos métodos de detecção e descrição de CPs utiliza imagens com baixa faixa dinâmica (low dynamic range, LDR), que são suficientes para a maior parte das aplicações que trabalham com imagens digitais. Entretanto, esse tipo de representação limita o intervalo dinâmico e não representa apropriadamente a luz em extremos de iluminação. Imagens de alta faixa dinâmica (high dynamic range, HDR) possibilitam a representação de uma maior variação de intensidades de iluminação. Como consequência, extremos de iluminação são melhor representados nas imagens HDR. Neste trabalho, investigamos o potencial do uso de imagens HDR em detectores e descritores de CPs. Para isso, desenvolvemos a biblioteca CP_HDR que implementa os algoritmos de detecção Harris e Harris for HDR, e os algoritmos de detecção e descrição SIFT e SIFT for HDR. Usando as métricas de uniformidade, repetibilidade, mean average precision e matching rate, comparamos o desempenho dos algoritmos implementados. Com isso, observamos que, ao usar imagens HDR com detectores especializados para imagens HDR, há um aumento na distribuição dos CPs detectados nas áreas mais escuras, intermediárias e mais claras das imagens. Por outro lado, a descrição produzida usando imagens HDR com os algoritmos originais proporcionaram uma descrição melhor dos CPs. Os resultados obtidos nos mostram que o uso de imagens HDR melhora a detecção de CPs em imagens com extremos de iluminação e que os algoritmos especializados para imagens HDR melhoram a detecção dos CPs.

  • VALDICELIO MENDES SANTOS
  • Design and Evaluation of an Architecture Conceptualization Framework System based on ISO/IEC/IEEE 42020
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Aug 25, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • From the software engineering point of view, among the difficulties
    for developing software-intensive systems are the necessity of managing and controlling
    data that must be held for decades, even considering the evolution of technology
    in the following years, as well as the necessity of cooperating with legacy systems
    and describing the needs and concerns of a variety of stakeholders. Therefore,
    developing software-intensive systems based on solid software architecture is a
    success factor that cannot be neglected. However, the processes related to the
    software architecture of software-intensive systems are often considered only
    from a low level of abstraction, even for a description of the software architecture.
    A recent architectural Standard, the ISO/IEC/IEEE 42020, defines 6 clauses for
    the architecture process, among them the Architecture Conceptualization process
    is the subject of this article. Given the importance of establishing a well-defined
    software architecture, considering the difficulties of understanding an
    architectural Standard, and also considering that ISO/IEC/IEEE 42020 has
    only recently been published, this work proposes a framework, and then the
    design and further evaluation of a web-based application to support
    software architects in using the activities and tasks of the Architecture
    Conceptualization clause based on the framework described. The ArchConcept
    was designed to address the high-level abstraction of the Standard
    ISO/IEC/IEEE 42020, and can be useful for software architects that
    want to follow ISO/IEC/IEEE 42020's recommendation and achieve
    high-quality results in their work of software architecture conceptualization

  • MAIARA DE CASTRO SANTOS
  • Engenharia Social e Técnicas de Defesas: uma abordagem no nível de conhecimento e de conscientização de usuários de dispositivos de Internet das Coisas
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Aug 23, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Frente ao crescente uso de IoT, e, em decorrência da contribuição destes aparatos para com a sociedade, a questão da segurança têm uma grande repercussão atualmente, de maneira que o grande desafio é fazer uso das informações prezando pelos princípios da segurança e promovendo ambientes virtuais éticos e úteis, coesos com as demandas sociais. Objetivo: desta forma, o objetivo macro desta pesquisa foi promover um espaço virtual onde os usuários de tecnologias como IoT, entre outras, possam conhecer melhores práticas de uso, para assim se sentirem mais seguros em rede. Para o alcance deste objetivo, buscou-se através de uma coleta de dados, uma análise aprofundada acerca do nível de conhecimento de usuários de dispositivos tais com IoT, afim de descrever riscos e vulnerabilidades aos quais estes possam estar expostos, bem como propor ações de mitigação de tais riscos. Resultados: Para a validação do instrumento (portal CIS), direcionou-se um formulário aplicado a gestores de TI, que buscou captar a opinião do público-alvo acerca da eficiência do curso oferecido pelo Portal. Conclusão: Esta avaliação permite concluir que se trata de uma ferramenta relevante, cuja utilização contribui com a segurança em Redes de Internet das Coisas e tecnologias similares.

  • FERNANDO HENRIQUE VIEIRA TRINDADE
  • Análise de viabilidade em adicionar proteção à privacidade na camada de aplicação em redes smart home
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Aug 19, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Smart Home (casa inteligente) é uma das tecnologias emergentes que mais cresce ao longo dos anos. Para prover comunicação à objetos inteligentes é preciso utilizar protocolos de comunicação "leves"para não os sobrecarregar. Devido à limitação de recursos de hardware em SHS (smart home system) requisitos como: tempo de resposta, baixo processamento, e baixo consumo energético costumam ser priorizados em detrimento da segurança e privacidade. Todavia neste tipo de ambiente, dados trafegados de forma insegura expõem a privacidade e intimidade dos usuários. Após a revisão da literatura identificou-se que grande parte das aplicações utilizando os protocolos MQTT e CoAP (dois dos principais protocolos da camada de aplicação) eram desenvolvidas de forma insegura. Posto isto, estes protocolos foram escolhidos para serem analisados quanto aos mecanismos de segurança e seus impactos no uso doméstico. Esta dissertação aplica métodos estatísticos em experimentos com os protocolos MQTT e CoAP, utilizando o microcontrolador ESP32, e mensura o impacto da adição de autenticidade e confidencialidade à camada de aplicação em SHS no tocante à performance, eficiência energética e usabilidade. Foram realizados testes de envio e recebimento de mensagens sem a utilização de qualquer proteção à privacidade e então comparados com novos testes utilizando TLS para o MQTT e DTLS para o CoAP. Além do incremento de segurança também adicionou-se níveis de confiabilidade e ampliação do tamanho de payload. Para cada um destes cenários avaliou-se custo do consumo energético, o tempo de resposta entre o envio e o recebimento da mensagem, assim como a complexidade necessária para adicionar os procolos TLS e DLS como proteção do MQTT e CoAP respectivamente. Os resultados obtidos mostram que o valor ( na moeda Real do Brasil) do consumo de energia chegou a aumentar 2 centavos para o CoAP com DTLS e 7 centavos no cenário mais seguro utilizando MQTT com QoS2 + TLS e o payload de 1kb. O nível de complexidade aumentou de 4 pontos para 24 utilizando avaliação heurística desenvolvida neste trabalho. Quanto a performance no MQTT identificou-se uma sobrecarga de até 1500% e no CoAP de 178% nos testes com maior segurança e confiabilidade. Ainda que os números pareçam expressivos, diante do impacto da falta de privacidade, os resultados demonstraram que o uso dos protocolos de segurança TLS e DLTS são viáveis no ambiente de smart homes.

  • TAUANY LORENE SANTANA SANTOS
  • Um Estudo com Aspectos Quantitativos e Qualitativos sobre a Linguagem de Modelagem SysML
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Aug 18, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A SysML é um perfil UML proposto há mais de 15 anos como uma linguagem de modelagem de sistemas que suporta especificação, projeto, desenvolvimento, verificação e validação de uma variedade de sistemas complexos e sistemas de sistemas que incluem elementos como processos, informações, pessoas, software e hardware. Nos últimos anos, a SysML foi aplicada a uma variedade de projetos de software e Engenharia de Sistemas, em todo o mundo, por centenas de pesquisadores, engenheiros e outros profissionais de sistemas e software. A SysML compartilha diagramas e outras construções e elementos com a UML, o que, pelo menos em teoria, facilita o aprendizado para aqueles que já estão familiarizados com diagramas UML. No entanto, são poucas as pesquisas sobre a avaliação do que os profissionais da indústria, que efetivamente utilizam a SysML em suas tarefas diárias, pensam sobre a linguagem, sobre o uso real da SysMLe sobre como a SysML é aplicada no ciclo de vida da Engenharia de Software e Sistemas. Este trabalho descreve uma pesquisa sobre a SysML, respondendo a perguntas como os diagramas mais utilizados para cada fase do desenvolvimento de um sistema, domínios mais comuns e outros dados sobre os participantes, além de novas reflexões sobre o que os profissionais pensam sobre a SysML quando utilizada na prática. A pesquisa recebeu respostas de 343 profissionais de 38 países diferentes, principalmente engenheiros de sistemas, arquitetos de software e sistemas epesquisadores. A indústria e a academia podem usar esses resultados (i) para identificar quaisdiagramas SysML são mais comumente aplicados em cada fase de desenvolvimento de software e sistemas, (ii) para compreender em quais domínios a SysML é comumente aplicada, (iii) como referência para identificar quais tipos de sistemas são modelados com SysML, (iv) para saber quais ferramentas de software são mais usadas e (v) quais outras linguagens de modelagem são mais comumente integradas com SysML para desenvolvimento de software e sistemas.

  • ARTUR LEANDRO DA COSTA OLIVEIRA
  • A Framework for Inverse Modeling Applied to Multi-objective Evolutionary Algorithms
  • Advisor : ANDRE BRITTO DE CARVALHO
  • Data: Jun 8, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Many-Objective Optimization Problems (MaOPs) are a class of complex optimization problems defined by having more than three objective functions. Traditional Multi-Objective Evolutionary Algorithms (MOEAs) have shown poor scalability in solving this kind of problem. The use of machine learning techniques to enhance optimization algorithms applied to MaOPs has been drawing attention due to their capacity to add domain knowledge during the search process. One method of this kind is inverse modeling, which uses machine learning models to enhance MOEAs differently, mapping the objective function values to the decision variables. This method has shown a good performance in diverse optimization problems due to the ability to directly predict solutions closed to the Pareto-optimal front, among these methods, we can highlight the Decision Variable Learning (DVL). The strategies involving inverse models found, including the DVL, have some limitations such as the exploration of the performance of different machine learning models and the strategies in using the generated knowledge during the search. The main goal of this work is to create a framework that uses an inverse modeling approach coupled to any MOEA found in the literature. More precisely, three main steps were taken to achieve the goals. First, we perform a systematic review of the literature to identify the main uses of machine learning techniques enhancing optimization algorithms. Secondly, we analyze the performance of different machine learning methods in the DVL, seeking to understand the main characteristics of inverse modeling through the DVL algorithm. In the last step, we propose a framework that is an extension of the DVL algorithm, based on the knowledge obtained in the systematic review and our analysis of the DVL. This framework results in an algorithm for MaOPs recommended for situations that exist restrictions on the number of evaluations in the objective function.

  • NATÁLIA DE SANTANA BATISTA
  • Ensino do Pensamento Computacional por meio de Histórias em Quadrinho Apresentando Conceitos da Robótica com Sucata
  • Advisor : GILTON JOSÉ FERREIRA DA SILVA
  • Data: Apr 29, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: Com o surgimento de cada vez mais tecnologias e profissões, surgem novas necessidades de adaptação, do profissional aos novos desafios de empregabilidade, fazendo-se necessário iniciar tal adaptação a partir da infância. Objetivo: Com isto, este trabalho traz como objetivo o uso do Pensamento Computacional (PC) por meio de Histórias em Quadrinho (HQ) com conceitos da Robótica com Sucata, visto que o PC traz uma forma de resolução de problemas multidisciplinar que pode adaptar a forma de adquirir novos conhecimentos, assim como a utilização HQs traz uma maneira de adquirir tal conhecimento. Método: Para realização deste trabalho o método utilizado foi o Design Science Research (DSR), que consiste em trazer uma abordagem de pesquisa baseada na definição de dois objetivos, resolver um problema prático num contexto específico por meio de um artefato e gerar novo conhecimento científico. Resultados: Como resultados temos artefatos como HQs e Guias, além da avaliação positiva por parte de profissionais da Educação que analisaram os artefatos, com mais de 90% de aprovação e comentários positivos com acréscimo das dificuldades enfrentadas. Conclusões: Chegando à conclusão de que os artefatos além de trazer informação podem ser utilizados em sala de aula por profissionais de educação para o ensino e desenvolvimento do PC em crianças de ensino básico.

  • RAPHAEL SILVA FONTES
  • Avaliação Experimental de um Classificador para Apoiar a Detecção de Fraudes em Compras Públicas
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Jan 31, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: A Organização das Nações Unidas (ONU) descreve a corrupção como uma praga insidiosa, que tem uma ampla gama de efeitos corrosivos nas sociedades. Na prática, a corrupção possui uma variedade de instrumentos, desde pequenas quantias no aceleramento de concessões de licenças, até grandes fraudes em processos licitatórios e diversas áreas do país. Para a área da saúde, por exemplo, os gastos com medicamentos envolvem um volume expressivo de recursos, cerca de R$ 18 bilhões em 2018, potencialmente expostos às condutas lesivas ao erário. Em outra área de importante impacto, a de combustíveis, o devedor contumaz, aquele que deixa de recolher o tributo devido, foi responsável por R$ 14 bilhões de sonegação de impostos em 2020. Para tentar combater esses problemas, faz-se necessária a classificação e subtotalização automática das Notas Fiscais Eletrônicas (NF-es) emitidas para aquisição destes produtos, considerando os seus códigos de identificação únicos e descrições. Todavia, nem sempre os códigos são cadastrados corretamente pelos fornecedores. Além disso, se a descrição do produto for considerada uma alternativa ao código, esta não é um campo uniformizado, possuindo escrita livre e variável. Por fim, alguns produtos possuem uma classificação hierárquica nas suas descrições, importantes para uma identificação completa. Objetivo: Construir e avaliar a eficácia de um classificador de Notas Fiscais de Combustíveis e Medicamentos, baseado na mineração dos textos desestruturados destas notas, no contexto de compras feitas por órgãos públicos dos estados de Sergipe e do Rio Grande do Norte, analisadas pelos Ministérios Públicos Estadual e Federal (MPE; MPF), Grupo de Atuação Especial de Combate ao Crime (GAECO) e Secretarias da Fazenda Estaduais. Método: Após o desenvolvimento e a parametrização inicial do classificador, foram executados dois experimentos controlados com NF-es custodiadas pelos MPs, respeitando o sigilo fiscal dos envolvidos. Resultados: Considerando a significância estatística, o classificador foi capaz de identificar as descrições de medicamentos e suas subclasses hierárquicas, com os seguintes resultados médios: acurácia de 99.81%, precisão de 100%, revocação ou sensibilidade de 99.64% e medida-F1 de 99.82%. Já para combustíveis, o classificador alcançou acurácia de 100% e medida-F1 de 100%. Conclusão: Foi possível evidenciar que é factível automatizar a classificação de combustíveis e medicamentos, viabilizando investigações. Para medicamentos, também foi possível extrair as subclasses hierárquicas das descrições, a saber: princípio ativo, dosagem, forma famacêutica e quantidade.

  • ELIAS RABÊLO MATOS
  • Detecção de câncer de pele usando Cluster Raspberry PI e a plataforma Pytorch
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Jan 24, 2022
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O câncer de pele provoca mortes e tem um aumento de numero de casos todos os anos, ao redordo mundo. Uma das formas mais comuns de detectar o câncer de pele é o uso da regra ABCDE,regra aplicada em um conjunto de características sobre uma lesão da pele do paciente. A partirdessa forma de diagnóstico o Câncer de pele pode ser tratado pela Ciência da Computaçãocomo um problema de classificação de imagens usando a Inteligência Artificial. Desde 2016 oISIC (International Skin Cancer Challenge) lança competições anuais acerca da detecção decâncer de pele. Neste trabalho foi selecionado o dataset HAM1000 que contem imagens de peledivididos em sete diferentes tipos de lesões e que faz parte dos arquivos do ISIC. Com essedataset foram definidos os objetivos do trabalho: Treinar uma rede neural convolucional em umCluster de Alto Desempenho de Baixo Custo usando a plataforma Raspberry Pi; e aplicar atécnica de transferência de conhecimento de uma rede neural convolucional para uma rede MLPque fosse executada na plataforma Raspberry PI. O treinamento no cluster não foi possível coma configuração usada nesse trabalho. E com a transferência de conhecimento foi atingido o valorde 80% de acurácia na melhor das configurações utilizadas.

2021
Description
  • KATHARINE PADILHA DE PAULO
  • Avaliação de desempenho para elasticidade de ambientes conteinerizados: Estudo experimental e de modelagem do Kubernetes
  • Data: Dec 21, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A arquitetura de microsserviço se tornou uma tendência para o desenvolvimento e implantação de aplicações em nuvem devido à sua capacidade de reduzir a complexidade do serviço e aumentar a elasticidade. Os contêineres surgiram como uma alternativa às máquinas virtuais e, juntamente com ferramentas como o Kubernetes, têm potencializado o uso de microsserviços. O provisionamento e o desprovisionamento de recursos é um fator chave para obter elasticidade e, consequentemente, disponibilidade e capacidade de resposta em aplicações em nuvem. Portanto,a instanciação eficiente de contêineres é um requisito para se obter elasticidade de aplicações na web. Este estudo analisa o desempenho da instanciação de contêineres e do mecanismo de escalonamento automático do Kubernetes. No processo de instanciação de contêineres, foram considerados fatores como tamanho da imagem e armazenamento em cache. Os resultados do experimento indicaram que os tamanhos das imagens tiveram um grande impacto no tempo de instanciação com baixos níveis de cache. Este estudo apresenta um modelo de Cadeia de Markov,um modelo de Rede de Petri Não Markoviana e um modelo de Rede de Petri Estocástica usando aproximação por fases através da técnica moment matching. Uma análise de sensibilidade realizada com os modelos de desempenho da instanciação de contêineres mostra uma relação linear entre o tempo de instanciação, o tamanho da imagem e o cache. A análise verificou o impacto de cada fator no tempo total de resposta, indicando estratégias para melhorias de desempenho. O modelo SPN proposto com aproximação por fases consegue uma melhor representação do comportamento real do sistema, ajustando os dados obtidos nos experimentos não apenas nos valores médios, mas na distribuição geral do tempo de resposta. Além disso, este estudo também apresenta um modelo de Rede de Petri Estocásticas para representar o mecanismo de escalonamento automático do Kubernetes. O modelo inclui monitoramento, dimensionamento, admissão e processamento. O modelo foi analisado por meio de simulação transiente e estacionária para as seguintes métricas: para o número médio de Pods no período e utilização média do período. Uma análise de sensibilidade foi realizada para analisar a relação entre quantidade média de pods, quantidade de usuários, tempo de serviço, e intervalo entre requisições. A análise mostrou queo aumento da carga, seja devido ao aumento da quantidade de usuários ou da taxa de entrada, implica em um escalonamento mais rápido. Bem como o aumento de tempo de serviço. Com isso, pode-se observar que o modelo representa com sucesso o comportamento de dimensionamento automático do Kubernetes. Portanto, como a execução de análises what-if em ambientes deprodução não é uma tarefa fácil, ter um modelo preciso para avaliar o desempenho do sistema em diferentes cenários pode ser uma vantagem muito importante para administradores de sistemasem nuvem.

  • ROBERTO WAGNER SANTOS MACIEL
  • VGLGUI: Uma interface gráfica de programação visual para a biblioteca VisionGL
  • Advisor : DANIEL OLIVEIRA DANTAS
  • Data: Nov 30, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Imagens médicas são usadas em clínicas para apoiar o diagnóstico e o tratamento de doenças. O desenvolvimento de algoritmos de visão computacional eficazes para o processamento de imagens é uma tarefa desafiadora que requer uma quantidade significativa de tempo investido na fase de prototipagem. Existem sistemas de programação visual que buscam facilitar a prototipagem. Outros sistemas que permitem o processamento paralelo tentam possibilitar o tratamento de conjuntos de dados de imagens muito grandes que demandam um alto tempo de execução. Os sistemas de fluxo de trabalho, por outro lado, tornaram-se ferramentas populares, pois permitem desenvolver algoritmos como uma coleção de blocos de função, que podem ser vinculados graficamente a pipelines de entrada e saída. Isso ajuda a reduzir a curva de aprendizado para programadores iniciantes. Por fim, existem sistemas que facilitam a programação e aumentam a produtividade por meio da geração automática de código. VisionGL é uma biblioteca de código aberto que facilita a programação por meio da geração automática de código wrapper C ++. O código wrapper é responsável por chamar funções de processamento paralelo de images ou shaders em CPUs usando OpenCL e em GPUs usando OpenCL, GLSL e CUDA. VGLGUI é uma interface gráfica de usuário para processamento de imagem que permitirá a programação de fluxo de trabalho visual para processamento paralelo e distribuído de imagens, por meio de funções VisionGL para geração automática de código wrapper e otimização de transferências de imagem entre RAM e GPU. Esta pesquisa tem por objetivo apresentar a descrição da arquitetura em múltiplas visualizações, utilizando o padrão arquitetônico ISO / IEC / IEEE 42010: 2011, o 4 + 1 View Model of Software Architecture e a Unified Modeling Language (UML). Tem como objetivo, também, a descrição e criação do interpretador de workflow da VGLGUI, e demonstração dos resultados de dois pipelines de processamento de imagem em duas plataformas diferentes: com a linguagem Python usando a biblioteca OpenCV rodando na CPU, e; com o interpretador da VGLGUI rodando na GPU.

  • ALFREDO MENEZES VIEIRA
  • Mecanismo de prevenção de ataque DDoS em redes SDN
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Sep 23, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A Rede Definida por Software (SDN) oferece benefícios como escalabilidade, flexibilidade, monitoramento e facilidade de inovação, pela sua característica principal de separar o plano de dados do plano de controle. A realização da comunicação entre o controlador e o plano de dados é por meio do protocolo OpenFlow, permitindo o envio e o recebimento de mensagens de um switch com suporte deste protocolo. Permite que o controlador SDN envie instruções por meio de códigos desenvolvidos em diversas linguagens de programação para os dispositivos de rede. Devido a sua estrutura logicamente centralizada e controlada por software, o controlador se torna um alvo estratégico na realização de um ataque. Dentre as diversas ameaças existentes o ataque distribuído de negação de serviço (DDoS) possui um efeito destrutivo em redes SDN. O principal objetivo deste ataque cibernético é que os usuários legítimos sejam prejudicados devido à negação de serviço. A realização do ataque possui fases distintas e conta com dispositivos infectados os quais são chamados de bot, formando-se um exército conhecido como botnet. A prevenção contra o ataque DDoS envolve métodos que tem como objetivo evitar que a infraestrutura de rede seja uma vítima desta forma de ataque. Diante dos resultados observados por meio de um mapeamento sistemático, resolvemos neste trabalho propor e analisar um mecanismo de prevenção de ataques DDoS em redes SDN que atue na primeira fase do ataque, na proteção do controlador SDN. Dos dois tipos de varreduras existentes ( horizontal e vertical), foram observados a partir dos experimentos que o mecanismo obtém de 98,64 % a 99,37 % de acurácia, 63,89 % a 82,76 % de precisão e 77,97 % a 84,62 % F1-Score e para varredura vertical 99,73 % a 100 % de acurácia, 99,46 % a 100 % de precisão e 99,73 % a 100 % F1-Score para varredura horizontal. Pode ser útil para administradores de redes SDN no contexto de defesa desse tipo de infraestrutura.

  • LUÍS ANTONIO DOS SANTOS SILVA
  • DESENVOLVIMENTO DO PENSAMENTO COMPUTACIONAL UTILIZANDO HISTÓRIAS EM QUADRINHOS APRESENTANDO CONCEITOS DA EMPATIA PARA ALUNOS DO ENSINO FUNDAMENTAL NA DISCIPLINA DE HISTÓRIA
  • Advisor : MARIA AUGUSTA SILVEIRA NETTO NUNES
  • Data: Aug 31, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O século XXI trouxe novos desafios para a Educação. Um desses desafios foi o avanço da tecnologia, que possibilitou verdadeiras mudanças mercadológicas e de empregabilidade. Essas mudanças têm o potencial de se estender para os séculos vindouros e também se refletem no currículo escolar dos estudantes, já que mudanças mercadológicas podem impactar diretamente no currículo escolar e assim, na formação dos profissionais do futuro, pois os estudantes estarão sendo formados para profissões que ainda surgirão. Por isso, a BNCC (Base Nacional Comum Curricular) lista as competências gerais que devem ser desenvolvidas na Educação Básica brasileira para construção de conhecimento, desenvolvimento de habilidades e formação de valores. As competências gerais da BNCC estão em conformidade com as cinco competências para o século XXI (Pensamento Crítico, Colaboração, Criatividade, Resolução de Problemas e Pensamento), com destaque para o Pensamento Computacional (PC), citado também pela BNCC, já que o PC visa à resolução e formulação de problemas em contextos diversos, assim o PC pode ajudar na apresentação de conceitos da Empatia, habilidade que está diretamente ligada a melhora de resultados acadêmicos e regulação da interação social. Sendo assim, a motivação para esta dissertação é a necessidade de preparação das crianças e jovens para um mercado de trabalho ainda incerto impactando na necessidade do desenvolvimento de habilidades/competências indispensáveis para o século XXI, tendo em vista o surgimento de novas profissões e, com esse intuito, esta dissertação propõe a criação de evidências para verificar o desenvolvimento do PC com a utilização de HQs, na disciplina de História na apresentação de conceitos da Empatia para alunos do Ensino Fundamental. Para alcançar esse objetivo, alguns artefatos (Histórias em Quadrinhos) foram elaborados e com a realização do experimento com a participação de 12 alunos, os quais são do 5º ano com idade média de 10,58 durante 8 semanas foi possível aferir, aplicando o Computational Thinking Test (CTt), a diminuição da média do grupo de controle e o crescimento na distribuição da média no grupo experimental, com um percentual de -7,72% para o grupo de controle e de 7,88% para o grupo experimental. Os resultados provenientes da análise referente ao teste de Conceitos da Empatia evidenciam uma diminuição na média do grupo de controle (4,84%) e no grupo experimental (14,51%). Embora com o aumento para o grupo experimental ao aferir o desenvolvimento do PC , o p-valor encontrado após o Teste t Student Pareado não alcançou uma significância estatística e acredita-se que o pequeno tamanho da amostra impacta negativamente na significância estatística.

  • ELISRENAN BARBOSA DA SILVA
  • Introdução a Programação, Aprendizagem Móvel e Colaborativa: Uma Abordagem Construcionista no Ensino Fundamental e Superior
  • Advisor : KALIL ARAUJO BISPO
  • Data: Aug 30, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O m-learning ou aprendizagem móvel cresceu nos últimos anos de forma significativa, sendo abordado em escolas, na cultura, no meio ambiente, nas empresas e até em áreas rurais e isso em todo o mundo. O m-learning se caracteriza pela utilização de aparelhos portáteis, em especial smartphones ou tablets, possibilitando ao professor expandir o ensino para além da sala de aula, e também dando para os alunos uma maior acessibilidade de recursos educacionais.
    Em um cenário onde a computação está em todos os lugares, pautado pela mobilidade global das pessoas, conectividade de internet ubíqua e uma maior independência de dispositivos móveis com relação ao ambiente computacional tradicional, os usuários conseguem acessar qualquer recurso em qualquer lugar e em qualquer momento. Isto mostra o quanto o m-learning pode ser utilizado tanto no ensino a distância como no contexto presencial, pois o processo de ensino aprendizagem não ocorre apenas enquanto o aluno está em sala de aula.
    O grande problema dos pesquisadores brasileiros no que diz respeito a como inserir o ensino de computação no Brasil é de como colocar mais uma matéria em uma grade curricular tão apertada, e fazer isso utilizando poucos recursos financeiros para uma aplicação tecnológica como a que há em países desenvolvidos. Porém, pouco se fala sobre a utilização do m-learning no ensino de introdução a programação.
    Esta dissertação busca abordar como utilizar a aprendizagem móvel em projetos colaborativos por meio do construcionismo de Seymour Papert, um método de ensino onde o professor tem como responsabilidade acompanhar cada aluno, identificar cada dificuldade individual e criar situações nas quais os alunos consigam se desenvolver tanto sozinhos como de forma coletiva. Para isso o método propõe que tudo o que for ensinado aos estudantes seja por meio de explicações, exercícios e atividades, todas relacionadas ao cotidiano. De acordo com Papert isso facilita o entendimento dos assuntos.
    Assim, durante dois anos implementamos o método em conjunto com o m-learning tanto na educação básica como no ensino superior ambos da rede pública de ensino. Escolhemos então duas linguagens de programação para serem utilizadas no ensino de introdução a programação por meio de dispositivos móveis como smartphones, tablets e notebook.
    A aplicação no ensino fundamental foi antes da pandemia, e o estudo de caso foi com uma turma de 19 alunos do primeiro ano em processo de alfabetização. Utilizamos como linguagem de programação o ScratchJr, que é baseada em blocos lógicos. O ScratchJr por sua vez pode ser instalado apenas em tablets e é voltado para crianças entre quatro e sete anos de idade. Em conjunto foram aplicadas atividades desplugadas para potencializar o entendimento de programação. Como resultados conseguimos desenvolver uma cartilha com 50 aulas de 50 minutos cada e desenvolvemos provas didáticas para obter resultados com relação ao ensino de programação.
    Na aplicação feita no ensino superior dividimos em dois períodos, o primeiro antes da pandemia e o segundo durante, ambos na disciplina de Programação Imperativa.
    O primeiro estudo de caso foi com 53 alunos que conseguiram aprender a programar a partir do uso de smartphones. Para alcançar um melhor desenvolvimento por parte dos alunos além de ensinar por meio do método construcionista, usamos em conjunto o aplicativo QPython e o WhatsApp. Foi possível realizar projetos colaborativos e acompanhamento diário de todos. Como resultado, foi obtida uma taxa de aprovação de 83% , 15% reprovados por falta e média e apenas 2% de evasão.
    O segundo estudo de caso foi realizado com 50 alunos que conseguiram programar de forma colaborativa em um ambiente totalmente de EAD. O método construcionista nesse caso foi muito importante para que os alunos conseguissem se desenvolver na matéria e aprender a programar mesmo que a distância. Para alcançar um melhor desenvolvimento por parte dos alunos, usamos o Google Classroom e a plataforma de programação Repl-it, com um acompanhamento diário pelo WhatsApp. Como resultado, foi obtida uma taxa de aprovação de 64% , 22% reprovados por falta e média e apenas 14% de evasão.

  • NATASHA RUSTY SILVA CARMO
  • machine learning techniques for detecting hypoglycemic events using electrocardiograms
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Aug 20, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Background Machine learning methods have long been employed to automatically analyzeelectrocardiogram signals. In the past ten years, most studies have used a limited number of opendatabases to test their results, most of which were collected in clinical settings. The growth in thenumber of fitness trackers and other wearable devices that collect large amounts of data everyday offer a new potential to use data analysis to derive information that can improve the qualityof life for many people. Recently, an open database was released with data (electrocardiogram,respiratory rate, motion data, food intake annotations and blood glucose) from patients with type1 diabetes. It gives the opportunity to explore the potential of this data to predict hypoglycemicevents through a noninvasive method.

    Methods: The study uses pre-processing techniques to clean the data and extract features fromphysiological signals in the dataset and verify how they correlate with blood glucose. Timeand frequency domain features are derived from the signal for the analysis. Automatic machinelearning is employed to determine the best classification model. The results are compared againsta 1D Convolutional Neural Network approach that automatically extracts features from individualheart beats. The final models are evaluated in regards to performance metrics (accuracy, specificityand sensitivity) with respect to their ability to predict hypoglycemic events.

    Results A 10-fold cross-validation provided the following percentage values for accuracy,precision and sensitivity, respectively: 86:89  2:8, 87:03  2:7 and 86:90  2:8 for the decisiontree model and 93:00  2:3, 93:08  2:2 and 93:00  2:3 for 1D CNN. The statistical evaluationof the mean accuracy for both models from an unpaired T test returned a p-value lower than0.0001, meaning that the distributions are significantly different and 1D CNN model outperformsthe decision tree model.

    Discussion and Conclusion The small number of positive samples for hypoglycemia and highdata imbalance pose a challenge to classification. It is necessary to have reasonable numberof samples from both classes to achieve classification metrics that are suitable for medicalapplications. When this condition is satisfied, data acquired from a wearable device under normalliving conditions has shown to be suitable for the task of classifying hypoglycemic events.

  • ADRIANO MARCIO SANTOS DE LIMA
  • PROPOSTA E AVALIAÇÃO DA AGILE BDTRANS: UMA METODOLOGIA ÁGIL DE TRANSFORMAÇÃO DIGITAL DE NEGÓCIOS
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: Jul 30, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O cenário globalizado de grande concorrência no mundo corporativo e o uso das novas tecnologias disruptivas, que estão associadas a um processo de inovação revolucionária, estão potencializando os atuais modelos de negócios e despertando a necessidade latente das empresas se adequarem definitivamente à transformação digital. O perfil dos consumidores está mudando e as empresas que não conseguirem entender a velocidade que essa onda está sendo impulsionada ficarão, dentro de pouco tempo, fora do mercado. Mais importante que entender a cadeia de valor das empresas, é preciso entender a cadeia de valor dos clientes para poder acompanhar as constantes transições ocorridas na relação comercial de cada tipo de produto ou serviço oferecido ao mercado. Além das novas relações comerciais usarem a tecnologia como base de apoio para todos os processos de negócio, também são altamente dependentes do cuidado com a privacidade dos dados pessoais utilizados. Incidentes de segurança ocorridos com esses dados podem comprometer drasticamente a imagem das empresas e ainda imputar graves sanções previstas em leis de privacidade como a brasileira LGPD - Lei Geral de Proteção de Dados.O objetivo desse trabalho foi criar uma metodologia ágil de transformação digital de empresas, integrando a gestão por processos, as equipes de alto desempenho e os requisitos para a adequação à LGPD e aplicá-la três em organizações reais, para um ou mais processos de negócio priorizados em função das necessidades do empresário para gerar melhorias digitais no modelo de negócio usado antes da aplicação da metodologia.De acordo com as necessidades dos proprietários das empresas (uma distribuidora de alimentos, uma construtora de imóveis e uma clínica de estética), foram selecionados os processos mais críticos e as métricas para análise foram escolhidas. Os dados foram analisados estatisticamente e os resultados obtidos para as métricas selecionadas durante a execução do processo, antes e depois da implantação da metodologia, apresentaram uma melhoria média de aproximadamente 45%, levando em conta todas as métricas das três empresas.Os resultados expostos nessa pesquisa apresentam importantes contribuições para a jornada de transformação digital das empresas. A metodologia criada pode ser seguramente replicada em qualquer modelo de negócio que precise evoluir de forma incremental e baseada em processos para a nova revolução industrial que está acontecendo rapidamente no mercado internacional.

  • ALANA LUCIA SOUZA OLIVEIRA
  • UM CHATBOT PSICOEDUCATIVO PARA ELUCIDAR E DIMINUIR SINTOMAS DE ANSIEDADE, RUMINAÇÃO E DEPRESSÃO
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Jul 29, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: Segundo a Organização Mundial de Saúde (OMS), o suicídio é a segunda principal causa de morte de jovens de 15 a 28 anos, o que geralmente pode ter sido resultado de um transtorno depressivo ou de ansiedade. Com a pandemia da Covid-19 e um novo mundo em surgimento, o isolamento social poderá confirmar e incrementar estes números, exigindo alternativas para atendimento, educação e apoio automáticos e escaláveis aos jovens, tais como os Chatbots. Objetivo: Construir e avaliar um Chatbot que dialoga com adolescentes e universitários, com o objetivo de disseminar a saúde mental e melhorar os sintomas de depressão, ansiedade e ideações suicidas. Método: Um Chatbot foi criado, com diálogos baseados na Terapia Cognitivo Comportamental Focada na Ruminação (RFCBT) e em um modelo de alfabetização emocional, os quais se concentram em observar a interação entre sentimentos e ações do pensamento. Para avaliações, foram realizados dois experimentos controlados, um com adolescentes e outro com universitários, analisados e autorizados pelo Comitê de Ética, bem como com base em protocolos e testes padronizados pela área de psicologia. Resultados: Chatbot Rumi para população brasileira que, após utilização, em se tratando de Ruminação, obteve uma diferença significativa em relação ao estado inicial dos adolescentes, com um p-value de 0,014, evidenciando uma diminuição desses sintomas. No que concerne aos universitários, houve uma diferença significativa para os sintomas de Ruminação, Ansiedade e Depressão, com um p-value menor que 0,05. Conclusão: Um chatbot com terapias psicológicas dirigido à estratégia de psicoeducação pode auxiliar a combater os sentimentos de ansiedade, depressão e ruminação.

  • JOÃO RIBEIRO DE ALMEIDA NETO
  • Detecção de ataques DDoS em ambientes SDN/NFV utilizando algoritmos de aprendizagem de máquina não supervisionados em fluxos de dados
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Jul 29, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Segundo dados do Cisco Visual Networking Index (VNI), que visa realizar uma previsão realista baseada em vários níveis e fontes de dados reais, estima-se que o número total de ataques DDoS a nível global chegue a 14,5 milhões até 2022. Por esse motivo, fica evidente que é imprescindível se proteger de ataques do tipo DDoS. Dessa forma, há necessidade de que novas técnicas de proteção sejam desenvolvidas. Além disso, é preciso que as soluções levem em consideração os requisitos de desempenho e escalabilidade. Aliado a isso, ambientes baseados na arquitetura SDN/NFV permitem que os administradores de rede detectem e reajam aos ataques DDoS com mais eficiência. Isso porque o controle da rede é centralizado e é possível desenvolver recursos de análise de tráfego baseados em software. Esta dissertação analisa a eficiência e efetividade da utilização de algoritmos de aprendizagem de máquina não supervisionados que trabalham com a estratégia de fluxo de dados na detecção de ataques do tipo DDoS em ambientes SDN/NFV, por meio de uma análise comparativa. Primeiramente, foi realizado um Mapeamento Sistemático da Literatura, o qual serviu de embasamento para a realização de um primeiro experimento. Em seguida, foi realizada uma Revisão Sistemática da Literatura e foram incluídos os trabalhos que utilizassem aprendizagem de máquina não supervisionada na detecção de ataques DDoS e que trabalhassem com a estratégia de fluxo de dados, pois, essa característica é inerente ao ambiente SDN/NFV. Dessa maneira, os algoritmos escolhidos foram: BIRCH, Mini-batch k-means, Clustream, StreamKM++, DenStream e D-Stream. Após isso, foi montada uma plataforma para a execução do experimento, assim como foi desenvolvido um dataset para ser utilizado. Após a realização dos testes, foi realizada uma análise qualitativa e quantitativa sobre os resultados. A análise qualitativa objetivou comparar o quão efetivo são os algoritmos na detecção de ataques DDoS e a análise quantitativa visa comparar a eficiência, neste caso, a velocidade de processamento dos algoritmos nessa detecção. Os resultados obtidos mostram os algoritmos BIRCH, Mini-batch k-means, Clustream e StreamKM++ obtiveram acurácias em torno de 99%, enquanto DenStream e D-Stream alcançaram acurárias em torno de 79%. O menor tempo total de execução foi do algoritmo D-Stream, enquanto o maior tempo foi do StreamKM++. Em vista disso, os algoritmos que se destacaram foram D-Stream e Mini-batch k-means, já que este foi o segundo algoritmo mais rápido e em contrapartida obteve uma acurácia 125,31% maior que D-Stream.

  • LAYSE SANTOS SOUZA
  • A SysML Profile for Smart City Applications
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Jul 13, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume

  • estradas urbanas são uma infraestrutura crucial altamente exigida pelos cidadãos e organizaçõesinteressadas em sua implantação, desempenho e segurança. O controle de sinais de trânsitourbano é um problema importante e desafiador no mundo real, que visa monitorar e melhorar ocongestionamento de trânsito. Portanto, a implantação de semáforos para veículos ou pedestresem um cruzamento é uma atividade complexa, pois é necessário estabelecer regras para controlaro fluxo de veículos e pedestres. O fluxo de tráfego no cruzamento muda constantemente,dependendo das condições climáticas, dia da semana e período do ano, assim como obrase acidentes rodoviários que influenciam ainda mais a complexidade e o desempenho. Estadissertação descreve primeiro o SmartCitySysML, um perfil proposto que adapta a SysML comelementos especiais que são específicos para cidades inteligentes. Depois, é elaborada umaextensão do perfil SmartCitySysML para o design das dimensões das cidades inteligentes. Emseguida, é realizada a integração de modelos, ou seja, a integração do perfil SmartCitySysMLcom Redes de Petri para modelar separadamente os elementos arquiteturais básicos (sensor,controlador e atuador) de um sistema de controle de tráfego urbano como sub-modelos parademonstrar o comportamento de cada elemento, e a integração do perfil SmartCitySysML comRedes de Petri Colorida Temporizada (TCPN) para modelagem, simulação e verificação depropriedades do sistema de controle de sinais de trânsito urbano. As ferramentas CPN permitemavaliar o comportamento do modelo por meio de simulação e verificação de propriedades erealizar um desempenho baseado em simulação. A simulação de modelos permite observar ocomportamento do sistema sob condições que seriam difíceis de organizar em um ambienterealmente controlado. Consequentemente, uma avaliação preliminar pode ser realizada nosestágios iniciais de desenvolvimento do sistema, reduzindo significativamente os custos demelhorias e aumentando a qualidade do produto final.Uma cidade inteligente é um centro urbano que integra uma variedade de soluções para melhorar o desempenho da infraestrutura e alcançar um desenvolvimento urbano sustentável. As estradas urbanas são uma infraestrutura crucial altamente exigida pelos cidadãos e organizações interessadas em sua implantação, desempenho e segurança. O controle de sinais de trânsito urbano é um problema importante e desafiador no mundo real, que visa monitorar e melhorar o congestionamento de trânsito. Portanto, a implantação de semáforos para veículos ou pedestres em um cruzamento é uma atividade complexa, pois é necessário estabelecer regras para controlar o fluxo de veículos e pedestres. O fluxo de tráfego no cruzamento muda constantemente, dependendo das condições climáticas, dia da semana e período do ano, assim como obras e acidentes rodoviários que influenciam ainda mais a complexidade e o desempenho. Esta dissertação descreve primeiro o SmartCitySysML, um perfil proposto que adapta a SysML comelementos especiais que são específicos para cidades inteligentes. Depois, é elaborada uma extensão do perfil SmartCitySysML para o design das dimensões das cidades inteligentes. Em seguida, é realizada a integração de modelos, ou seja, a integração do perfil SmartCitySysML com Redes de Petri para modelar separadamente os elementos arquiteturais básicos (sensor, controlador e atuador) de um sistema de controle de tráfego urbano como sub-modelos para demonstrar o comportamento de cada elemento, e a integração do perfil SmartCitySysML com Redes de Petri Colorida Temporizada (TCPN) para modelagem, simulação e verificação de propriedades do sistema de controle de sinais de trânsito urbano. As ferramentas CPN permitem avaliar o comportamento do modelo por meio de simulação e verificação de propriedades e realizar um desempenho baseado em simulação. A simulação de modelos permite observar ocomportamento do sistema sob condições que seriam difíceis de organizar em um ambiente realmente controlado. Consequentemente, uma avaliação preliminar pode ser realizada nosestágios iniciais de desenvolvimento do sistema, reduzindo significativamente os custos de melhorias e aumentando a qualidade do produto final.

  • RODRIGO FONTES CRUZ
  • UM PROCESSO PARA O DESENVOLVIMENTO EXPERIMENTAL DE APLICAÇÕES DE DATA MINING E DATA SCIENCE ALINHADAS AO PLANEJAMENTO ESTRATÉGICO DA ORGANIZAÇÃO
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Jun 22, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: O fenômeno Big Data tem imposto maturidade às empresas na exploração de seus dados, como prerrogativa para obter insights valiosos sobre seus clientes e o poder da análise para orientar a tomada de decisão. Desta forma, uma abordagem geral que descreva como extrair conhecimento para a execução da estratégia empresarial precisa ser estabelecida. Objetivo: O objetivo deste trabalho é desenvolver e avaliar um processo de desenvolvimento de aplicações de Data Mining e Data Science dirigidas à estratégia e avaliadas experimentalmente. Método: Inicialmente, foi realizada uma Revisão Quasi-Sistemática da literatura, com a finalidade de identificar e caracterizar os métodos de desenvolvimento de aplicações de BI (Business Intelligence) e de Data Mining dirigidos à estratégia, ou que preveem avaliação Experimental. Por fim, foi realizado um estudo de caso em uma instituição de ensino federal, com o objetivo introduzir e avaliar o processo desenvolvido. Resultados: A Revisão da Literatura evidenciou a ausência de uma abordagem completa para disciplinar o alinhamento estratégico e a experimentação, prevendo atendimento claro aos objetivos estratégicos e uma fase experimental na validação dos resultados. O estudo de caso trouxe evidências iniciais positivas de que é possível disciplinar e alinhar o desenvolvimento de aplicações de Data Mining e Data Science ao planejamento estratégico da organização, bem como fomentar o uso do método científico neste contexto. Conclusão: Uma metodologia de BI dirigida à estratégia pode ser estendida para a contemplação e o desenvolvimento de aplicações de Data Mining e Data Science avaliadas experimentalmente.

  • ALEF MENEZES DOS SANTOS
  • SMALL: Soluções Computacionais em Mobilidade Urbana para Auxiliar na Consolidação de Cidades Inteligentes
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: May 28, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A Organização das Nações Unidas (ONU) estima que haverá um aumento na população mundial e por consequência o crescimento da população que vive em áreas urbanas até 2050, podendo alcançar cerca de 70% da população mundial. No Brasil, o Instituto Brasileiro de Geografia e Estatística (IBGE) revelou o crescimento populacional e o aumento da taxa de urbanização, passando de 26,4%, entre 1940 e 1950, para 84,2%, entre 2010 e 2020. O Instituto de Pesquisa Econômica Aplicada (IPEA) afirma que aproximadamente 85% da população brasileira, em 2016, concentra-se em centros urbanos. O crescimento da população e das atividades urbanas, proporcionou o surgimento de problemas nos sistemas urbanos, como congestionamentos, aumento do tráfego, redução do bem-estar, superlotação, dificuldade no planejamento de rotas, segurança, entre outros, afetando assim a Mobilidade Urbana (MU). Com base no cenário apresentado, o governo brasileiro desenvolveu a Lei nº 14.000/2020. Ela define as diretrizes da política nacional de MU sobre a elaboração e aprovação do Plano de Mobilidade Urbana (PMU) pelos municípios. Entretanto, os problemas de MU já não podem ser solucionados de forma eficaz utilizando somente as soluções tradicionais, dando início a criação de novas abordagens, como os Sistemas de Transporte Inteligente (ITS). Os ITS são aplicações avançadas de Tecnologias da Informação e Comunicação (TIC), utilizadas no campo de transporte rodoviário, incluindo infraestrutura, veículos e usuários, gerenciamento de tráfego e da mobilidade, bem como para as interfaces com outros modos de transporte. Logo, com o objetivo de auxiliar os gestores na identificação das soluções computacionais de ITS, este trabalho apresenta um Mapeamento Sistemático da Literatura (MSL) com 225 artigos com algum tipo de ITS. No MSL são criadas as 11 classificações de subeixos de MU, sendo elas: Acessibilidade, Condições Viárias, Desastres Ambientais, Estacionamento, Multimodal, Orientação/Recomendação, Segurança, Serviços Essenciais, Soluções Inovadoras, Sustentabilidade, e Tráfego e Congestionamento. Também nesse trabalho é apresentada a proposta do Guia Smart Mobility for ALL (SMALL), baseado no MSL. Ele apresenta 30 diferentes problemáticas abordadas em 46 artigos científico do tipo “Aplicação”, que estão divididos nos 11 subeixos. O guia SMALL indica as implicações negativas que cada uma das 30 problemáticas podem causar e fornece breves descrições do que cada solução oferta como meio de mitigá-las ou solucioná-las. E por fim, é apresentada uma entrevista com o gestor de MU de uma das capitais dos estados brasileiros. Esta entrevista objetivou identificar a situação tecnológica atual dessa capital e avaliou o guia SMALL.

  • DANILO FERREIRA NEVES
  • UM AMBIENTE DEMOCRÁTICO E COLABORATIVO PARA PROMOÇÃO DO ENGAJAMENTO CIVIL E DO CONTROLE SOCIAL DA EDUCAÇÃO PÚBLICA
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Apr 30, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: Ferramentas para controle social vêm sendo utilizadas, por diversos governos, como forma de promover o engajamento civil, a transparência e o combate à corrupção. Mirando esses benefícios, a Duca, uma plataforma de controle social no âmbito escolar, habilitou um canal de manifestação direta entre a comunidade, gestão escolar e os órgãos fiscalizadores do Estado de Sergipe. Contudo, assim como boa parte das ferramentas desse cenário, a Duca não provia recursos colaborativos eficientes que permitissem uma interação contínua entre os envolvidos. Objetivo: Este trabalho teve como objetivo geral a concepção e avaliação qualitativa de um ambiente colaborativo que integrasse um aplicativo de Controle Social da Educação Pública, a Duca, viabilizando transparência e feedback das ações tomadas pelos órgãos gestores e reguladores da Educação. Método: O trabalho seguiu o método de pesquisa-ação, para desenvolver e avaliar a plataforma. No primeiro ciclo, foi realizada uma Revisão Quasi-Sistemática de Literatura, para identificar abordagens com propostas semelhantes à Duca e para desenvolver o módulo colaborativo. No segundo e terceiro ciclos, foram realizadas rodadas de avaliação da plataforma com participantes da comunidade, gestão escolar e membros dos órgãos fiscais. Resultados: Para o estado da arte, foram identificadas três ferramentas de controle social que pertencem ao contexto educacional, são elas: MyUniversity, Universidade Conectada e Liberopinion. Além disso, a Revisão evidenciou uma lacuna: nenhuma das ferramentas identificadas tinha como público-alvo crianças ou adolescentes. Com as avaliações cíclicas da pesquisa-ação, das quais participaram um total de 49 pessoas, entre membros da comunidade e gestão escolares (42), e órgãos reguladores (7), foi possível confirmar a efetividade da plataforma sob o aspecto colaborativo. A Duca foi considerada adequada por 48 dos 49 participantes. Conclusão: Após ser analisado o estado da arte, evidenciou-se que a Duca se enquadra nas propostas de funcionalidades e estratégias defendidas pela literatura para ferramentas de controle social na educação. Com a avaliação por parte da comunidade, da gestão e dos órgãos fiscalizadores, pôde ser constatado que a Duca está alinhada aos aspectos colaborativos fundamentais: político, técnico e social.

  • FELIPE FAUSTINO DE SOUZA
  • ENSINANDO PENSAMENTO COMPUTACIONAL UTILIZANDO HISTÓRIAS EM QUADRINHOS PARA ALUNOS DO ENSINO FUNDAMENTAL POR MEIO DE PRÁTICAS MINDFULNESS NA DISCIPLINA DE EDUCAÇÃO FÍSICA
  • Advisor : MARIA AUGUSTA SILVEIRA NETTO NUNES
  • Data: Feb 25, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A Educação atual enfrenta novos desafios e como resposta a esse cenário inovador modificações que contemplem as exigências de formação refletem as necessidades mercadológicas e de empregabilidade atuais do século XXI e vindouros. Desta forma, se faz necessário o desenvolvimento de competências para a Educação Básica listadas pela BNCC que estão em concordância com as cinco competências /habilidades para o século XXI (Pensamento Crítico, Colaboração, Criatividade, Resolução de Problemas e Pensamento Computacional) e em particular, o Pensamento Computacional (PC), habilidade essa classificada como fundamental. No entanto, a falta de atenção em sala de aula está relacionada com as dificuldades de aprendizagem e a prática Mindfulness aponta melhorias na atenção, no desenvolvimento social e emocional. Sendo assim, a motivação para esta dissertação é a necessidade de preparação das crianças e jovens para um mercado de trabalho ainda incerto impactando na urgência no desenvolvimento das habilidades/competências indispensáveis para o século XXI e, com esse intuito, esta dissertação propõe a criação de evidências para verificar a eficiência do ensino de PC com a utilização de HQs, na disciplina de Educação Física por meio de práticas Mindfulness para alunos do Ensino Fundamental. Para alcançar esse objetivo artefatos foram elaborados e com a realização do experimento com a participação de 26 alunos do 6º ao 9º ano com idade média de 13,69 durante 5 semanas foi possível aferir, sobre o teste de PC (CTt), o crescimento na distribuição das médias em ambos o grupo, com um percentual de 9,86% para o grupo experimental e de 5,37% para o grupo controle. Os resultados provenientes da análise referente ao teste de Mindfulness (MAAS) demonstraram um aumento na distribuição das médias em ambos os grupos, experimental (4,44%) e controle (2,7%). Embora com o maior aumento para o grupo experimental, o pequeno tamanho da amostra impacta negativamente na significância estatística.

  • MISLENE DA SILVA NUNES
  • Criação de Materiais Compostos por BRDFs Tabulares
  • Advisor : BEATRIZ TRINCHAO ANDRADE DE CARVALHO
  • Data: Feb 22, 2021
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Na representação computacional do que é visto no mundo real, a modelagem da aparênciabusca representar a forma como os materiais refletem a luz em uma certa direção sob diferentesconfigurações de iluminação. Essa modelagem é feita através de funções de refletância. Nestetrabalho, temos como foco a Bidirectional Reflectance Distribution Function - BRDF (Função deDistribuição de Refletância Bidirecional), que descreve a refletância em um ponto na superfícieatravés do quociente entre a radiância refletida e a irradiância incidente neste ponto. Essa funçãopode ser representada computacionalmente de diferentes formas, onde destacam-se amostrastabulares, modelos analíticos e a combinação linear de uma base de BRDFs preexistentes. Porserem obtidas a partir de medições, as BRDFs representadas por amostras tabulares apresentamum alto grau de realismo ao custo de um processo de aquisição mais demorado e um elevadoespaço de armazenamento. Tendo como objetivo a criação de materiais inéditos e com aparênciarealista, este trabalho propõe um pipeline para gerar novos materiais a partir de uma base deBRDFs tabulares. Para isso, uma reamostragem baseada nas características de refletância érealizada na base e, em seguida, as BRDFs são agrupadas a fim de obter grupos com característicassemelhantes. A partir da seleção de BRDFs de um ou mais grupos de interesse, é propostauma abordagem para criar materiais inéditos que apresentam características de refletância dosgrupos de interesse. Essa abordagem combina um método de redução de dimensionalidade a umalgoritmo de agrupamento. Dessa forma, novos materiais foram criados utilizando o pipelineproposto com diferentes métodos de redução de dimensionalidade lineares (Principal ComponentAnalysis - PCA e Multidimensional Scaling - MDS) e não-lineares (Isometric Feature Mapping- ISOMAP e Locally Linear Embedding - LLE) combinados a algoritmos de agrupamento(k-means e k-medoids), e uma análise dos resultados obtidos foi realizada.

2020
Description
  • ALEX DE SANTANA AMORIM
  • Um mecanismo para coleta, análise e classificação de tráfego em Redes Definidas por Software utilizando estruturas de big data.
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: Dec 10, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A gama de novos aplicativos e serviços que surgem a todo momento no universo da Internet tem tornado o trabalho dos administradores de redes cada vez mais desafiador. Essas novas demandas necessitam de diferentes tratamentos. Para atender esses requisitos são exigidos mecanismos de qualidade de serviço (QoS) bem definidos, que vão além dos modelos de serviços tradicionais de melhor esforço. Vários modelos e mecanismos de serviços foram propostos em redes tradicionais, entre eles o Serviços Diferenciados (DiffServ). No entanto, esses modelos ainda estão em sua infância em Redes Definidas por Software (SDN), que é uma nova abordagem de redes e promete resolver várias limitações impostas pelas redes tradicionais. Entre as características da SDN estão a separação entre plano de dados e plano de controle, facilidade no controle do tráfego e alteração nos atributos da rede de acordo com a necessidade e a obtenção de dados grandes de camadas diferentes com granularidade arbitrária. Isso gera uma expectativa muito grande para melhorar limitações existentes nas infraestruturas de redes tradicionais e incentiva a utilização de estruturas de big data para auxiliar nas decisões de políticas de QoS. Diante dos resultados observados em Revisão Sistemática este trabalho propõe uma nova arquitetura SDN, denominada ADASDN (Arquitetura de Decisões Avançadas em Redes Definidas por Software),que faz uso de estruturas de big data para analisar e classificar tráfego, permitindo aplicação de técnicas de serviço diffserv, de modo que permite dinamizar atividades como alocação de largura de banda e prioridade de tráfego baseado em classes, contribuindo com a garantia na qualidade do serviço e maximizando o aproveitamento dos recursos de redes multisserviços, conforme demonstrado através dos experimentos realizados.

  • CAIO VINÍCIUS MENESES SILVA
  • Análise Exploratória e Experimental sobre Detecção Inteligente de Fake News
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Dec 8, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: A evolução dos meios de comunicação tem contribuído para a disseminação de notícias falsas, principalmente após o surgimento das redes sociais digitais. No entanto, esta prática não é um fenômeno recente na história da humanidade. Relatos do período da Primeira Guerra Mundial evidenciam o uso de propaganda enganosa por parte da imprensa, que culminou em novas normas de objetividade e equilíbrio jornalístico. Nas mídias sociais digitais, tal fenômeno, agora chamado de fake news, encontrou um novo ambiente propício para se espalhar em escalas mundiais, tornando inviável a checagem manual desse imenso volume de dados. Diante deste contexto, trabalhos em diversas áreas têm sido realizados a fim de tentar minimizar os danos causados pela proliferação das fake news. Objetivo: Este trabalho teve por propósito avaliar a eficácia dos métodos mais utilizados para verificar correspondência de textos, na tarefa de detecção automática de fake news sobre as eleições presidenciais brasileiras de 2018, comparando as evidências encontradas com os resultados obtidos de um mapeamento do estado da arte publicado nesta pesquisa. Método: Inicialmente, foi realizado um mapeamento sistemático para identificar e caracterizar as principais abordagens, técnicas e algoritmos usados, na computação, para a detecção de notícias falsas. Por fim, foi realizado um experimento controlado, in vitro, usando como perspectiva um dos trabalhos encontrados na literatura, cujo contexto possui forte relação com este estudo: as eleições americanas de 2016. Desta forma, avaliou-se a eficácia dos métodos, confrontando os resultados e os contextos dos dois trabalhos. Resultados: Para o estado da arte, foi identificado que os principais algoritmos utilizados na tarefa de detecção de notícias falsas são LSTM (17,14%), Naive-Bayes e Algoritmo de Similaridade (11,43% cada um). Com a execução de todo o processo experimental, foi evidenciado que os métodos TF-IDF e BM25 obtiveram médias estatisticamente similares de acurácia, respectivamente, 79,86% e 79,00%. Por fim, os métodos Word2Vec e Doc2Vec obtiveram, também respectivamente, as piores médias, 75,69% e 72,39%. Conclusões: Após a análise do estado da arte, evidenciou-se lacunas relacionadas a trabalhos no contexto Big Data e à necessidade de replicações dos estudos existentes, na forma de experimentos mais controlados. Com a avaliação experimental, foi constatado que as eficácias dos métodos avaliados foram similares às eficácias do trabalho utilizado como controle. Além disso, considerando o universo de notícias checadas disponível, o período analisado e uma margem de erro de aproximadamente 3,5%, evidenciou-se a divulgação de fake news da parte de seguidores de ambos os candidatos avaliados no experimento. Os seguidores do candidato Jair Bolsonaro (PSL) foram responsáveis por 62,25% dos tweets relacionados a notícias falsas, contra 37,75% dos seguidores do candidato Fernando Haddad (PT). No que diz respeito às contas excluídas da rede social em um curto espaço de tempo, 59,96% eram de seguidores do candidato do PSL e 40,04% de seguidores do candidato do PT. A divulgação de fake news nem sempre implica intenção, podendo implicar apenas um engajamento maior por parte de alguns seguidores.

  • MATHEUS CARVALHO DE OLIVEIRA
  • Um estudo de transformações matemáticas em pontos dereferência em Algoritmos de Otimização com muitos Objetivos
  • Advisor : ANDRE BRITTO DE CARVALHO
  • Data: Dec 7, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Problemas de Otimização de Muitos Objetivos (MaOPs, do inglêsMany Objective OptimizationProblems) são problemas que possuem mais de três funções objetivo a serem otimizadas. Amaioria dos Algoritmos Evolutivos Multiobjetivo possui baixa escalabilidade quando o númerode funções objetivo aumenta. Para enfrentar essa limitação, novas estratégias têm sido propostas.Uma delas é o uso de pontos de referência para aprimorar a capacidade de busca dos algoritmos.O NSGA-III é um algoritmo baseado em pontos de referência e vem sendo aplicado com sucessopara resolver os MaOPs. Ele usa um conjunto de pontos de referência localizados em umhiperplano normalizado o qual é igualmente inclinado a todos os eixos dos objetivos e interceptacada eixo de forma equidistante no nível1,0. Apesar dos bons resultados do NSGA-III, a formada hiper-superfície que serve de referência não é explorada de forma extensiva na literatura. Estetrabalho procura propor um algoritmo capaz de explorar a relação entre os pontos de referência ea melhoria da busca em um contexto de otimização de muitos objetivos. Num primeiro momentosão propostas três transformações do conjunto de pontos de referência utilizados pelo NSGA-III.Além disso, o procedimento de Adaptação Guiada por Vetor (RVEA) também é aplicado paramodificar periodicamente o conjunto de pontos de referência do NSGA-III original. Num segundomomento do desenvolvimento da proposta, um novo algoritmo (K-Greedy) é apresentado, tendocomo principal característica realizar as transformações nos pontos de referência de maneiraautônoma, a partir de um conjunto de transformações disponíveis. Nos experimentos, avalia-seo desempenho das transformação propostas tanto de forma isolada (na primeira etapa) quantointegradas no conjunto de transformações possíveis realizadas pelo algoritmo K-Greedy (nasegunda etapa do desenvolvimento). Nestes experimentos, as versões original e adaptadas doNSGA-III são confrontadas considerando-se vários problemas debenchmarking, observando aconvergência e a diversidade através da análise de testes estatísticos. Os resultados mostram queas transformações, em especial aquelas realizadas de forma alternada pelo K-Greedy, são capazesde prover melhorias no NSGA-III sem deteriorar o desempenho à medida que se incrementa onúmero de objetivos.

  • GABRIEL DE CARVALHO ARIMATÉA
  • Uso de algoritmo de aprendizagem de máquina não-supervisionado para prevenção da formação de redes botnet
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Dec 3, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A Internet das Coisas tem se tornado cada vez mais importante por sua aplicabilidade em vários ecossistemas embarcados do cotidiano. Entretanto, os dispositivos destes sistemas apresentam várias restrições de hardware e sua segurança vem sendo negligenciada. Consequentemente, malwares formadores de botnets tem aproveitado os fracos esquemas de segurança nestes dispositivos. Esta dissertação avalia o uso de quatro algoritmos não-supervisionados que utilizam data stream para detectar a formação de botnets na borda da rede. Os algoritmos foram escolhidos após revisão da literatura por serem mais leves e, portanto, considerados mais adequados para a implantação em cenários com maiores restrições. Foram utilizados algoritmos de pré- processamento para melhorar a eficiência e a qualidade dos resultados. Foi também utilizado um dataset que considerou o fluxo de dados gerados por nove dispositivos inteligentes e com duas variantes de malwares: Mirai e Bashlite. Foram realizados testes qualitativos para validar o resultado das classificações de cada algoritmo, além de resultados referentes a variações de processadores e memória para verificar qual o perfil mínimo de dispositivo necessário para executar de forma adequada. Após avaliações qualitativas e de performance, os resultados obtidos mostram que algoritmos como BIRCH, DenStream e DStream são opções viáveis para detectar dados maliciosos que trafegam na formação da botnet. Tendo acurácias médias entre 96% e 98%, necessitando de poucas amostras por dispositivos e tempo de análise de amostras de 300 milissegundos em um Raspberry Pi Zero W, sendo um dispositivo muito limitado e mais próximo de uma aplicação próxima de um cenário da Internet das Coisas.

  • LANAY MARQUES CARDOSO
  • Uma arquitetura de monitoramento de infraestruturas virtuais
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: Nov 30, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Em um mundo sempre conectado, a computação em nuvem agrega todo tipo de informações. Com o crescente número de aplicações online e a grande perspectiva de aumento dos serviços oferecidos na Internet, tornam-se reais os suscetíveis ataques cibernéticos e a possibilidade de indisponibilidade desses serviços. Os softwares para monitoramento, em sua maioria, são proprietários, caros e podem não ser escaláveis; em contrapartida, os softwares livres possuem um design que necessita de um maior tempo de aprendizado. Como proposta de um modelo de monitoramento leve e escalável, esta dissertação apresenta uma arquitetura adaptável que pode ser aplicada a infraestruturas em minutos, sem intervenções profundas que afetem a integridade do sistema original. Um módulo plug-in foi desenvolvido para consumir APIs REST. Os dados de monitoramento são mostrados em um dashboard gráfico que utiliza o módulo plug-in, identificando a disponibilidade das aplicações. Os dados obtidos dos status desses endpoints são armazenados em um banco de dados de tempo real. A arquitetura de monitoramento foi implementada adaptada para ambiente em nuvem, tanto pública como privada. Estudos de casos, demonstraram a aplicabilidade da solução exibindo uma visão geral de serviços monitorados e permitindo a análise dos dados através de mecanismos de monitoramento distribuído adaptativo, dispensando a curva de aprendizagem que é necessária na maioria dos sistemas de código aberto.

  • ANNE CAROLINE MELO SANTOS
  • Construção e Avaliação de uma abordagem para apoiar o desenvolvimento e a manutenção de software baseada em recursos multimídia
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Nov 27, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: A Engenharia de Software tem utilizado bastante documentação textual para representar os requisitos do sistema. Para algumas pessoas, as descrições textuais podem não ser suficientes para entender o que precisa ser desenvolvido, sendo necessária a utilização de outros meios de visualização. Objetivo: Este trabalho teve por propósito propor e analisar uma abordagem multimídia, para apoiar a compreensão e manutenção de software, como alternativa às técnicas tradicionais de documentação de requisitos, avaliando se a utilização do plug-in CodeMedia aumenta a efetividade da compreensão e manutenção de sistemas. Método: Inicialmente, foi realizado um mapeamento sistemático para identificar as abordagens que promoviam o uso de recursos multimídia na Engenharia de Requisitos, como suporte no processo de compreensão e manutenção de software. Por fim, foi realizado um experimento controlado na indústria para avaliar a eficiência e a eficácia da abordagem multimídia proposta. Resultados: Para o estado da arte, foi identificada uma grande variedade de abordagens que promoviam o uso de multimídia na ER, dentre elas: TRECE, MURMER, Wiki System Multimedia, Storytelling, Virtual World Environment, VisionCatcher, PRESTO4U, ReqVidA, CrowdRE, AVW, The Software Cinema Technique, Dolli Project, UTOPIA, bem como abordagens sem nomes explícitos. Com a execução do processo experimental, evidenciou-se que a abordagem multimídia apresentou os melhores resultados, especialmente, em termos de eficácia (média de acertos para cada tarefa implementada) e nível de satisfação do cliente. A primeira com uma média aproximada de 4 acertos por tarefa, número superior à média de acertos sem o uso da abordagem; e o segundo, com um aumento de 7% no nível de satisfação do cliente. No que se refere à média de tempo de codificação e ao nível de compreensão do código, a abordagem multimídia se mostrou menos eficiente. Com uma média aproximada de 49 minutos por demanda, resultado superior à média de tempo sem o uso da abordagem; e uma queda de 16% no coeficiente de compreensão de código. Esses resultados podem estar correlacionados com o estilo de programação e o tempo de experiência dos programadores. Conclusão: Após ser analisado o estado da arte, evidenciou-se que houve consenso favorável quanto ao uso de multimídia em ER. Os estudos selecionados demonstraram ser favoráveis ​​à adoção de mídia para persistir os requisitos de software. Com a avaliação experimental, foi constatado que a abordagem multimídia foi mais eficaz em termos de acertos na codificação e nível de satisfação do cliente com o produto final, tornando-a uma opção a ser considerada para elicitação e registro dos requisitos. É provável que, em um contexto com programadores iniciantes, os resultados sejam muito mais promissores para abordagem.

  • JOSÉ ÁNDESON MORAIS DE OLIVEIRA
  • Modelos de alocação de banda com justiça em controladores de rede definidas por software
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: Nov 27, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • As mídias sociais, dispositivos móveis e a computação em nuvem estão cada vez mais forçando as redes de computadores convencionais para seus limites. O aumento de poder de processamento e capacidade de armazenamento têm trazido benefícios às infraestruturas com grandes inovações em virtualização e automação, mas estes benefícios muitas vezes são limitados pelas redes. Diante das limitações enfrentadas pelos administradores de redes, o conceito de Redes Definidas por Software (SDN - Software-Defined Networking) surgiu como uma proposta de abordagem mais dinâmica, gerenciável e adaptável onde os planos de dados e de controle são desacoplados. Com este desacoplamento, onde o plano de controle é centralizado e o plano de dados fica em cada dispositivo, a rede torna-se mais flexível, eficiente e ideal para alta largura de banda e para a natureza dinâmica dos aplicativos atuais. Outro aspecto importante é a alocação de recursos realizada por alguns elementos da rede para atender à demanda de aplicações. Mecanismos de alocação devem ser capazes de atribuir de maneira eficiente os recursos disponíveis em uma rede entre as diferentes aplicações que competem por eles. Neste sentido, devido à padronização e adaptabilidade propostas pelas SDNs, e das limitações na arquitetura das redes convencionais, esta dissertação apresenta uma solução que permite utilizar modelos de alocação de recursos com justiça em um controlador de rede baseada na arquitetura SDN afim de otimizar mecanismos para compartilhamento de banda. Para validar essa técnica, foram executados experimentos em ambiente virtual e em um laboratório de experimentos. Os resultados obtidos demonstraram a eficiência da solução implementada.

  • KLEBER HENRIQUE DE JESUS PRADO
  • Data Science Aplicada à Análise Criminal Baseada nos Dados Abertos Governamentais do Brasil
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Nov 25, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: Crime é um problema social comum e complexo, que afeta a qualidade de vida, o crescimento econômico e a reputação de uma nação. Governantes e a sociedade em geral têm tido enormes problemas causados por esse fenômeno, gastando, a cada ano, milhões de dólares combatendo a violência e, consequentemente, causando grande preocupação com o seu controle para as agências de segurança pública. Portanto, novas abordagens e sistemas avançados são necessários para melhorar a análise de crimes e para proteger a sociedade. Neste contexto, a Data Science vem desempenhando um papel fundamental na melhoria dos resultados das investigações e detecções criminais, facilitando o registro, a análise de recuperação e o compartilhamento das informações. Objetivo: Aplicar fundamentos de Data Science e fornecer um modelo automatizado, constantemente atualizado, para analisar dados abertos governamentais relacionados aos crimes ocorridos nas Unidades Federativas (UFs) brasileiras e nos municípios de Minas Gerais. Método: Inicialmente, foi executada uma Revisão Sistemática (RS) quantitativa (com metanálise), como forma de identificar e sistematizar as principais abordagens, técnicas e algoritmos utilizados na análise inteligente de dados governamentais abertos relacionados a incidentes criminais. Em seguida, dois experimentos controlados foram executados para descoberta de regras de associação entre estados, municípios, crimes, Regiões Integradas de Segurança Pública (RISPs), alvos de roubo e alvos de furto. Adicionalmente, foi realizada a detecção de outliers em relação às taxas de criminalidade e foram desenvolvidos rankings que demostram os locais (estados, municípios ou RISPs) mais perigosos. Resultados: No contexto dos estados brasileiros, do ponto de vista geral, com ponderações para os crimes, o Paraná foi o local mais perigoso, em todos os anos avaliados. Destaque também para o Rio de Janeiro, ocupando sempre a segunda posição. Além disso, os estados de Goiás, Pernambuco e Rondônia foram classificados entre os cinco mais perigosos, em três dos cinco anos analisados. Sob a perspectiva única dos assassinatos, em 2019, os estados de Roraima, Rio Grande do Norte, Sergipe, Acre e Pernambuco foram classificados entre os dez mais violentos, sendo Pernambuco e Acre os estados mais perigosos nas duas perspectivas (média ponderada e homicídios). Em relação às regras de associação, ficou evidenciado que existem dependências entre crimes e estados. No âmbito do estado de Minas Gerais, os municípios de Belo Horizonte, Confins e Contagem estiveram, constantemente, entre os cinco mais perigosos. Além disso, ficou evidenciado que há dependências entre: crimes e municípios, crimes e RISPs, alvos de roubo e municípios, e alvos de roubo e RISPs. Por outro lado, não foram detectadas associações entre alvos de furto e municípios, e alvos de furto e RISPs. Conclusão: A Data Science possibilita a redução do orçamento empregado na área de segurança pública, por meio da execução de diagnósticos mais precisos e mais céleres, auxiliando o planejamento estratégico e a tomada de decisão.

  • HUGO MENEZES TAVARES
  • Classificação para o Monitoramento Não-Intrusivo de Cargas em Sistema Embarcado com Rede Neural Convolucional
  • Advisor : BRUNO OTAVIO PIEDADE PRADO
  • Data: Nov 25, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A energia elétrica é de grande importância para o desenvolvimento econômico dos países e o seu consumo vem crescendo em um ritmo vertiginoso, mais rápido que os demais modais energéticos. Concomitantemente com o aumento do consumo, surge também a preocupação com o meio ambiente e a sustentabilidade, sendo que assegurar o acesso à energia elétrica de forma confiável, sustentável, moderna e a preço acessível para todos é um dos objetivos da Agenda 2030 proposta pela ONU. Além do incentivo ao uso de energias renováveis e de menor impacto ambiental, há também duas preocupações: criar dispositivos cada vez mais eficientes e reduzir o desperdício de energia elétrica, buscando alternativas para um uso mais eficiente desta. O envolvimento ativo dos consumidores resulta, na maioria das vezes, em um uso mais eficiente da energia elétrica, aumentando o interesse no desenvolvimento de tecnologias que os conscientizem quanto aos seus hábitos. Estudos mostram que quanto maior o detalhamento de informações acerca do consumo elétrico, maior a quantidade de energia elétrica economizada pelos consumidores. Uma das técnicas mais utilizadas para esse detalhamento é o Monitoramento Não-Intrusivo de Cargas, que através da desagregação de cargas, faz a distinção entre as cargas elétricas e explora o consumo elétrico de cada uma delas individualmente. A fim de contribuir para essa técnica, e diante do crescente avanço nas áreas de eletrônica e aprendizado de máquina, este estudo propõe realizar a classificação de cargas em sistema embarcado utilizando um método de aprendizado profundo e, dessa forma, contribuir para um consumo mais eficiente de energia elétrica. Como característica de distinção, foi utilizada a imagem binária da trajetória tensão-corrente. Para realizar a classificação dos aparelhos, utilizamos essas imagens como entrada para um método de aprendizado profundo, que foi a Rede Neural Convolucional (RNC). A contribuição deste trabalho é a quantização do modelo da RNC usando o TensorFlow Lite e a sua aplicação em um dispositivo embarcado, que foi o ESP32. Usando o método de validação cruzada leave-one-out, nosso modelo da RNC foi avaliado usando o dataset PLAID e obteve uma média macro F-Score de 74,76% para PLAID1, 56,48% para PLAID2 e 73,97% para PLAID1+2. Em testes realizados com todos os dados do PLAID1+2, a acurácia foi de 98,55%.

  • KELLY JOANY DE OLIVEIRA SANTOS
  • Education Data Mining Para Apoio a Gestão Estratégica na Identificação de Perfis Evasivos e Atenuação da Evasão Escolar no Ensino Superior
  • Advisor : ANDRE BRITTO DE CARVALHO
  • Data: Oct 29, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A mineração de dados educacionais é um campo de pesquisa que visa extrair informações de grandes conjuntos de dados de cunho didático. É uma área multidisciplinar com diversas possibilidades que ganha cada vez mais destaque em unidades de ensino. Esta tecnologia recente possibilita através de técnicas de mineração de dados gerar informação a partir de atributos como, por exemplo, dados de desempenho acadêmico. Pesquisas recentes apontam que estas técnicas podem identificar alunos que apresentam indicadores para o abandono aos estudos. Sendo assim, a evasão escolar é um dos principais desafios das universidades e demais organizações que buscam compreender os motivos que levam o discente a evadir do curso escolhido. No entanto, modelos e perfis de alunos evasivos ainda são pouco estudados, o que leva a falta de consolidação sobre as razões que elevam a evasão. Esta pesquisa propõe uma metodologia para a identificação de perfis de estudantes evasivos no âmbito de unidades de ensino com o intuito de apoiar decisões que atenuem a evasão escolar no ensino superior. A metodologia apresentada consiste em obter e criar a base de dados para os estudos, a realização de análise preliminar do ambiente observado e o método que avalia o desempenho de alunos em disciplinas. Para validar a abordagem proposta, este trabalho realizará um estudo experimental com os dados de alunos da Universidade Federal de Sergipe em cursos do Departamento de Computação para a aplicação específica do problema, consolidados em um Data Warehouse, que permitiu investigar a evasão entre os anos de 2007 a 2018. Nesta pesquisa são apresentados problemas comuns enquanto utilização de mineração de dados educacionais, como a seleção de atributos, estruturação dos dados, valores errôneos e correções dos mesmos. Os resultados iniciais apresentam a acurácia dos principais algoritmos para o tema, o que permitirá, apoiar a tomada de decisão e atenuar a evasão escolar.

  • MARCO AURÉLIO CRUZ FONSECA
  • Orquestração de serviços SDN com controladores heterogêneos em domínio administrativo único
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: Aug 31, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • As novas tecnologias desenvolvidas para os desafios crescentes nas redes de computadores, tais como o SDN, desempenham um papel fundamental na inovação da infraestrutura atual, mas mantêm problemas na sua gestão. Se por um lado SDN introduz facilidades ao gerenciamento e configuração das redes com a separação dos planos de controle e dados, por outro lado, a diversidade de soluções implementadas através de controladores heterogêneos em um mesmo domínio vem promovendo incompatibilidades na integração dos serviços. Diante desse cenário, é aqui proposto a adoção de uma arquitetura para a orquestração de serviços em SDN que permite a convivência de controladores heterogêneos em um domínio administrativo único. A solução é demonstrada a partir da orquestração dos serviços de detecção de perigo e de anonimização de pacotes IP em controladores heterogêneos. Este trabalho orquestra os serviços de segurança MAdPE-K / SDN e BomIP, alcançando um tratamento de ameaças mais robusto do que aqueles oferecidos separadamente. Desenvolvido para o controlador Ryu, o MAdPE-K / SDN monitora os sinais da rede e reage de forma bioinspirada, de acordo com a teoria do perigo, diminuindo os fluxos percebidos como ameaças. O BomIP, por outro lado, isola os fluxos da rede através da anonimização dos endereços implementados em um controlador RunOS, de forma que qualquer perigo seja impedido de atingir o restante da rede. O serviço de orquestração foi implementado em SDN com um único domínio administrativo, provando que é possível integrar diferentes controladores trabalhando juntos sem subdividir o plano de dados. Os casos de uso testados demonstraram o equilíbrio do plano de controle com referência ao nível de ameaça, onde o orquestrador coordenou o tratamento de segurança mais adequado entre os controladores.

  • THIAGO VALENÇA SILVA
  • ANÁLISE DO DESEMPENHO DE BLOCKCHAIN NO GERENCIAMENTO DE TRANSAÇÕES EM MICROGRIDS DE ENERGIAS RENOVÁVEIS
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Aug 28, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Desde a criação do Bitcoin por Satoshi Nakamoto em 2009 tem-se proposto a adoção darede que gerencia suas transações, o Blockchain, para substituição de uma terceira parte deconfiança em diversos sistemas por, entre outros benefícios, reduzir os custos que a inclusão damesma acarreta, como por exemplo o sistema bancário no caso do próprio bitcoin. Apesar de asubstituição de um sistema de confiança transparecer uma diminuição nas taxas para o usuáriofinal, isso deve ser estudado mais a fundo para verificar se realmente existem ganhos com essasubstituição. Este trabalho realiza um estudo experimental, analisando o comportamento de umarede de gerenciamento de energia que se utiliza de blockchain para a validação de transações.O experimento é executado realizando o monitoramento de dois ambientes em que usuáriossolicitam transações dentro do sistema de gerenciamento desenvolvido. Em cada ambiente sãoalterados o número de contas que solicitam de forma simultânea essas transações enquantoum script acompanha os valores das temperaturas de CPU e GPU, utilização de CPU e GPU eutilização de memória. O primeiro ambiente citado se utiliza de NodeJS para o gerenciamento evalida as transações realizando verificações usuais como a validação de login a partir do cache,o segundo ambiente utiliza NodeJS, assim como o primeiro, para o gerenciamento e validaas transações a partir de smart contracts em uma rede Ethereum. Ao final, o estudo verificaque existe uma maior utilização dos recursos por parte do ambiente que gerencia as transaçõescom blockchain quando comparando ao primeiro ambiente. O trabalho conclui também que orecurso que é mais solicitado pela execução em blockchain é a memória RAM que apresentaaltos índices de utilização no segundo ambiente de simulação. Por fim, é verificado que apesar deo blockchain reforçar a segurança dispensando os custos de um intermediário, ele acrescentacustos de hardware para o gerenciamento do mesmo.

  • PABLO IGNACIO MARAMBIO SILVA
  • CISSA: MODELO CONCEITUAL DE CIDADE INTELIGENTE E SEGURA BASEADO EM SISTEMA AUTOADAPTATIVO
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: Aug 19, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • As cidades inteligentes representam ambientes urbanos inovadores que fazem uso intensivo das Tecnologias da Informação e Comunicação (TICs) que aliadas ao paradigma de Internet of Things (IoT) visam aumentar a eficiência na prestação de serviços públicos e possibilitam que os cidadãos tenham suas demandas atendidas quase que em tempo real. Um dos principais desafios da governança urbana é a Segurança Pública que emerge como um componente indispensável para que a cidade possa atingir o seu objetivo estratégico de melhorar as condições de vida da população. As cidades inteligentes e seguras podem adotar soluções autoadaptativas e computacionais para atender as demandas e fortalecer políticas de segurança pública. Nesse contexto, o sistema autoadaptativo representa uma solução promissora com capacidade de modificar autonomamente seu comportamento em tempo de execução em resposta as mudanças do ambiente. Em função do exposto, este trabalho teve como principal objetivo desenvolver um modelo conceitual aqui denominado Cidade Inteligente e Segura baseado em Sistema Autoadaptativo (CISSA). Para tanto, utilizou-se de uma pesquisa exploratória com abordagem metodológica quali-quantitativa baseado em pesquisa bibliográfica, Mapeamento Sistemático da Literatura (MSL) e análise documental. A partir do MSL foram identificadas as principais soluções computacionais e as demandas de segurança pública no contexto de cidades inteligentes. Esses resultados nortearam a construção do modelo CISSA organizado em três camadas: conceito, demandas e infraestrutura. As camadas de conceito e demandas abordam uma definição própria de cidade inteligente e apresentam uma estrutura de identificação e classificação das demandas de segurança pública. Elas contribuem para fornecer diretrizes sobre as quais a camada de infraestrutura por meio do sistema autoadaptativo monitora o ambiente e gerencia autonomamente o processo de seleção das soluções, adaptando quando necessário o seu comportamento para resolver os desafios da segurança pública na cidade. Para avaliar o modelo CISSA foi realizada a verificação em cenários de estudos anteriores. Com os resultados obtidos percebeu-se que o modelo pode guiar os administradores das cidades em projetos que buscam estabelecer planos para tornar as cidades mais inteligentes e seguras.

  • BRUNO NUNES BARRETO
  • Uma Arquitetura de Fog Computing Virtualizada para Prover Gerenciamento de Recursos, QoS e SLA em um Ambiente Inteligente
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Aug 13, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A Fog Computing representa uma mudança no uso e na arquitetura da Internet das coisas combinada com a computação em nuvem, onde dispositivos ubíquos com diferentes níveis de autonomia e necessidades passam por gateways inteligentes capazes de fornecer recursos e serviços flexíveis para os usuários finais na borda da rede. Em função da amplitude proposta e heterogeneidade de tecnologias e “objetos” na Internet das coisas, sua interligação direta com a nuvem torna-se impraticável para alguns tipos de aplicações, dentre elas, algumas voltadas para ambientes inteligentes, fazendo necessária a interferência de um novo paradigma capaz de suprir tais necessidades. Dessa forma, motivada pela quantidade de questões em aberto e por ser um tema atual, esta dissertação demonstra a capacidade da arquitetura de fog computing virtualizada (AFCV), desenvolvida e implementada, em prover o gerenciamento de recursos, QoS e auxílio a contratos de acordo de nível de serviço (SLA). Os experimentos realizados em ambiente real, validam as vantagens da AFCV em relação à nuvem convencional através de resultados como a eficiência na comunicação, largura de banda, entre outros. Esta dissertação preenche lacunas relacionadas à fog computing e possibilita a garantia e o fornecimento de serviços capazes de serem implementados em ambientes inteligentes (como por exemplo o de smart home), bem como auxilia o desenvolvimento de modelos de negócio voltados para a mesma.

  • FELIPE DE ALMEIDA FLORENCIO
  • Estudo Comparativo do Desempenho de Bibliotecas para Redes Neurais Convolucionais em Diferentes Microarquiteturas de GPU
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Jul 27, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: A popularização da Deep Learning e da Deep Inference impulsionou o desenvolvimento de ferramentas para implementação de Redes Neurais Convolucionais (CNNs, do inglês Convolutional Neural Networks) como bibliotecas específicas para o desenvolvimento de CNNs, a popularização também estimulou o desenvolvimento de GPUs com recursos de aceleração de CNNs. Os desenvolvedores e cientistas que trabalham com CNNs precisam de estudos científicos experimentais que apontem qual a biblioteca mais adequada para determinada microarquitetura de GPU. Objetivos: Comparar o desempenho das bibliotecas CNTK, PyTorch, TensorFlow 1.15 e TensorFlow 2.2 em diferentes microarquiteturas de GPU (Kepler, Maxwell, Pascal e Turing) utilizando a CNN LeNet-5 e o dataset MNIST. Metodologia: Inicialmente, foi realizado um mapeamento sistemático como forma de identificar e sistematizar os principais benchmarks, em seguida foi realizado um experimento avaliando o impacto da API Keras no desempenho das bibliotecas utilizadas no estudo comparativo e por último foram realizados quatro experimentos comparando as bibliotecas, cada experimento foi realizado em um ambiente acelerado por uma GPU com uma microarquitetura diferente. Resultados: Para o mapeamento sistemáico, foi identificado que as arquiteturas clássicas de CNN como LeNet-5 e AlexNet são as mais utilizadas como benchmarks, também mostrou que os datasets mais utilizados em benchmarking são o ImageNet, MNIST e CIFAR-10. O experimento sobre o impacto da API Keras mostrou que a API impacta negativamente no desempenho de todas as bibliotecas testadas. No estudo comparativo de desempenho das bibliotecas, a biblioteca PyTorch apresentou o pior desempenho e as bibliotecas CNTK, TensorFlow 1.15 e TensorFlow 2.2 alternaram entre os três menores tempos de execução. Conclusão: Os resultados evidenciam que a biblioteca PyTorch apresenta um baixo nível de utilização da GPU e utiliza uma grande quantidade de memória se comparada as outras bibliotecas que apresentaram um desempenho superior.

  • JOEL ALVES DE OLIVEIRA
  • Avaliação de Técnicas de Aprendizagem de Máquina como Surrogate na Otimização com Muitos Objetivos
  • Advisor : ANDRE BRITTO DE CARVALHO
  • Data: Feb 14, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Em problemas de otimização existe um número exaustivo de possíveis combinações para as
    variáveis de entrada de um sistema. Assim, avaliar essas combinações é um processo humanamente
    inviável, então recorre-se a mecanismos de otimização que visam encontrar a melhor solução
    para problemas abstratos, dentre os quais é possível quantificar o grau de adequação das soluções
    às necessidades em causa. Entretanto, um subconjunto desses problemas apresenta modelagens
    complexas, ou seja, apresenta funções objetivos cujo processo de quantificar os valores está
    associado a um alto custo computacional. Geralmente, quando se tratam de problemas com até
    três funções objetivos são empregados Algoritmos Evolutivos para resolvê-los. Outra aborgagem
    empregada é o uso de surrogates, os quais podem ser classificados como mecanismos capazes
    de aprender o comportamento de uma dada função. Ao usar esses mecanismos em problemas
    complexos obtêm-se como ganho a redução do alto custo computacional para computar os
    valores de fitness das funções objetivos. Dentre os mecanismos de surrogate comuns na literatura
    destacam-se as técnicas de regressão linear e aprendizagem de máquina. A aplicação de surrogates
    em problemas com mais de uma função objetivo, problemas multiobjetivo, requer o uso de
    um modelo de aprendizagem para cada função, entretanto, recentes estudos têm obtido êxito
    em empregar um único surrogate para problemas com mais de uma função objetivo. Porém
    o uso de surrogate em problemas de otimização com mais de três funções objetivos ainda
    é uma área pouco explorada. Diante disso, esse trabalho tem como objetivo propor e avaliar
    novas abordagens de treinamento de surrogates associados a Algoritmos Evolutivos no âmbito
    de problemas com muitos objetivos. Foram desenvolvidos dois frameworks, um aplicado a
    classe de problemas mono-objetivo e outro voltado para problemas de otimização com muitos
    objetivos. Os frameworks propostos têm como característica o emprego de diferentes abordagens
    de alimentação de surrogate e também diferentes maneiras de uso de técnicas de Aprendizagem de
    Máquina. As abordagens de alimentação de surrogate baseiam-se na metodologia de alimentação
    das técnicas de aprendizagem de máquina. Os frameworks foram submetidos a experimentos
    usando problemas benchmark, onde cada configuração dos algoritmos foi execultada por vinte
    vezes e armazendas as métricas de desempenho. Para confirmar ou refutar as hipóteses, foi
    aplicado o teste estatístico de Wilcoxon.


  • FELIPE JOSÉ ROCHA VIEIRA
  • Um Framework para Análise Postmortem em Projetos de Desenvolvimento de Software em uma Instituição Pública
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Jan 24, 2020
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Software é aplicado com sucesso em uma grande variedade de áreas, apoiando e facilitando as atividades de pessoas e organizações em suas rotinas diárias. Entretanto, os projetos de desenvolvimento de software têm apresentado por muitos anos uma reputação ruim por recorrentemente estourarem prazos, custos ou por não cumprirem completamente os requisitos do usuário. O entendimento das falhas ocorridas e dos sucessos alcançados durante o projeto são importantes para que haja o aprendizado e a melhoria da organização. A análise postmortem auxilia na compreensão dessas informações. Mesmo assim, as respostas para o entendimento de por que os projetos de software falham são frequentemente negligenciadas nas organizações, e por isso não estão facilmente disponíveis. Devido a recorrente omissão na realização de análises postmortem em projetos de desenvolvimento de software, o objetivo deste trabalho foi entender as dificuldades para realização dessa análise e, elaborar e aplicar um framework para análise postmortem em projetos de desenvolvimento de software em instituição pública. Para atingir esse objetivo, nesse trabalho foram aplicados como instrumentos de pesquisa a revisão de literatura e o estudo de caso. Por meio da revisão da literatura identificou-se quais as dificuldades para realização de análises postmortem. Em seguida, foi desenvolvido um template para coleta de dados e elaborado um framework para realização de análises postmortem em projetos de desenvolvimento de software, denominado CRIAR. Para testar e avaliar a aplicabilidade do framework CRIAR foi realizado um estudo de caso. O estudo foi realizado na Secretaria de Tecnologia da Informação e Comunicação (SETIC) do Tribunal Regional do Trabalho (TRT) da 20ª Região, onde foi aplicado o framework para a realização de análise postmortem em um projeto relevante para a instituição. A aplicação do framework CRIAR permitiu a identificação de pontos positivos e negativos no projeto analisado, o registro desses aprendizados em uma base de conhecimento, também possibilitou a sugestão de melhorias para a execução das atividades presentes no processo de desenvolvimento de software da instituição e a recomendação de cursos para integrar o plano de capacitação. Para a validação do framework, onze membros da SETIC, com experiência média de dezoito anos em TI e nove anos de experiência no TRT, responderam a um questionário e foram entrevistados para expressarem suas considerações sobre o CRIAR para avaliação qualitativa do framework. Os resultados obtidos sugerem que a aplicação do framework CRIAR alcançou resultados positivos para a instituição, apontando práticas que precisam ser melhoradas e atividades que devem ser mantidas para o aumento da qualidade do software desenvolvido pela equipe de tecnologia da informação da instituição.

2019
Description
  • ANGELO GARANGAU MENEZES
  • Analysis and evaluation of deep learning based super-resolution algorithms to improve performance in low-resolution face recognition
  • Advisor : CARLOS ALBERTO ESTOMBELO MONTESCO
  • Data: Dec 12, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Surveillance scenarios are prone to several problems since they usually involve low-resolution footage, and there is no control of how far the subjects may be from the camera in the first place. This situation is suitable for the application of upsampling (super-resolution) algorithms since they may be able to recover the discriminant properties of the subjects involved.
    While general super-resolution approaches were proposed to enhance image quality for human-level perception, biometrics super-resolution methods seek the best "computer perception" version of the image since their focus is on improving automatic recognition performance. Convolutional neural networks and deep learning algorithms, in general, have been applied to computer vision tasks and are now state-of-the-art for several sub-domains, including image classification, restoration, and super-resolution. However, no work has evaluated the effects that the latest proposed super-resolution methods may have upon the accuracy and face verification performance in low-resolution ``in-the-wild'' data.
    This project aimed at evaluating and adapting different deep neural network architectures for the task of face super-resolution driven by face recognition performance in real-world low-resolution images. The experimental results in a real-world surveillance and attendance datasets showed that general super-resolution architectures might enhance face verification performance of deep neural networks trained on high-resolution faces. Also, since neural networks are function approximators and can be trained based on specific objective functions, the use of a customized loss function optimized for feature extraction presented promising results for recovering discriminant features in low-resolution face images.

  • WALTER DO ESPÍRITO SANTO
  • Uma arquitetura de micro-PaaS para fog computing: Orquestração baseada em container para aplicações IoT utilizando single board computer
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Dec 9, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A Internet das Coisas (IoT) é um paradigma de tecnologia emergente em que sensores onipresentes monitoram, infraestruturas físicas, ambientes e pessoas em tempo real para que sejam tomadas decisões que melhorem a eficiência e a confiabilidade dos sistemas adicionando conforto e qualidade de vida à sociedade. Nesse sentido, existem questões como a limitação de recursos computacionais, latência elevada e diferentes requisitos de QoS, relacionados aos dispositivos IoT e que acabam movendo tecnologias cloud em direção a fog computing, e à adoção de soluções de virtualização leve, como as tecnologias baseadas em containers para atender às diversas necessidades de diferentes domínios. O presente estudo, tem como objetivo propor e implementar uma arquitetura de micro-PaaS para fog computing, em cluster de plataforma single board computer (SBC), para orquestração de aplicações utilizando containers, aplicada à Internet das Coisas e que atendam a critérios de QoS, como, por exemplo, alta disponibilidade, escalabilidade, balanceamento de carga e latência. A partir do modelo proposto, a micro-PaaS Fog foi implementada com tecnologia de virtualização em containers utilizando serviços de orquestração em um cluster formado por Raspberry Pi para monitoramento inteligente do consumo de água e energia em pontos focais do Instituto Federal de Sergipe Campus Lagarto. Os resultados mostraram que é possível implementar uma micro- PaaS Fog performática a um custo total de propriedade (TCO) equivalente a 23% de uma plataforma como serviço (PaaS) pública, latência média entre mote e a fog de 26ms e tempo médio de recuperação de falhas de 1,33 segundos levando-se em consideração um intervalo de confiança (IC) de 95%. Esta pesquisa também contribuiu com um mapeamento sistemático para identificação das principais características e requisitos para orquestração eficiente em ambientes fog computing por meio de um estudo comparativo das métricas, heterogeneidade, gerenciamento de QoS, escalabilidade, mobilidade, federação e interoperabilidade. Por fim concluímos o trabalho apresentado as limitações, dificuldades encontradas e promissoras direções de pesquisas para trabalhos futuros.

  • ANDRÉ TEIXEIRA DE FRADES
  • Uma Arquitetura de Ecossistemas de Software para Hospitais Universitários da Rede EBSERH
  • Advisor : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: Dec 5, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Fomentar a interoperabilidade entre os sistemas das organizações envolvidas em um ecossistema, possibilita melhor desempenho, redução de custos e de erros operacionais. Os Hospitais Universitários (HU) são organizações de natureza complexa, devido a existência de diversas especificidades em relação aos seus processos, protocolos, legislações, sistemas, entre outros. Estes fatores tornam a interoperabilidade entre os elementos fundamental, sendo um objetivo distante e laborioso. Uma Arquitetura de Ecossistema de Software (ECOS) pode facilitar o gerenciamento de ambientes complexos, caracterizados por alta heterogeneidade de sistemas e processos. Neste cenário, o objetivo deste trabalho foi propor uma Arquitetura de ECOS, com a finalidade de fomentar futuras melhorias na interoperabilidade dos sistemas desenvolvidos, do ponto de vista dos diversos atores no contexto da Rede de HU da Empresa Brasileira de Serviços Hospitalares (EBSERH). Inicialmente, foi realizado um Mapeamento Sistemático da Literatura, com a premissa de identificar as aplicações de arquiteturas de ecossistemas na área da saúde. Em seguida, um survey foi aplicado aos gestores dos hospitais da rede EBSERH, para caracterização do cenário atual dos HU em relação aos aspectos de ECOS. Por fim, uma arquitetura de ECOS e um guia de implantação foram elaborados, em sendo seguidos de uma avaliação da saúde do ECOS de dois hospitais da rede. Para o estado da arte, identificou-se que as arquiteturas propostas têm como principal objetivo a interoperabilidade semântica, sendo a troca de mensagens a principal abordagem. Entre os principais padrões ou tecnologias estão: HL7, XML e SNOMED. Quanto ao survey, os resultados apontaram baixa interoperabilidade entre sistemas e organizações, devido a fatores como alta fragmentação dos sistemas, uso insuficiente de padrões e alta discrepância entre os hospitais, principalmente em relação ao número de funcionários, a infraestrutura de Tecnologia da Informação instalada e, muitas vezes, ausência de desenvolvimento de software. A Arquitetura de ECOS proposta, apresentou potenciais para fomentar a interoperabilidade no ECOS dos hospitais da rede EBSERH, levando em consideração a legislação e cenário atual dos hospitais. Entretanto, é necessário transpor barreiras para implementação desta arquitetura, exigindo um empenho dos atores envolvidos.

  • MANOELA DOS REIS OLIVEIRA
  • O TRABALHO DO ARQUITETO DE SOFTWARE NO BRASIL: PADRÕES E ANTIPADRÕES
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Nov 26, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Embora as habilidades e os conhecimentos dos arquitetos de software já tenham sido objeto de estudos nos últimos anos, os pesquisadores e profissionais ainda não chegaram a um consenso claro sobre as atividades que um arquiteto de software é responsável na prática, a fim de ser bem-sucedido na profissão. Nos últimos anos, devido à ocorrência de sucessivas mudanças e evolução de novas tecnologias, os papéis do arquiteto e até mesmo as práticas relacionadas à arquitetura de software foram continuamente alterados no ciclo de vida de desenvolvimento de software. É esperado que o arquiteto de software possua uma diversidade de habilidades,
    além do conhecimento técnico, conhecimento de domínio e as habilidades de comunicação devem ser considerados. No entanto, há muitas ofertas de emprego para essa posição que têm habilidades desejadas e funções a serem desempenhadas totalmente diferentes das já conhecidas e consideradas essenciais pelos estudos acadêmicos e industriais. Com o objetivo de entender melhor o que os arquitetos de software realmente fazem em suas atividades cotidianas na prática,
    e em como isso se assemelha ou se distancia das habilidades, papéis e conhecimentos citados na literatura como essenciais, neste trabalho foi conduzida uma pesquisa em larga escala com 536 profissionais atuando no Brasil que atualmente trabalham ou trabalharam em algum período de suas carreiras como Arquitetos de Software. Entre os resultados, está claro que as funções, responsabilidades, atividades e tarefas desempenhadas pelos arquitetos de software ainda são amplamente desconhecidas e difusas nas organizações, uma vez que tarefas importantes a serem
    executadas pelos arquitetos de software ainda não são senso comum na indústria.
  • ADEMIR ALMEIDA DA COSTA JÚNIOR
  • A Maturity Model based on ISO / IEC / IEEE 42010: 2011 to Identify Technical Debt in Software Architecture
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Nov 19, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Software architecture is considered an important area of Software Engineering, as it is usefulfor managing the development and maintenance of large scale software-intensive systems. Thesoftware architecture as a development product is useful for technical activities, such as describingthe views and concerns of the future software products, as well as for management activities,including allocating tasks to each team and as an input for project management activities. Onemain issue when describing the software architecture is knowing what elements must be includedin the architecture, and at what level of detail. Thus, the description of a Software Architecturehas been considered a crucial deliverable in a software development process because it is readby many stakeholders when developing and maintaining complex software systems that arecomposed of multiple elements, including software, systems, hardware, and processes. Dueto Software Architecture importance, the ISO/IEC/IEEE 42010:2011 standard was publishedin 2011. In order to facilitate and assist in the documentation of software architecture, manycontributions have been proposed in the past decades for architectural standards, provided byacademia and industry. This master thesis proposes the use of standard ISO/IEC/IEEE 42010:2011to develop a maturity model, named ArchCaMo, which is based on sections 5, 6 and 7 of thementioned standard. To support the designing of ArchCaMo, a Systematic Mapping Study wasmade for describing studies that explicitly used the ISO/IEC/IEEE 42010:2011 standard, andidentifying which parts of this standard were most considered in the literature. The ArchCaMo isuseful to evaluate current architectures and analyze the rate of architecture debt. In addition, it iseffective for organizations that are struggling with organizing, describing, and communicatingthe software architecture for multiple stakeholders. For each level of architecture maturity, theorganization knows what to expect concerning activities and deliverables. Within this objective,three organizations are selected as case studies. The researchers conducted the survey by meansof interviews with their software architect or the chief of the software architecture team. Byanalyzing the obtained results, the authors checked the compliance of their software architectureactivities with ISO/IEC/IEEE 42010:2011. As a result, all three organizations were classified onlevel 1, which means that these organizations fail in at least one aspect to formalize and definethe software architecture.

  • BRUNO LUIZ KREUTZ BARROSO
  • DATA MINING E DATA ANALYTICS NA DETECÇÃO DE TRANSAÇÕES SUSPEITAS DE LAVAGEM DE DINHEIRO
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Nov 11, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: Lavagem de dinheiro (LD) é um crime que pode afetar todo o sistema financeiro de um país. Além dos atos ilícitos, os quais geram os valores a serem lavados e representam um prejuízo para nação, um Governo com verbas desviadas enfraquece sua capacidade de efetivar políticas públicas em favor do povo. Em 2007, no Brasil, iniciou-se a criação dos primeiros Laboratórios de Tecnologia contra Lavagem de Dinheiro (LABLDs), os quais, hoje, estão presentes em todas as regiões da federação e são responsáveis por políticas de desenvolvimento de métodos e tecnologias de ponta para dar suporte aos órgãos de persecução penal. A necessidade de inovação neste cenário de combate ao crime impõe parcerias, apoio, pesquisas e método científicos. Objetivo: Este trabalho teve por propósito avaliar a eficácia dos algoritmos EM (Expectation–Maximization), DT (Decision Tree), NN (Neural Network), LR (Logistic Regression) e K-Means sobre bases de dados reais de transações financeiras investigadas pelos LABLDs de Sergipe, comparando as evidências encontradas com os resultados obtidos de um mapeamento do estado da arte publicado nesta pesquisa. Método: Inicialmente, foi realizado um mapeamento sistemático como forma de identificar e sistematizar as principais abordagens, técnicas e algoritmos usados, na computação, para lutar contra a LD. Por fim, foram planejados e executados dois experimentos controlados, in vivo, utilizando dois casos reais de investigação. Resultados: Para o estado da arte, foi identificado que as abordagens principais utilizadas contra LD são classificadores supervisionados e clusters. Com a execução de todo o processo experimental, foi evidenciado que os algoritmos DT, LR, EM e NN obtiveram acurácia máxima de 98.80%, 98.26%, 98.25% e 98.17%, respectivamente. Por fim, o algoritmo K-Means obteve as piores médias, alcançando uma acurácia máxima de 82.58%. Conclusões: Após ser analisado o estado da arte, evidenciou-se que há oportunidades para explorar soluções contra LD, principalmente nas áreas de Aprendizado de Máquina e Aprendizado Profundo. Finalmente e em linhas gerais, uma vez que nossos experimentos avaliaram vários tipos de agrupamentos de transações, com resultados diferentes para estes, o algoritmo DT se apresenta como uma alternativa superior aos demais, para a implementação de um módulo preditor de transações suspeitas. Além disso, foram confirmados os resultados encontrados na literatura, os quais indicam o EM como algoritmo superior ao K-Means, no entanto, agora, com a chancela de um ambiente real e específico de investigação.

  • MICHEL CONRADO CARDOSO MENESES
  • Rastreamento em Tempo Real de Múltiplos Objetos por Associação de Detecções
  • Advisor : LEONARDO NOGUEIRA MATOS
  • Data: Oct 25, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Devido ao recente avanço na área de detecção de objetos, o rastreamento por detecção (no inglês, tracking-by-detection) tornou-se o principal paradigma adotado por algoritmos de rastreamento de múltiplos objetos. Com base na extração de diferentes características de objetos detectados, tais algoritmos são capazes de estimar a similaridade e o padrão de associação dos objetos ao longo de sucessivas imagens. No entanto, uma vez que as funções de similaridade aplicadas por algoritmos de rastreamento são construídas manualmente, sua utilização em novos cenários é dificultada. Este trabalho investiga o uso de redes neurais artificiais para o aprendizado de funções de similaridade que podem ser aplicadas entre detecções. Durante seu treinamento, tais redes foram apresentadas a padrões de associações corretas e incorretas, amostradas de múltiplas bases de dados. Para tanto, diferentes combinações de características relacionadas à aparência e à movimentação foram exploradas. Uma rede treinada foi inserida num framework de rastreamento de múltiplos objetos, o qual foi avaliado em três diferentes cenários de experimentação: o rastreamento de pedestres, o rastreamento de passageiros de ônibus e a contagem automática de passageiros de ônibus. No primeiro experimento o método proposto obteve acurácia de 60.4% sobre o benchmark MOT Challenge 2016, similar à apresentada por algoritmos considerados estado da arte, porém a um menor custo computacional. Já o segundo experimento foi realizado a partir de uma base de dados construída localmente, sobre a qual o método proposto igualou a acurácia de sua principal baseline, porém com ganho de 42.8% em velocidade. Finalmente, o terceiro experimento correspondeu a um estudo de caso no qual a contagem obtida através do método proposto apresentou um erro média absoluto 40.7% menor que sua baseline.

  • THIAGO DE OLIVEIRA LIMA
  • Big Data Science Experimental para Efetividade da Mineração de Opiniões de Turistas: Uma Abordagem Geral e Sustentável
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Oct 23, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: O turismo é considerado um dos maiores segmentos econômicos do mundo. No Brasil, o mercado de viagens é responsável por mais de 8% da economia e gera emprego para cerca de 7 milhões de trabalhadores, de acordo com dados divulgados pelo Ministério do Turismo, em março de 2019. As redes sociais vem sendo um instrumento fundamental no processo de decisão de compra do novo turista, o turista 2.0. Além disso, estudos recentes constataram que este turista costuma pesquisar sobre experiência de outros viajantes antes de efetivar a compra. Por outro lado, existe uma preocupação mundial latente sobre as práticas de desenvolvimento sustentável. No âmbito mundial, a Organização das Nações Unidas (ONU) estabeleceu um conjunto de 17 objetivos sustentáveis que devem ser implementados por todos os países do mundo durante os próximos 15 anos. No Brasil, também foi criada a norma 15.401 da ABNT, a qual traça um conjunto de 18 dimensões para o desenvolvimento turístico sustentável. Este também tem sido um fato a ser considerado por uma parcela de turistas para planejar suas viagens, priorizando hotéis sustentáveis. Objetivo: O objetivo deste projeto é criar um dicionário para classificação de aspectos sustentáveis e avaliar, por meio de um processo experimental, a eficácia e eficiência dos algoritmos TC-LSTM e AT-LSTM com o apoio deste dicionário, no contexto das opiniões sobre os hotéis de Sergipe, postadas nos sites de reservas TripAdvisor e Booking, além de comparar as evidências encontradas com os resultados publicados na literatura. Método: Inicialmente, foi executado um mapeamento sistemático, como forma de identificar e sistematizar as principais abordagens, técnicas e algoritmos usados para mineração de opiniões. Em seguida, foi realizado um experimento preliminar que comparou as principais técnicas encontradas durante a execução do mapeamento sistemático e a rede neural LSTM. Ato contínuo, foi realizado um estudo exploratório sobre o dicionário contextualizado com aspectos sustentáveis criado nessa pesquisa, o CM-SAHR. Também foi planejado e executado mais um experimento cuja meta foi analisar a eficiência e eficácia dos algoritmos TC-LSTM e AT-LSTM, com uso do modelo Word2Vec. Por fim, foi planejado e executado um experimento final, para comparar os mesmos algoritmos do primeiro experimento com uso dos modelos Glove, Fasttext e Wang2Vec. Resultados: (a) Dicionário contextualizado com aspectos sustentáveis, o CM-SAHR; (b) O algoritmo AT-LSTM apresentou os melhores resultados para os modelos Glove e o Word2Vec. No entanto, não tivemos resultados conclusivos que mostrassem diferenças representativas entre os algoritmos, quando aplicados aos modelos Wang2Vec e Fasttext. Conclusão: A eficácia alcançada pelo algoritmo AT-LSTM, para os modelos Word2Vec e Glove, torna-o uma opção a ser considerada para mineração de opiniões com base em aspectos específicos do turismo e nichos de mercado peculiares.

  • WESLEY OLIVEIRA SOUZA
  • Alocação de Infraestruturas Virtuais utilizando Algoritmos Evolucionários Multiobjetivo
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: Aug 28, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Para atender os requisitos dos usuários, Provedores de Infraestrutura (InPs, do inglês InfrastructureProviders) começaram a oferecer Infraestruturas Virtuais (VI, do inglês Virtual Infrastructure)como um serviço. Dentre as tarefas necessárias para oferecer VIs como um serviço, aprincipal é a alocação das VIs solicitadas na infraestrutura física. O processo de alocação consisteem identificar dentro da infraestrutura um conjunto de recursos para hospedar os componentesdas VIs. Porém, o processo de alocação não é trivial pois ela deve respeitar os requisitos derede e computação pré-definidos. Além disso, para um gerenciamento efetivo da infraestrutura,o balanceamento da carga e a redução do overhead de alocação são essenciais. Do mesmomodo, no processo de alocação, alguns objetivos dos InPs e usuários devem ser considerados.Geralmente guiados por suas perspectivas financeiras, os InPs desejam maximizar a sua receitaalocando o maior número de VIs, usando a menor infraestrutura possível. Por outro lado, osusuários desejam majoritariamente VIs eficientes e de baixo custo. Portanto, o processo dealocação é complexo e deve atender a um conjunto considerável de restrições. Para resolver esseproblema, o presente trabalho apresentou um Algoritmo Evolucionário Multiobjetivo (MOEA,do inglês Multi-Objective Evolutionary Algorithm) para alocar VIs em uma infraestrutura física,atendendo os requisitos de computação e rede, avaliando soluções que atendam objetivos como:balanceamento de carga e baixo overhead de alocação. O MOEA empregou o modelo propostopara o mapeamento dos recursos virtuais das VIs nos recursos físicos da infraestrutura física.Ademais, foi desenvolvido um simulador para avaliar soluções para o problema de alocaçãode VIs. A avaliação experimental utilizou a técnica de simulação para avaliar o desempenhoda solução proposta. Desse modo, os algoritmos foram implementados na linguagem Java, euma análise comparativa foi realizada entre diferentes algoritmos que aplicavam o modelode alocação proposto. Sendo assim, para avaliar o desempenho dos algoritmos foi utilizadaas métricas: tempo para atender uma requisição de VI, lucro do provedor, taxa de rejeiçãoe eficiência do uso da infraestrutura física. Além disso, foi utilizada uma topologia baseadano modelo de três camadas da Cisco para representar a infraestrutura física. Os resultados experimentais demostram que o MOEA baseado no Algoritmo Genético (GA, do inglês GeneticAlgorithm) desenvolvido apresenta resultados promissores para diversos cenários, combinandorapidez e eficiência na alocação. O modelo de alocação proposto se mostrou útil para o mapeamentodos recursos virtuais das VIs nos recursos físicos da infraestrutura física. Portanto,o presente trabalho contribui com uma possível solução para o problema e abre caminho paranovas propostas que podem empregar o simulador e o modelo proposto.

  • ITAUAN SILVA EDUÃO FERREIRA
  • Uma Arquitetura para Planejamento de Rotas Veiculares em Cidades Inteligentes
  • Advisor : EDUARDO OLIVEIRA FREIRE
  • Data: Aug 28, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A grande quantidade de veículos e o crescimento desordenado das cidades contribuíram para o agravamento do problema dos congestionamentos de trânsito. Grandes cidades já apresentam vários problemas decorrentes da grande quantidade de veículos, desde a poluição até a ineficiên- cia em atendimentos de emergência. Esses problemas causam grandes prejuízos à qualidade de vida das pessoas que perdem bastante tempo no trânsito, ao sistema de saúde que não consegue atender demandas emergenciais com a rapidez necessária, aos cofres públicos que precisam destinar grandes quantidades de recursos para mitigar as consequências de acidentes. Para re- solver problemas relacionados ao tráfego, uma das soluções promissoras é a implementação de um Sistema Inteligente de Transporte - SIT. Os SITs objetivam prover serviços inovadores para estabelecer sistemas de transportes mais inteligentes e harmoniosos, onde os vários usuários poderão viajar de forma mais segura e mais rápida. Nesse trabalho foi desenvolvido uma arquite- tura para avaliação de métodos de planejamento dinâmico de rotas entre veículos que permita a obtenção de rotas ótimas e sub-ótimas, computacionalmente viáveis em termos de tempo de processamento e com qualidade, considerando medidas de qualidade como níveis de conges- tionamento, comprimento de rotas e tempo de viagem. O sistema avaliado também objetivou permitir que as rotas planejadas pelos veículos, entre um ponto de origem e um ponto de destino, sejam construídas levando em consideração o planejamento dos demais veículos do domínio de atuação, permitindo o compartilhamento de informações entre os veículos e infraestruturas computacionais através de redes veiculares (VANETs). Os resultados obtidos mostraram que a existência de um sistema de planejamento dinâmico de rotas melhora as condições do trânsito, assim como, o fato de que o algoritmo seja desenvolvido com uma abordagem paralela usando GPU reduz o tempo necessário para cálculo das rotas.

  • NATHANAEL OLIVEIRA VASCONCELOS
  • Data Mining e Data Analytics para Apoio à Gestão Estratégica e Mitigação da Evasão Escolar
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Aug 22, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: A evasão é, certamente, um dos grandes problemas que afligem as instituições de ensino em geral, uma vez que as perdas ocasionadas pelo abandono do aluno são desperdícios sociais, acadêmicos e econômicos. A busca de suas causas tem sido objeto de muitos trabalhos e pesquisas educacionais em todo mundo. No campo prático, diversas organizações de ensino norteiam as suas decisões estratégicas para o controle da taxa de evasão, entretanto, no Brasil, ainda são poucos os trabalhos publicados nesta área de pesquisa. Como consequência, fica evidente a necessidade de aumentar a compreensão do problema e de suas causas, com a adoção de medidas mais eficazes para identificar e entender os principais fatores que podem contribuir com o insucesso dos estudantes. Objetivo: Este trabalho teve por propósito fazer duas análises experimentais dos algoritmos de mineração de dados mais utilizados na área de educação, avaliando o que melhor se adequa ao contexto de abandono do ensino em duas instituições federais, bem como implementar um método de uso do melhor modelo, o qual auxiliará o processo de apoio à decisão e à mitigação da evasão escolar. Método: Foram planejados e executados dois experimentos controlados "in vivo", para comparar a eficácia dos classificadores selecionados. Em seguida, foi realizado um estudo de caso com interface criada para aplicar o algoritmo que obteve a melhor eficácia. Resultados: Os resultados evidenciaram que existem diferenças significativas entre os algoritmos utilizados, e que, apesar do SVN possuir a maior média das métricas de eficácia, estatisticamente, após a metanálise dos experimentos, os algoritmos MLP e Random Forest, respectivamente, obtiveram resultados semelhantes de acurácia (85,38%, 84,40% e 84,13%). Para medida-F, a significância estatística foi igual apenas para o MLP (84,42% e 83,44%). Conclusões: Esta dissertação expôs a necessidade de aumentar a adoção de medidas para identificar e entender os principais fatores que podem contribuir com o insucesso dos estudantes. Após duas análises experimentais, foi evidenciado que existem diferenças significativas entre os três primeiros colocados e os demais algoritmos avaliados, sendo o SVN, pelo seu pequeno destaque, selecionado para ser aplicado em um estudo de caso de atendimento parcial a um dos itens do planejamento estratégico da Universidade Federal de Sergipe – UFS.

  • GUSTAVO MENEZES MACHADO
  • Um estudo da representação de documentos jurídicos em espaços métricos.
  • Advisor : JUGURTA ROSA MONTALVAO FILHO
  • Data: Aug 20, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Diariamente são elaboradas dezenas de decisões a partir de interpretações das leis realizadas por tribunais de todo o país. Esse conjunto de decisões similares sobre uma mesma matéria é conhecido como jurisprudência, e serve como base para julgamentos e argumentações futuras. Nos textos jurídicos escritos em Português brasileiro, além das palavras serem guiadas por regras estéticas diferentes, há também o uso de referências frequentes a elementos jurídicos, o que torna a análise de textos jurídicos escritos em Português brasileiro um problema estimulante. Neste trabalho, é explorado um espaço métrico associado a contextos e ao compartilhamento de símbolos entre contextos de documentos jurídicos, ou seja, trata-se da busca por espaços adequados à representação de textos como processos judiciais, onde cada processo é representado como um ponto, e as distâncias entre esses pontos representam medidas probabilísticas. Para tal representação, foi utilizado o "Multidimensional Scaling" (MDS), que é uma técnica de redução de dimensionalidade onde as relações de distâncias entre os pontos no espaço projetado se aproximam das medidas de proximidade dos objetos do espaço original. A base de jurisprudência do Tribunal de Justiça do Estado de Sergipe foi utilizada, além de um conjunto controlado de palavras utilizadas na área jurídica, disponibilizados pelo Supremo Tribunal Federal. Os experimentos realizados evidenciaram que o método proposto conseguiu uma melhor classificação em 43,5% dos casos, enquanto Doc2Vec foi superior em apenas 35,7% das vezes, evidenciando a existência de um espaço métrico mais adequado à representação de textos jurídicos escritos em Português brasileiro, que um espaço puramente baseado em co-ocorrência de símbolos quaisquer, como o que é encontrado pelo Doc2Vec.

  • DENISE XAVIER FORTES
  • GOALS PLAN PETICGOV: MODELO HÍBRIDO ÁGIL PARA GOVERNANÇA EM TECNOLOGIA DA INFORMAÇÃO E COMUNICAÇÃO
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: Jul 30, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Dentro do contexto de um ambiente com práticas tradicionais, o resultado de atrasos no cumprimento dos prazos estipulados no plano de ação, devido ao excesso de formalidade no acompanhamento e monitoramento das metas e ações nos PDTICs, trouxe como resultado um baixo índice no alcance dos objetivos estipulados, impactando o índice de maturidade de Governança das organizações. Geralmente, há uma burocracia excessiva nos ambientes organizacionais. Dessa forma, as práticas tradicionais como, por exemplo, o COBIT e o ITIL caracterizados pelas normas e procedimentos rígidos dentro do processo de monitoramento do Planejamento e das ações, apresentam dificuldades com relação ao alcance dos resultados dentro do prazo estipulado, devido à falta de priorização das demandas e ausência de mensuração do desempenho do fluxo das atividades, por exemplo. Gerando assim, um baixo índice de Governança de Tecnologia da Informação (IGOVTI) tanto no monitoramento da Governança quanto na gestão de TI. Neste cenário, o presente estudo trouxe como principal objetivo o desenvolvimento de uma metodologia híbrida ágil no apoio à Governança de TIC, que foi criada a partir da coesão entre a Metodologia Ágil Scrum, o método Kanban e a ferramenta Project Model Canvas. O modelo desenvolvido aqui denominado de Goals Plan PeticGov tem o foco no Planejamento, Execução, Verificação e Avaliação da lista de tarefas baseadas nos planos de Metas elaborados pelos CIOs, descritos no PDTIC das Instituições de Ensino Federais. A fim de contemplar o objetivo proposto, foi adotado um estudo exploratórios por meio de procedimentos bibliográficos e um experimento para a validação do modelo proposto. O Experimento foi realizado em um ambiente controlado, com quatro grupos, com o objetivo de avaliar a Eficácia, Efetividade e a Satisfação do Acompanhamento e Monitoramento do Modelo Goals Plan PeticGov e do Modelo Tradicional. Dessa forma, foi validado o Modelo Goals Plan PeticGov com base nas três questões de pesquisa do experimento com 49 participantes. A primeira questão avaliou a frequência de atividades executadas. Para esta questão o Modelo Goals Plan PeticGov obteve a Eficácia de 69%. A Segunda questão avaliou o tempo de execução das tarefas. Para esta questão o Modelo Goals Plan PeticGov atingiu o menor tempo na execução com de 00:07:35 (sete minutos e trinta e cinco segundos). Por fim, a última questão avaliou a satisfação do usuário. Para esta questão o Modelo Goals Plan PeticGov obteve sucesso, pois os mesmos concluíram que o modelo é: Muito conveniente na utilização, muito profissional, muito superior se comparada ao modelo tradicional. Também inferiram a satisfação na utilização e, por fim, que recomendariam o modelo para instituições de ensino ou organizações. Com base nos resultados do experimento, pode-se inferir que o modelo Goals Plan PeticGov tem a capacidade de auxiliar no processo de acompanhamento/monitoramento dos planos de Ações do PDTIC nas organizações, concluindo que o Acompanhamento e o Monitoramento do Goals Plan PeticGov é Eficaz e Eficiente, quando comparada ao Modelo Tradicional.

  • ALLAN VINICIUS REZENDE
  • Otimização com Muitos Objetivos por Evolução Diferencial Aplicada ao Escalonamento Dinâmico de Projeto de Software
  • Advisor : LEILA MACIEL DE ALMEIDA E SILVA
  • Data: Jul 5, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Os problemas da Engenharia de Software geralmente envolvem problemas com vários
    objetivos e restrições, muitas vezes conflitantes entre si. Uma tendência para a solução
    destes problemas é o uso de algoritmos de busca e otimização para encontrar soluções
    de forma automática que balanceiem estes objetivos. Neste trabalho investigamos um
    problema na área de planejamento de software, a saber, o Problema de Escalonamento
    de Projetos de Software (em inglês, Software Project Scheduling Problem - SPSP),
    o qual visa alocar pessoas a tarefas em um projeto de software de forma a otimizar
    alguns objetivos, como por exemplo, o custo e a duração do projeto. Existem duas
    variações principais para este problema: a estática e a dinâmica. No SPSP estático o
    planejamento é realizado apenas no início do projeto, e os únicos objetivos a serem
    otimizados são o custo e a duração do projeto. O modelo dinâmico, chamado de DSPSP,
    considera que o ambiente de projetos de software está sujeito a incertezas, e o projeto
    pode precisar ser reescalonado ao longo do ciclo de desenvolvimento do software. Na
    abodargem dinâmica, muitos objetivos precisam ser otimizados, como o custo, a duração,
    a estabilidade e a robustez do cronograma, frente às mudanças que podem ocorrer durante
    o ciclo de desenvolvimento do projeto. O modelo dinâmico ainda é pouco explorado na
    literatura. Este trabalho propõe uma extensão do modelo dinâmico existente na literatura,
    pela consideração de mais dois eventos dinâmicos e da influência da experiência da
    equipe. O cerne principal do trabalho é a investigação da adequabilidade do algoritmo de
    otimização com muitos objetivos por evolução diferencial ao problema de escalonamento
    dinâmico de projetos de software, considerando o modelo proposto. Como o DSPSP
    envolve otimização dinâmica, seis variantes do algoritmo de evolução diferencial foram
    investigadas, cada uma delas contemplando uma ou mais técnicas de otimização dinâmica.
    O algoritmo de evolução diferencial e suas variantes foram comparados ao algoritmo
    evolucionário NSGA-III, também ainda não explorado para o DSPSP. Para a análise
    dos algoritmos investigados foi realizado uma bateria de experimentos. Os resultados
    sugerem que o algoritmo de evolução diferencial com técnicas de otimização dinâmica
    fornece melhores soluções para o DSPSP.

  • THAUANE MOURA GARCIA
  • SMART E-PING: FRAMEWORK DE INTEROPERABILIDADE DA ARQUITETURA E-PING COM A PLATAFORMA FIWARE PARA O USO EM CIDADES INTELIGENTES
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: May 29, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A interoperabilidade possui uma função importante para o Governo Eletrônico Brasileiro (GEB),
    provendo uma única interface com todas as informações armazenadas em diferentes servidores
    na rede. Dessa maneira, o GEB utiliza um padrão de interoperabilidade, chamado e-PING,
    para auxiliar na integração de sistemas e compartilhamento das informações. No entanto, a
    interoperabilidade ainda é um fator desafiante para inúmeras organizações devido à grande
    quantidade e diversidade de dispositivos que estão predispostos a trocar informações entre si.
    Para integrar os inúmeros sistemas, aplicativos e/ou dispositivos com diferentes plataformas
    disponíveis no mundo, pode-se utilizar um middleware. Uma plataforma middleware também
    pode auxiliar as Cidades Inteligentes (CI) fornecendo acessos padronizados aos dados e serviços
    provenientes das interfaces dos pilares de uma CI, além de promover o reuso de serviços
    genéricos. A plataforma FIWARE foi identificada como a mais adequada para aprimorar o
    GEB, pois trata-se de uma das plataformas mais utilizadas em trabalhos científicos. Diante deste
    cenário, este trabalho teve como principal objetivo desenvolver o Framework Smart e-PING que
    pretende possibilitar a interoperabilidade entre Softwares Públicos, que utilizam a arquitetura
    e-PING, e a plataforma FIWARE. A fim de contemplar o objetivo proposto, foi adotado um
    estudo exploratório por meio de procedimentos bibliográficos e, por fim, foi realizado um estudo
    de caso para a validação do Framework proposto. O estudo de caso foi realizado em um cenário
    real que teve como objetivo analisar o Framework Smart e-PING, avaliando a interoperabilidade
    entre um Software Público e a plataforma FIWARE. Dessa forma, foi validado o Framework
    Smart e-PING com base em três questões de validações, simulando 35 testes. A primeira questão
    avaliou a frequência com que o Framework Smart e-PING traduzia corretamente o arquivo
    do Banco de Dados do Software Público para a plataforma FIWARE. Para essa questão, o
    Framework Smart e-PING obteve uma taxa de sucesso de 97,14%. A segunda questão avaliou a
    frequência com que o Framework Smart e-PING causava perda de informação na tradução do
    arquivo do Banco de Dados do Software Público para a plataforma FIWARE. Para a segunda
    questão, o Framework Smart e-PING obteve uma taxa de erro de 2,85%. Por fim, a última questão
    avaliou o tempo estimado com que o Framework Smart e-PING permitiria a interoperabilidade
    entre o Software Público e a plataforma FIWARE. Para essa questão de pesquisa, o Framework
    Smart e-PING teve um tempo médio para cada iteração de 248 milissegundos. Com base nesse
    estudo de caso, inferiu-se que o Framework Smart e-PING atende parcialmente o objetivo
    proposto neste trabalho. Portanto, o Framework Smart e-PING permite a integração e facilita o
    uso da plataforma aberta FIWARE para as organizações que já utilizam a arquitetura e-PING.
    Desta forma, esse trabalho dá suporte ao GEB quanto a redução dos seus custos, otimização e
    melhoria dos seus serviços públicos por meio de soluções inteligentes e a reutilização de recursos
    inteligentes.

  • CÍCERO GONÇALVES DOS SANTOS
  • ESTRATÉGIAS PARA IMPLANTAÇÃO E AVALIAÇÃO DE UM PLANO DE DIRETRIZES PEDAGÓGICAS PARA O ENSINO E APRENDIZAGEM ASSOCIADOS AO DESENVOLVIMENTO DO PENSAMENTO COMPUTACIONAL COM ALUNOS DO ENSINO FUNDAMENTAL DA REDE PÚBLICA DE ENSINO NAS DISCIPLINAS DE LÍNGUA PORTUGUESA E MATEMÁTICA
  • Advisor : MARIA AUGUSTA SILVEIRA NETTO NUNES
  • Data: Mar 22, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • As escolas na era da tecnologia necessitam se reinventar e estimular o aluno a pensar criticamente, para isso, é necessário utilizar a tecnologia como um recurso didático que proporcione a formação de problemas e soluções para os mesmos, utilizando os fundamentos do PC. Dessa forma, o PC consiste em saber utilizar a computação de forma interdisciplinar como um instrumento de aumento ao poder cognitivo, contribuindo para o aumento da produtividade, inventividade e criatividade. No entanto, a computação Desplugada é apresentada como uma alternativa para auxiliar no desenvolvimento do estímulo ao PC, sem o uso direto de computadores. Dessa forma, esta dissertação propõe a utilização de HQs com temáticas em CC, amparados pela abordagem Desplugada no estímulo do PC de estudantes do ensino fundamental, com o objetivo de criar, implantar e avaliar um Plano de Diretrizes Educacional com Histórias em Quadrinhos Desplugadas que auxiliem no desenvolvimento do PC, raciocínio lógico e interpretação textual com estudantes do ensino fundamental nas disciplinas de Língua Portuguesa e Matemática. Acreditando na hipótese que o desenvolvimento do PC aplicado às disciplinas e respectivos conteúdos de Língua Portuguesa (interpretação textual) e Matemática (raciocínio lógico), amparados por recursos pedagógicos de ensino-aprendizagem Desplugada contribuem de forma qualitativa e quantitativa no auxílio do estímulo ao raciocínio lógico e interpretação textual de estudantes do ensino fundamental. À vista disso, com a finalidade de realizar essa análise, foi adotado um estudo descritivo por meio dos procedimentos bibliográficos, survey, questionários, por fim, experimentos para validação do artefato proposto, Plano de Diretrizes, com intuito de utilizar HQs dos Almanaques para Popularização de Ciência da Computação de forma Desplugada, a fim de auxiliar estudantes do 9º ano do Ensino Fundamental a desenvolverem o PC. Dessa forma, obteve-se como resultados, a validação do artefato, que atende aos 4 pilares do PC, auxiliando no desenvolvimento do pensamento crítico, pensamento algoritmo, pensamento cooperativo, e na resolução de problemas. Dessa forma, o artefato foi validado por meio da resolução de um Questionário para Validação com 30 profissionais de (cada) área, CC, Letras - Língua Portuguesa e Matemática, aplicado antes & depois da realização dos experimentos. Todavia, os experimentos foram realizados com alunos do 9º ano do ensino fundamental, da rede pública de ensino da cidade de Olho d’Água do Casado- AL, durante 9 encontros para (cada) experimento: (Experimento 1) todos os alunos de uma turma de 50 alunos participaram diretamente das atividades propostas; e (Experimento 2) metade de uma turma de 50 alunos participou diretamente das atividades propostas pelo artefato desenvolvido. Logo, foi identificado um avanço no rendimento escolar dos alunos que participaram dos encontros referentes ao experimento. Desse modo, o artefato proposto auxilia no processo de ensino-aprendizagem para o desenvolvimento do PC, interpretação textual e raciocínio lógico.


  • RENEILSON YVES CARVALHO SANTOS
  • Análises Experimentais de Algoritmos de Aprendizagem de Máquina na Classificação de Distúrbios Elétricos
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Feb 21, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Nesta dissertação diversos experimentos in vitro foram implementados com o intuito de analisar formas de criar sistemas de monitoramento de distúrbios elétricos (em especial, sistemas de classificação). Antes de iniciar os experimentos, uma análise da literatura fora realizada, verificando artigos e patentes relacionados à área, só então, com base nos resultados iniciou-se a implementação dos experimentos. Nos primeiros experimentos foram propostos a verificação do comportamento de algoritmos de aprendizagem de máquina na tarefa de classificação de sinais ruidosos, dessa forma, dois experimentos foram realizados com este intuito, o primeiro utilizou SVM e MLP para classificação do sinal puro ou retornado pelas técnicas de DWT, FFT e Filtro Notch; no segundo experimento, com intuito de melhorar o resultado em ambientes ruidosos, fora proposto a utilização do classificador Random Forest e extratores de características baseados em estatística descritiva (além de usar algumas técnicas de pré-processamento como o FFT, filtro gaussiano e Transformada de Hilbert), alcançando uma acurácia superior aos 90% em ambientes cujo ruído possa chegar a 20dB de SNR. Na sequência, dois outros experimentos foram implementados, agora com intuito de verificar o comportamento dos algoritmos em ambiente embarcado, sendo proposto no primeiro experimento o Raspberry (com diferentes classificadores: MLP, SVM, Random Forest e Árvore de Decisão), e no segundo uma comparação do Raspberry Pi 3 (sistema microprocessado) com o NodeMCU Amica (sistema microcontrolado), utilizando-se o classificador Árvore de Decisão, FFT para pré-processamento e extraindo caracterítiscas com estatística de primeira e segunda ordem; comparando-se os resultados, verificou-se uma acurácia média de 97.96% em sinais sem ruído, e um tempo de processamento de 45.5ms no Raspberry e 267.1ms no NodeMCU. Por fim, um último experimento fora realizado para tratar de sinais com distúrbios que ocorrem simultaneamente na onda senoidal, no qual trabalhou-se com três algoritmos de Random Forest, de forma a separar os classificadores para sinais ruidosos e sinais não-ruidosos; alcançou-se uma acurácia de 92.03% para os distúrbios sem ruído, sendo classificados um total de 22 distúrbios distintos.

  • FÁBIO MANGUEIRA DA CRUZ NUNES
  • Análise Exploratória e Comparativa da Aplicação de Agrupamento para Combate à Lavagem de Dinheiro
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Jan 31, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: Desde 2007, por meio da Estratégia Nacional de Combate à Corrupção e à Lavagem de Dinheiro (ENCCLA), iniciou-se a criação dos primeiros Laboratórios de Tecnologia contra Lavagem de Dinheiro (LABLDs), os quais, hoje, estão presentes em todas as regiões da federação e são responsáveis por políticas de desenvolvimento de métodos e tecnologias de ponta para dar suporte aos órgãos de persecução penal. A necessidade de inovação neste cenário de combate ao crime impõe parcerias, apoio, pesquisas e método científicos. Objetivo: Este trabalho teve por proposito avaliar a eficácia dos algoritmos EM (Expectation–Maximization) e K-Means sobre bases de dados reais de transações financeiras investigadas pelos LABLDs de Sergipe, comparando as evidências encontradas com os resultados obtidos pelo mapeamento do estado da arte publicado na literatura. Método: Inicialmente, foi realizado um Survey com a premissa de caracterizar a utilização de técnicas de armazenamento, integração, Data Mining e Data Analytics pelos LABLDs e demais unidades investigativas em todo o Brasil. Em seguida, foi executado um mapeamento sistemático como forma de identificar e sistematizar as principais abordagens, técnicas e algoritmos usados na computação, para lutar contra a LD. Por fim, foi planejado e executado um experimento controlado, in vivo, para comparar os algoritmos EM e K-Means. Resultados: Constatou-se que aproximadamente 97% dos respondentes do survey não utilizavam diretamente algum algoritmo de mineração de dados e que 30,99% avaliavam o próprio conhecimento sobre o assunto como ruim ou péssimo. Para o estado da arte, foi identificado que as abordagens principais utilizadas contra LD são classificadores supervisionados e clusters. Com a execução do processo experimental, foi evidenciado que o algoritmo EM supera o algoritmo K-means, alcançando uma acurácia máxima de 98,25%. Conclusões: Esta dissertação expôs uma realidade dura dentro dos principais órgãos de investigação e controle do nosso país. Após ser analisado o estado da arte, evidenciou-se que há oportunidades para explorar soluções contra LD, principalmente nas áreas de Aprendizado de Máquina e Aprendizado Profundo. Finalmente, o algoritmo EM se apresentou como uma alternativa superior ao K-means, para a implementação de um módulo preditor de transações suspeitas, confirmando os resultados da literatura, todavia, em um ambiente real e específico de investigação.

  • VINICIUS ALMEIDA TELES BARRETO
  • Dados abertos na administração pública de cidades inteligentes promovendo transparência aos cidadãos
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: Jan 24, 2019
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A proposta de uma cidade inteligente é gerir de maneira eficaz os recursos de uma população, fazendo uso de
    informações geradas e coletadas no dia-a-dia dos cidadãos por meio de de Tecnologias de Informação e
    Comunicação (TIC) e Internet das Coisas—Internet of Things (IoT). Assim, os dados das cidades podem ser armazenados, tratados e publicados de maneira que fiquem acessíveis à população, promovendo transparência no uso de bens públicos. Dessa forma, os desenvolvedores podem utilizar os dados em sistemas de informação e torná-los aliados dos cidadãos no provimento de bem-estar, divulgação de conhecimento, combate à poluição do meio-ambiente, estímulo da economia, combate à corrupção, dentre outras vantagens para a cidade. No Brasil, a criação da lei nº 12.527/2011, popularmente conhecida como Lei de Acesso à Informação (LAI), garante o direito constitucional de acesso às informações governamentais por qualquer pessoa física ou jurídica, sem a necessidade de informar motivos de solicitação. Com o objetivo de promover a transparência em cidades inteligentes, este trabalho apresenta uma abordagem de publicação de dados abertos governamentais orientada pelo Plano de Dados Abertos (PDA) e, por meio dele, também foi possível o desenvolvimento do Portal de Dados Abertos da UFS com um conjunto inicial de dados. Por fim, foi desenvolvida uma arquitetura de publicação de dados abertos para instituições de ensino público superior em conjunto com três bibliotecas de código aberto para auxiliar o processo de extração e publicação das informações.

2018
Description
  • DANILO SOUZA SILVA
  • Uma Arquitetura Autonômica para a Alocação de Recursos Através de Migração de Serviços em Ambientes Fog Computing
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Dec 20, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Nos últimos anos, o número de dispositivos inteligentes tais como, smartphones, sensores eveículos autônomos, vem crescendo de forma significativa. Nesse cenário, a demanda computacionalnecessária para atender a demanda de aplicações sensíveis à latência em domínios comoIoT, Industria 4.0 e smart cities também está crescendo e o tradicional modelo de computação emnuvem já não é capaz de atender sozinho à todas as necessidades deste tipo de aplicação. Comoalternativa para esta limitação, foi introduzido um novo paradigma de computação chamadofog computing. Este paradigma define a arquitetura que estende a capacidade computacionale o armazenamento da nuvem para a borda da rede. Contudo, um dos principais problemasé como determinar de forma eficiente, onde os serviços serão alocados de modo a atenderdeterminadas necessidades de QoS para o provimento de serviços através de aplicações IoT. Opresente estudo, tem como objetivo apresentar uma estratégia de otimização para o problemade alocação de recursos utilizando migração de serviços através de um modelo de arquiteturaautonômico, baseado no laço de controle MAPE-K. À partir do modelo apresentado, a estratégiafoi implementada com tecnologia de virtualização em contêineres e avaliada em um ambientevirtual de larga escala para IoT, denominado VIoLET. Os resultados mostram que é possívelotimizar um ambiente de fog computing utilizando a migração de serviços entre os nós de acordocom objetivos estabelecidos e de forma autonômica. O trabalho contribui com uma revisão bibliográficado estado da arte sobre gerenciamento de recursos, a implementação de um ambientede monitoramento e orquestração para o VIoLET, além de contribuir com o desenvolvimento eavaliação da estratégia de otimização bem como, a análise da utilização de recursos da soluçãoproposta. Por fim concluímos o trabalho apresentando uma lista de promissoras direções depesquisas em linhas gerais para trabalhos futuros. Esperamos que o trabalho sirva como basepara trabalhos de pesquisas que buscam desenvolver técnicas de otimização para a utilização derecursos em ambientes fog computing.

  • ROBERTO VASCONCELOS MELO
  • Abordagem Imunológica de Segurança Baseada em Correlação de Alertas e Redes Programáveis
  • Advisor : DOUGLAS DYLLON JERONIMO DE MACEDO
  • Data: Dec 12, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Na área de segurança, foram desenvolvidas técnicas de detecção de anomalia para detectarpadrões de tráfego que não estão em conformidade com o comportamento esperado. Essespadrões representam ataques ou atividades maliciosas e são frequentemente referidos comoanomalias. Particularmente, algumas anomalias podem estar associadas a invasores que executamataques de negação de serviço distribuído (Distributed Denial-of-Service - DDoS) para degradara disponibilidade de serviços online. Ameaças na categoria DoS podem envolver estágios iniciais,como ataques de reconhecimento. Nesse tipo de ameaça, a rede é escaneada com o objetivo deencontrar maquinas vulneráveis e comprometê-las. Dessa forma, as vulnerabilidades detectadaspossibilitam o acesso não autorizado as maquinas por meio de ataques U2R, e R2L. Ondeas maquinas comprometidas poderiam ser utilizadas com o intuito de provocar a negação deserviço contra determinado alvo. No entanto, sistemas de detecção baseados em anomalia podemapresentar dificuldades na detecção de ameaças nas classes de reconhecimento, e DoS. Issoocorre porque as duas classes podem se esconder no tráfego normal devido à baixa intensidadede ataque requerida. Além disso, as técnicas de detecção baseadas em anomalia apresentam umaalta taxa de alarmes falsos, o que prejudica o desempenho da detecção. Enquanto as categoriasU2R, e R2L, também podem apresentar dificuldades no processo de detecção, pois ataques dessetipo estão contidos no conteúdo de seus pacotes, e portanto não consistem em uma sequência depadrões de tráfego de rede.Para atenuar esses problemas, o presente trabalho tem como objetivo apresentar uma abordagemde segurança com a função de detectar e mitigar ataques que exploram vulnerabilidades dainfraestrutura da nuvem. Essa abordagem consiste nos conceitos de imunologia, correlaçãode alertas, e redes programáveis. A partir dela, um sistema de detecção de intrusão baseadoem anomalia, e dentro da abordagem imunológica, é utilizado em conjunto com uma técnicade correlação de alertas baseada em grafos de ataque. O paradigma de sistemas imunológicosartificiais (AIS - Artificial Immune Systems) é inspirado pelo sistema imunológico humano e setrata de uma abordagem promissora para a detecção de anomalias. Esse paradigma consiste dequatro principais algoritmos conhecidos como, seleção negativa, seleção clonal, rede imune, eteoria do perigo. Neste trabalho, os três primeiros algoritmos são usados para implementar umsistema de detecção baseado em agentes distribuídos para analisar o tráfego de rede. O sistemadescrito é utilizado com o auxílio de grafos de ataque, que representam os caminhos que uminvasor pode explorar, para comprometer um sistema. Grafos de ataque apresentam informaçõesde vulnerabilidade entre hosts, de acordo com a topologia da rede. Se utilizado em conjuntocom um algoritmo de correlação de alertas, pode auxiliar na taxa de redução de alarmes falsos.Além disso, eles podem auxiliar na seleção de contramedidas baseadas na tecnologia de redesprogramáveis (SDN - Software Defined Networks). Onde recursos de interface e programaçãosão adicionados aos componentes da rede. Sendo assim essa tecnologia pode auxiliar na detecção
    ou na prevenção a ataques, através de medidas como redirecionamento, ou isolamento do tráfego,variação na topologia da rede, e mudanças de endereços IP.A adição da técnica de correlação na abordagem de segurança proposta aumentou o desempenhopara todas as classes de ataques estudadas.

  • TONICLAY ANDRADE NOGUEIRA
  • Uma Abordagem de Segurança do Sistema Asterisk em Plataformas Embarcadas Usando o Protocolo SIP
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Nov 30, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A preocupação com a segurança nas redes Internet Protocol (IP) vem crescendo exponencialmente.Medidas legais, como penas severas para criminosos virtuais, já são uma realidade. Váriosestudos estão sendo realizados com intuito de explorar os problemas de segurança relacionadosà VoIP.Por outro lado, dispositivos embarcados se mostram cada vez mais eficientes com sistemascomplexos e que exigem um bom desempenho. O software livre voz sobre IP Asterisk tem comofinalidade ser uma central telefônica, uma alternativa viável para ser utilizada em dispositivosembarcados sendo possível reduzir custos e maximizar resultados.Esta dissertação de mestrado realiza uma abordagem de segurança Usando o protocolo SIP doAsterisk em plataformas embarcadas. Em paralelo, também objetiva monitorar o consumo dememória RAM, processamento e consumo de energia eletrica nos momentos de três ataques desegurança do tipo Autenticação, Man-in- the-middle e de Negação de serviço DoS.Os resultados mostraram que o dispositivo Raspberry Pi 3 suporta de forma satisfatória os ataquesde Autenticação e Man-in- the-middle , mas o sistema Asterisk, no ataque de Negação de serviço,não consegue suportar o ataque a parti de quinhentos mil pacotes enviados pelo atacante, ficandosem possibilidade de realizar chamadas tendo seu funcionamento totalmente neutralizado. Comrelação ao consumo de energia notasse que o Raspberry Pi 3 em sua voltagem tende a ficar emum patamar médio de 5,19v (Voltage) e a Current variando entre -600,93mA a -832,41mA e oPower variando entre -3132,40mV a -4314,78mV tendo com parâmetro a quantidade de pacotesenviados pelo atacante de 0 a 25.000.000.

  • THIAGO DA SILVA ALMEIDA
  • Segmentação e Reconhecimento de Semáforos com Ajuda de Instrução Especialista
  • Advisor : HENDRIK TEIXEIRA MACEDO
  • Data: Oct 26, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Impulsionadas pelo alto número de pesquisas relacionados a veículos autônomos, as pesquisas sobre detecção e reconhecimento de semáforo tem crescido a cada ano. Além disso, técnicas de Aprendizado de Máquina tem sido amplamente utilizadas não apenas na pesquisa sobre reconhecimento de semáforos, como também em todos os campos em que pode ser útil generalizar dados e automatizar um comportamento humano. Os algoritmos de Aprendizado de Máquina requerem uma grande quantidade de dados para funcionar adequadamente e, por causa disso, precisam de muito poder computacional. Nesta dissertação foi investigado o uso de Conhecimento ou Instrução Especialista - IE na tentativa de reduzir a quantidade de dados exigidos por um algoritmo de Aprendizado de Máquina. O conhecimento especialista escolhido para ser utilizado como instrução foi a localização do semáforo numa dada imagem obtida do interior do veículo. Esta estratégia se baseia na teoria de que há maior probabilidade do semáforo aparecer em certas regiões como, por exemplo, nas regiões centrais e superiores da imagem. Foram construídos mapas de frequência de semáforos para validar essa teoria. Os mapas são o resultado da análise de um especialista humano sobre uma série de imagens, o especialista marca em cada imagem as coordenadas da região em que o(s) semáforo(s) aparece(m). Os resultados mostram que a inclusão do IE aumentou em pelo menos 15% a taxa de acurácia obtida pelo algoritmo de treinamento em dois bancos de imagem diferentes. A as taxas de avaliação alcançadas pela inclusão de IE também foram superiores num experimento completo incluindo a detecção de semáforo seguida da classificação pelo algoritmo treinado, neste teste a inclusão de IE obteve 83% de precisão e 73% de cobertura, enquanto o algoritmo de treinamento tradicional alcançou 75,3% de precisão e 51,1% de cobertura. Este trabalho também apresenta um protótipo de Dispositivo Reconhecedor de Semáforos (DRS) que pode ser utilizado para criar bancos de imagens e como suporte ao motorista. O DRS proposto utiliza um smartphone como câmera e unidade de processamento. Para validar o layout do protótipo, um conjunto de dados foi obtido e testado em um algoritmo de filtro de supressão de fundo adaptável (Adaptive Background Suppression Filter - AdaBSF) e Support Vector Machines (SVMs) para detectar e reconhecer semáforos. A aplicação do AdaBSF e subsequente classificação com SVM ao conjunto de dados alcançou uma taxa de precisão de 100% e reconvocação/cobertura de 65%.

  • LUIS EDUARDO DE SOUZA SANTOS
  • Um Processo para Elicitação e Documentação de Requisitos em Nível de Usuário por Meio de uma Pesquisa-Ação em uma Instituição Pública
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Oct 18, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A Engenharia de Requisitos se destaca como uma fase fundamental na Engenharia de Software, por instituir uma visão estrita e comum entre o cliente e a equipe do projeto sobre os requisitos do software a ser desenvolvido. Embora ainda haja alguma dificuldade, é possível encontrar especialistas em codificação de software nas várias linguagens de programação utilizadas atualmente, porém especialistas em requisitos de software são profissionais escassos no mercado. A definição dos requisitos de um software determinam o escopo e os limites do sistema que deve ser fornecido. Quando Analistas de Sistemas cometem erros durante as atividades de elicitação e documentação dos requisitos é provável que surjam problemas nas próximas atividades do ciclo de desenvolvimento do software. Os custos despendidos para resolução de problemas inseridos na documentação de requisitos podem elevar-se significativamente a medida que novas fases são iniciadas no ciclo de desenvolvimento. É comum encontrar empresas privadas ou instituições públicas com dificuldades para elicitar e documentar requisitos, seja pela falta de um processo específico ou pelo fato de não possuírem profissionais capacitados para realizarem essas atividades. A realização deste estudo teve como principal motivação a resolução dos problemas relacionados a documentação de requisitos em nível de usuário enfrentados por uma Instituição Pública na condução de seus projetos de software. Para resolver este problema foi realizado um estudo utilizando a metodologia da pesquisa-ação nesta instituição, com objetivo de propor e aplicar um processo para elicitação e documentação de requisitos em nível de usuário. No processo foi utilizado um template para documentação de requisitos utilizando a SysML. Durante a execução do estudo foi realizada uma avaliação qualitativa para verificar a eficácia do processo. Participaram do estudo de pesquisa-ação doze Analistas de Sistemas representantes da instituição, distribuídos em cinco projetos. A metodologia utilizada mostrou-se eficaz e proporcionou a construção da resolução do problema de forma participativa, envolvendo os pesquisadores e participantes do estudo. Os resultados obtidos sugerem que a intervenção realizada alcançou resultados positivos, inclusive com evidências de melhorias na elicitação e documentação dos requisitos em nível de usuário.

  • DENISSON SANTANA DOS SANTOS
  • Sistema de Recomendação de frameworks para Desenvolvimento Multiplataforma em Dispositivos Móveis
  • Advisor : ALBERTO COSTA NETO
  • Data: Aug 31, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O número e a variedade de dispositivos móveis têm crescido bastante atualmente, assim como o número de plataformas de diferentes fabricantes, sistemas operacionais e linguagens de programação existentes no mercado. Para acompanhar esse crescimento, os desenvolvedores, com o objetivo de disponibilizar suas aplicações para o maior número de plataformas, buscam cada vez mais otimizar a forma de desenvolver aplicativos mobile. Criar a mesma aplicação específica para cada plataforma demanda maior investimento financeiro, tempo e mão de obra. Para diminuir esses problemas surgiram os frameworks de desenvolvimento mobile para multiplataformas, onde torna-se possível a criação de aplicações para várias plataformas a partir do mesmo código fonte. No entanto, surge um dilema tanto para o desenvolvedor quanto para empresas de desenvolvimento: a pluralidade e diversidade desses frameworks, pois cada um possui objetivos e características que se aproximam e, em outros casos, distanciam-se um dos outros. Como por exemplo as diferentes linguagens usadas no desenvolvimento, as diferentes plataformas e recursos suportados, os diversos tipos de licença, dentre outros. Além disso, existe uma demanda por aplicativos de diversas finalidades e equipes de trabalhos com diferentes perfis de formação. Por esses motivos apresentados, a escolha do framework não é trivial. Com o objetivo de ajudar os desenvolvedores e empresas de desenvolvimento de software mobile, este trabalho apresenta uma abordagem capaz de indicar qual framework de desenvolvimento de aplicativos multiplataforma é mais adequado para um projeto. Ademais, a abordagem supracitada foi implementada através de um sistema de recomendação que considerou os fatores críticos de um dado projeto informados pelo desenvolvedor.

  • RODRIGO OCTÁVIO MELO DO AMARAL
  • Otimização com Muitos Objetivos por Múltiplos Enxames Aplicada ao Escalonamento Dinâmico de Projetos de Software
  • Advisor : ANDRE BRITTO DE CARVALHO
  • Data: Aug 31, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Os processos da Engenharia de Software geralmente envolvem problemas com requisitos e restrições conflitantes. Para a solução desses problemas, recentemente surgiu o conceito deSearch Based Software Engineering (SBSE). A SBSE consiste basicamente no uso de algoritmos de busca e otimização para encontrar soluções de forma automática e equilibrar o compromissoentre os objetivos dos problemas comuns a suas várias ramificações. Uma das áreas da SBSE ocupa-se do gerenciamento de projetos de software, sendo que um de seus principais desafiosé o problema de escalonamento de projetos de software (SPSP, do inglês Software Project Scheduling Problem). Soluções para este problema buscam montar um cronograma de projeto de modo que a alocação dos empregados às tarefas disponíveis minimize tanto a duração total do projeto quanto seu custo final, caracterizando o SPSP como um problema de otimização multiobjetivo. No entanto, o ambiente de projetos de software está sujeito a muitas incertezas, o que faz com que o espaço de soluções possíveis se transforme ao longo do tempo. Essa natureza dinâmica traz a necessidade de que os cronogramas sejam também estáveis e robustos frente a mudanças, introduzindo novos objetivos a serem conciliados. Assim, nessa nova abordagem o SPSP é modelado como um problema de otimização dinâmica com muitos objetivos (quandohá mais de três funções objetivo). Este trabalho tem como objetivo investigar a aplicação de algoritmos de otimização multiobjetivo ao problema de escalonamento dinâmico de projetos desoftware (DSPSP). Para isso, foi utilizada a meta-heurística de otimização por múltiplos enxames de partículas, abordagem ainda pouco explorada para aplicação ao DSPSP. O algoritmo propostoexplora características do problema, buscando conciliar tanto o aspecto de otimização dinâmica, por meio do uso de múltiplas populações, quanto o de ser um problema com muitos objetivos,por meio dos métodos de arquivamento. Além da utilização de múltiplos enxames, o trabalho explora também o uso de mais dois algoritmos multiobjetivo já aplicados a outros problemasna área de SBSE, porém ainda não aplicados ao problema de SPSP dinâmico. Em conjunto com a otimização por múltiplos enxames, são exploradas ainda algumas estratégias heurísticasdinâmicas para a inicialização das populações, de forma a aproveitar características das melhores soluções já encontradas. Essas estratégias também são aplicadas aos demais algoritmos avaliados,a fim de verificar como elas influenciam o desempenho. A validação do algoritmo é feita por meio de um conjunto de experimentos que comparam o algoritmo proposto com dois algoritmos consagrados da literatura (NSGA-II e SMPSO).

  • OTHON STUART FERREIRA CAMPOS
  • Data Analytics Transparente para Descoberta de Padrões e Anomalias na Realização de Convênios e Contratos de Repasse Federais
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Aug 29, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Contexto: As recentes políticas de disponibilização de dados públicos pelo governo federal devem estimular a participação da população na fiscalização da transparência da gestão. Esta participação pode ser potencializada e estimulada, desde que os dados fornecidos pelo governo sejam estruturados e dispostos de uma forma entendível, ou efetivamente transparente, para o cidadão. Quando isto não ocorre, pesquisas sobre dados abertos podem contribuir com a estruturação, autenticação, interpretação, organização, tradução, descoberta de padrões e disponibilização de informação útil para tomada de decisão e para o controle social exercido pela população. Objetivo: Este trabalho teve como objetivo aplicar técnicas de Data Analytics e Mineração de Dados, para analisar dados públicos sobre convênios e contratos de repasse federais, avaliando a possibilidade de criação de aplicação transparente para encontrar correlações e anomalias que evidenciem ilegalidade administrativa (www.transparenciatraduzida.com.br). Método: Foi realizado um mapeamento sistemático, para caracterizar os últimos 10 anos na área, um estudo de caso para identificação de outliers, bem como um experimento, para descoberta de regras de associação envolvendo parlamentares, com o suporte de análises estatísticas e testes de hipóteses. Resultados: Não foram encontrados trabalhos sobre convênios e repasses federais, nas bases científicas indexadas pelo Scopus. Após a execução do estudo de caso, identificou-se 36 convênios com valores aberrantes (outliers), totalizando R$ 47.961.892,70. Com a execução do processo experimental, foram identificadas duas regras de associação entre parlamentares e áreas. Conclusão: Constatou-se o baixo número de publicações primárias, na área de análise inteligente de dados para Governança Pública, evidenciando um grande campo para desenvolvimento de pesquisas futuras. Foram encontrados diversos valores aberrantes (outliers) entre os valores dos convênios ainda em execução no Brasil, inclusive no Estado de Sergipe. Em se tratando do experimento realizado para Sergipe, após aplicação do algoritmo para descoberta de regras de associação, foram encontradas apenas duas regras significantes. Estas descobertas iniciais e suas explicações, em um nível entendível para a população, evidenciam a necessidade de tradução popular dos dados abertos brutos brasileiros, legitimando o verdadeiro conceito de transparência.

  • JONATAS CEZAR VIEIRA SANTOS
  • Utilização de Técnicas de Redução de Dimensionalidade em Algoritmos de Otimização com Muitos Objetivos no Problema de Sincronização de Semáforos
  • Advisor : ANDRE BRITTO DE CARVALHO
  • Data: Aug 29, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A mobilidade urbana é um problema atual da sociedade moderna e dos grandes centros urbanos. Os Sistemas Inteligentes de Transporte (ITS) utilizam a tecnologia para tentar resolver essesproblemas de mobilidade. No contexto de ITS, a gestão de tráfego é uma área que utiliza novos conceitos de organização e manutenção do tráfego, buscando obter um fluxo de tráfego dequalidade. A sincronização de semáforos é um deles e seu principal objetivo é garantir que os veículos tenham uma boa fluidez no trânsito, garantindo percorrer um trajeto em menos tempopossível. Com uma sincronização atingida, as medidas de qualidade tendem a melhorar, como a redução de emissão de poluentes, consumo de combustível, tempo de atraso, velocidade médiaglobal e outras. Indicar o melhor tempo semafórico é uma tarefa bastante complexa. É difícil modelar uma situação real, pois existem cadeias de cruzamentos, com características diferentes.A otimização em sincronização de semáforos se classifica como problema NP-Completo, a dificuldade do problema cresce exponencialmente, quando os números de variáveis de decisãoe de medidas de qualidades aumentam. Sendo assim, nenhuma técnica clássica seria capaz resolvê-lo em um tempo razoável. Uma solução, é modelar o problema como de otimização,através de um simulador de tráfego. Com o simulador é capaz de construir uma representação computacional semafórica, composta por vias, rotas, veículos, cruzamentos e semáforos. Apartir de configurações de condições de fluxo em cenários diferentes, podemos obter essas medidas de qualidades, tratadas como objetivos, extraídas do próprio simulador. O problema émodelado como de otimização multiobjetivo e por trabalhar com mais de 3 funções objetivos, é classificado como de otimização com muitos objetivos. Algoritmos tradicionais enfrentamproblemas na otimização com muitos objetivos, uma das técnicas para resolver é a redução de objetivos. O objetivo desse trabalho é utilizar técnicas de aprendizagem de máquina de reduçãode dimensionalidade, para redução de objetivos no problema de sincronização de semáforos. Foram aplicadas duas técnicas na busca de identificar os objetivos os essenciais e descartar osdemais para reduzir. As técnicas trabalhadas foram o L-PCA e o K-PCA utilizando os kernels polinomial, RBF e sigmoide. Uma otimização, utilizando os algoritmos NSGA-II e NSGA-III,foi aplicada nos conjuntos contendo todos os objetivos, foram trabalhados 12, e também para os subconjuntos obtidos pela redução. Foram feitas comparações das otimizações entre os conjuntossem redução e os subconjuntos reduzidos. Também foram executados testes para identificar se houve diferença estatística entre os algoritmos. Os resultados mostraram que o NSGA-III obtevemelhores resultados, e o K-PCA com kernel polinomial foi o melhor algoritmo de redução, conseguindo até superar o NSGA-III sem redução. Concluiu também que não houve diferençaestatística entre os algoritmos, sendo assim, trabalhar com um conjunto menor de objetivos, se tem um desempenho melhor na otimização sem perder a qualidade das informações.

  • DAVY OLIVEIRA BARROS SOUSA
  • Rastreamento de Células em Vídeos 3D
  • Advisor : HENDRIK TEIXEIRA MACEDO
  • Data: Aug 28, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Realizar o rastreamento de células é importante para a cura e prevenção de doenças. Isso se deve ao fato da motilidade celular estar ligada a vários processos celulares. Porém, realizar a análise da trajetória de uma célula não é um trabalho simples, pois para armazenar as informações da trajetória é necessário uma grande quantidade de imagens, principalmente em imagens 3D. Dessa forma, faz-se necessário a criação de algoritmos que possam realizar o rastreamento celular de forma prática e automática. Neste trabalho foi dada continuidade ao trabalho de conclusão de curso (TCC) de Sousa (2015) de forma a melhorar o algoritmo de rastreamento já implementado por ele. Para suprir as deficiências do algoritmo implementado por Sousa (2015), foram feitas modificações na fase de segmentação, de rotulação e de rastreamento. Além disso, foram adicionados métodos para a detecção de divisão celular e a entrada e saída de novas células do vídeo. A validação do algoritmo foi feita por meio de um software de avaliação que possui rotinas tanto para a parte de segmentação quanto para a de rastreamento. Foram utilizados 11datasets para a validação, sendo que o algoritmo proposto conseguiu obter resultados para 7 deles. Dentre os 7 datasets, 3 eram 2D e os outros 4, 3D. Embora os resultados não tenham sido satisfatórios para os datasets 2D, os 3D obtiveram resultados satisfatórios durante a fase de rastreamento, com médias de acurácia variando de 90.1% a 94.4%. A partir da validação, percebeu-se que, mesmo tendo obtido valores satisfatórios, inclusive alguns deles melhores que alguns encontrados no estado da arte, o algoritmo ainda precisa de melhorias.

  • JOSÉ DOS SANTOS MACHADO
  • Implementação de uma Fog Computing para Fornecer StaaS a Dispositivos IoT Utilizando Sistemas Embarcados
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Aug 21, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A IoT (Internet das Coisas) necessita de muitos serviços para ser uma realidade, por ter recurso de processamento e armazenamento muito restrito, a sua interconexão com a Cloud Computing é um fator relevante e de elevada atenção para pesquisadores do mundo inteiro. As questões de latência, big data, armazenamento e poder de processamento próximo dos dispositivos de borda, fez com que surgisse a Fog Computing. A Fog Computing é a interligação entre os dispositivos IoT e a Cloud Computing, e pode levar poder de processamento e armazenamento aos dispositivos IoT, sendo possível o surgimento de novas tecnologias e aplicações para poder sanar essas deficiências encontradas hoje. Esta dissertação apresenta o conceito da Fog Computing, seus desafios, sua contextualização teórica, os trabalhos correlatos junto com a revisão sistemática e realiza a implementação e análise de uma Fog Computing, para fornecer StaaS (Storage as a Service), a dispositivos IoT utilizando plataformas de sistemas embarcados e compara seus resultados com os obtidos por um servidor de alto desempenho. Desenvolve o sistema FogSys com o objetivo principal de simular, receber, validar e armazenar os dados de dispositivos IoT para serem transferidos para Cloud Computing, funcionando como uma Fog Computing para fornecer o serviço de StaaS (Storage as a Service). Os resultados demonstraram que a implementação desse serviço em dispositivos de sistemas embarcados pode ser uma boa alternativa para reduzir um desses problemas, no caso, o armazenamento de dados, que atinge hoje os dispositivos IoT.

  • RAQUEL MONTEIRO DE CASTRO TAVARES FIGUEIREDO
  • Modelo de Inferência da Confiança por meio de Critérios Cognitivos e Afetivos
  • Advisor : MARIA AUGUSTA SILVEIRA NETTO NUNES
  • Data: Aug 10, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Comunidades Virtuais de Aprendizagem são espaços caracterizados pela comunicação e cooperação de seus participantes. Podem ser utilizadas como salas de aulas virtuais para o ensino não presencial (Ensino a Distância) ou como ferramentas de apoio ao ensino presencial (interação extra aula). No entanto, sua eficiência depende do comprometimento de seus membros que enriquecem as comunidades virtuais com o compartilhamento de informações, materiais e cooperam com os demais membros. Quando situações de divergências, ausência de informações ou cooperação com outros membros ocorrem podem acarretar na falta de confiança, desinteresse e desmotivação a cooperação. Desse modo, cabe ao professor/tutor, como mediador, estimular e auxiliar os alunos a estabelecerem relações de confiança. A confiança, portanto, apresenta-se como um fator relevante às interações sociais. É um indicativo da motivação e da intenção de cooperação dentro desses espaços virtuais. Modelos computacionais de confiança atribuem a esses ambientes a capacidade de inferir a confiança entre indivíduos e dão ao professor uma visão mais próxima daquela proporcionada em ambientes físicos. O modelo de confiança proposto por esta dissertação utiliza os critérios de propensão à confiança, familiaridade, reputação e risco para a inferência da confiança que o aluno deposita em seu professor. Os resultados obtidos com a aplicação do modelo a ambientes de comunidades virtuais reais forneceram indicações de que a confiança de um aluno em seu professor pode ser inferida considerando os critérios de propensão à confiança, familiaridade, reputação e risco envolvidos em sua interação na comunidade.

  • FLÁVIO ARTHUR OLIVEIRA SANTOS
  • Sobre o uso de conhecimento especialista para auxiliar no aprendizado de Word Embeddings
  • Advisor : HENDRIK TEIXEIRA MACEDO
  • Data: Jul 31, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Representações de palavras são importantes para muitas tarefas de Processamento de Linguagem Natural (PLN). Estas representações têm como objetivo substituir a forma escrita das palavras por uma representação numérica, mais adequada para etapas de processamento. Obter boas representações é muito importante uma vez que a maioria dos métodos de aprendizado de máquina responsáveis pelas soluções dos problemas de PLN consistem de modelos matemáticos que fazem uso dessas representações numéricas capazes de incorporar as informações sintáticas e semânticas das palavras. Os chamados Word Embeddings, vetores de números reais gerados através de modelos de aprendizado de máquina, é um exemplo recente e popularizado dessa representação. GloVe e Word2Vec são modelos bastante difundidos na literatura que aprendem tais representações. Porém, ambos atribuem uma única representação vetorial para cada palavra, de forma que: (i) ignoram o conhecimento morfológico destas e (ii) representam paráfrases a nível de palavra com vetores diferentes. Não utilizar o conhecimento morfológico das palavras é considerado um problema porque este conhecimento é composto de informações muito importantes, tais como, radical, desinência de gênero e número, vogal temática e afixos. Palavras com essas características em comum devem ter representações semelhantes. As representações de paráfrases a nível de palavra devem ser semelhantes porque são palavras com escritas diferentes mas que compartilham o significado. O modelo FastText representa uma palavra como uma bag dos n-grams dos caracteres na tentativa de resolver o problema (i); assim, cada um destes n-gram é representado como um vetor de números reais e uma palavra é representada pela soma dos vetores dos seus respectivos n-grams. Entretanto, utilizar todos os n-grams possíveis dos caracteres é uma solução de força bruta, sem qualquer embasamento científico e que compromete (ou inviabiliza) a performance do treinamento dos modelos na maioria das plataformas computacionais existentes em instituições de pesquisa, por ser extremamente custoso. Além disso, alguns n-grams não apresentam qualquer relação semântica com suas respectivas palavras de referência (observe como exemplo, a palavra american e seu 5-gram, erica). Para resolver este problema, este trabalho propõe o modelo Skip-Gram Morfológico. A hipótese de pesquisa levantada é a de que ao se trocar a bag dos n-grams dos caracteres pela bag de morfemas da palavra, palavras com morfemas e contextos similares também irão ser similares. Este modelo foi avaliado com 12 tarefas diferentes: Google, MSR, SE-2012, MEN, MTurk, RG65, RW, SimLex999, WS353, AP, BLESS e BATTIG. Essas tarefas tem como finalidade avaliar o quanto os word embeddings aprendidos incorporam as informações sintáticas e semânticas das palavras. Os resultados obtidos mostraram que o modelo Skip-Gram Morfológico é competitivo se comparado ao FastText, sendo 40% mais rápido. Para tentar resolver o problema (ii), este trabalho propõe o método GloVe Paráfrase, onde uma base de dados de paráfrases a nível de palavra é utilizada para enriquecer o método GloVe original com esta informação e, assim, os vetores das paráfrases tornarem-se mais semelhantes. Os resultados da aplicação deste método mostraram que o GloVe Paráfrase necessita de menos épocas de treinamento para obter boas representações vetoriais. Por exemplo, na tarefa SimLex999, enquanto o GloVe Paráfrase atinge uma acurácia de aproximadamente 22.5 já na primeira época, o GloVe original atinge esse resultado apenas na sétima época.

  • MARCEL OLIVEIRA ALVES
  • ARNeuro: Mobile Augmented Reality for Craniotomy Planning
  • Advisor : DANIEL OLIVEIRA DANTAS
  • Data: Jul 30, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Cirurgias minimamente invasivas tornaram-se importantes porque propiciam vários benefícios para o paciente, tais como redução do risco de infecção, menos dor, menor tempo de internação e recuperação mais rápida. Na neurocirurgia, a orientação por imagens é fundamental para a realização de uma cirurgia minimamente invasiva. Por esse motivo, os sistemas de neuronavegação tornaram-se cruciais para os neurocirurgiões. Enquanto as técnicas tradicionais para localização de craniotomia podem apresentar erros de mais de 10mm, os neuronavegadores proporcionam maior precisão, com erros menores do que 5mm.

    Apesar de seu papel crucial nos procedimentos neurocirúrgicos, muitos cirurgiões afirmam que a usabilidade dos neuronavegadores tem que ser melhorada. Outros mencionam que os neuronavegadores são caros e inacessíveis em hospitais com poucos recursos. Nesse contexto, alguns pesquisadores sugeriram que soluções de realidade aumentada poderiam ser uma alternativa aos neuronavegadores. Os sistemas de realidade aumentada estão surgindo na neurocirurgia, alguns deles tentando fornecer melhor usabilidade do que os sistemas atuais de neuronavegação, e outros tentando fornecer uma solução mais barata e que possa ser facilmente adotada.

    Neste trabalho, analisamos os avanços dos sistemas de realidade aumentadade de neuronavegação nos últimos anos. Percebeu-se que muitas soluções de realidade aumentada superam algumas das deficiências do neuronavegador, mas também trazem novos problemas. Essas abordagens de realidade aumentada podem ser caras e difíceis de serem adotadas, ou exigem muitas etapas pré-operatórias por parte do neurocirurgião, tornando-as indesejáveis para uso em casos reais.

    Para resolver esses problemas, apresentamos um aplicativo para dispositivos móveis, chamado ARNeuro, que auxilia na localização da craniotomia. O ARNeuro é mais acessível e mais fácil de usar do que a maioria das abordagens de realidade aumentada. Além disso, o ARNeuro é um aplicativo independente, o que significa que não é necessário nenhum hardware ou software adicional, além do que já está disponível nos hospitais. Nossa solução utiliza Odometria Inercial Visual, através de um framework de realidade aumentada, para indicar o centro da região da incisão, sobreposta na cabeça do paciente, mostrada na tela do dispositivo. Nossos experimentos iniciais indicam que o ARNeuro é uma ferramenta promissora, com um erro médio geral menor do que 4,5mm. Apesar disso, o sistema ainda tem muitas limitações e sua acurácia precisa ser melhorada.

  • FABRÍCIO SILVA MELO
  • Extração de relações a partir de dados não estruturados baseada em deep learning e supervisão distante
  • Advisor : HENDRIK TEIXEIRA MACEDO
  • Data: Jun 11, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Extração de relação é a tarefa de extrair relações entre entidades nomeadas de textos em lingua- gem natural. Este trabalho apresenta uma técnica de recuperação de informação para extração de relações com redes neurais convolucionais treinadas para o reconhecimento de padrões de sentenças representadas sobre word2vec de baixa dimensão e position embeddings. Foi feita uma avaliação da distribuição de amostras em cada tipo de relação em um conjunto de dados construído por supervisão distante, a partir da base de conhecimento FreeBase, largamente utilizado para treinamento pelos mais recentes trabalhos de extração de relações.

    Foi constatado que esses trabalhos fizeram referência à qualidade de classificação de relações generalizando conclusões bastante otimistas baseadas em um conjunto de dados fortemente desbalanceado, usando, inclusive, metodologias de amostragem estatisticamente inapropriadas na construção do conjunto de teste. Esse conjunto de dados foi tratado utilizando amostragem estratificada aleatória para seu uso no treinamento e teste do modelo convolucional proposto utilizando validação cruzada k-fold estratificada.

    Os experimentos demonstram que o modelo proposto pode alcançar 87.0% de precisão e 88.0% de recall. Esses resultados concluem que nosso modelo supera o estado da arte em classificação de relações.

  • THIAGO DIAS BISPO
  • Arquitetura LSTM para classificação de discursos de ódio cross-lingual Inglês-PtBR
  • Advisor : HENDRIK TEIXEIRA MACEDO
  • Data: Jun 8, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Uma das consequências da popularização do acesso à Internet é a disseminação de insultos e mensagens discriminatórias, os chamados discursos de ódio (do inglês, hatespeech). São comentários que visam discriminar alguém ou um conjunto de pessoas por pertencerem a um certo grupo, normalmente minoritário, ou possuírem alguma característica também comum a outras pessoas. O combate aos discursos de ódio é uma demanda crescente na vida real e virtual pois eles afetam profundamente a dignidade de suas vítimas. Detecção de discursos de ódio é uma tarefa difícil porque, além da linguagem natural ser inerentemente ambígua, ela exige certo nível de compreensão de sua estrutura linguística. Em muitos discursos, a discriminação não acontece de forma explícita ou com expressões típicas: é preciso ter conhecimento do mundo para reconhecê-las. Além disso, algumas vezes é necessário entender o contexto da frase para perceber seu teor odioso. O sarcasmo é outro desafio enorme (até para humanos) uma vez que sua presença exige conhecimento da comunidade e potencialmente do usuário responsável pelo comentário para o entendimento de sua intenção. Diversas abordagens foram propostas para reconhecimento do hatespeech. Muitos autores consideram N-grams, dentre os quais aqueles baseados em caracteres mostram-se mais efetivos que aqueles baseados em palavras. Combinadas ou não aos N-grams, features léxicas também foram estudadas, como a presença ou não de palavras negativas, classes ou expressões indicativas de insulto, sinais de pontuação, repetições de letras, presença de emojis, etc. Features linguísticas mostraram-se ineficientes quando utilizadas isoladamente, como POS tag, e a relação entre os termos da árvore de dependência resultante da análise sintática. Recentemente, a abordagem mais bem sucedida usou uma rede neural para criar uma representação distribuída das sentenças presentes em um corpus de discursos de ódio, indicando que o treinamento de word embeddings é um caminho promissor na área de detecção de discursos de ódio. A língua afeta drasticamente as tarefas de Processamento de Linguagem Natural (PLN), uma vez que a maioria das palavras, se não todas, são diferentes de uma língua para outra, além de sua sintaxe, morfologia e construções linguísticas. Por esta razão, os trabalhos em língua inglesa não são diretamente aplicáveis em corpora de língua portuguesa. Além disso, corpora em português para discursos de ódio são raros, fazendo com que pesquisadores da área precisem realizar todo o trabalho de construção. Nessa dissertação foi estudado o uso de um modelo deep cross lingual Long Short-Term Memory (LSTM), treinado com um dataset de discursos de ódio traduzido do Inglês de duas diferentes maneiras, pré-processado e vetorizado, com variadas estratégias que foram representadas em 24 cenários. As principais abordagens adotadas consideraram: o treinamento de embeddings através de vetores de índices de palavras (técnica Estado da Arte), vetores TFIDF, vetores N-grams, com ou sem vocabulário GloVe, testados com o dataset construído e rotulado neste trabalho e com outro disponível em português. O processo invertido também foi experimentado: traduzimos o nosso corpus para o Inglês e comparamos o desempenho com sua versão original. Com os embeddings resultantes do processo de treinamento em cada cenário, usamos uma Gradient Boosting Decision Tree (GBDT) como forma de seleção de features para melhorar a classificação. De fato, os resultados obtidos com a LSTM foram melhorados em muitos cenários. Alcançamos precisão de até 100% nos experimentos usando o modelo treinado com o corpus em Inglês e nosso dataset traduzido para esta língua. Alguns cenários tiveram um desempenho apenas razoável, com precisão em torno de 70%, por exemplo, e, em outros, técnicas tradicionais e bem sucedidas como vetores TFIDF associados à uma LSTM não se mostraram suficientes. Duas importantes contribuições deste trabalho são: (i) proposta de uma abordagem de pesquisa alternativa de ataque ao problema baseada na tradução de corpora e a (ii) disponibilização de um dataset de discursos de ódio em língua portuguesa para a comunidade.

  • ERICK BARROS NASCIMENTO
  • Arquitetura de Rede Programável para Information Centric Network – ICN com Replicação de Conteúdo em Private Clouds
  • Advisor : DOUGLAS DYLLON JERONIMO DE MACEDO
  • Data: May 30, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A Internet lidera o modo como as informações, serviços e conteúdos são disponibilizados em formato digital. O acesso a esses conteúdos pode ser possível de qualquer lugar, pelos mais variados dispositivos. Entretanto, a configurabilidade da arquitetura de redes convencional é dificultada pela diversidade de sistemas embarcados presentes nos ativos de rede, onde as informações que consumem seus recursos não possuem um gerenciamento efetivo, ao mesmo tempo que, problemas específicos não são detectados com facilidade pelos sistemas e nem pelas equipes de infraestrutura, como a duplicação do tráfego de requisições HTTP no enlace.

    Esta pesquisa realiza um estudo experimental com proposta de arquitetura descentralizada para redes de conteúdo. A arquitetura centraliza todo o gerenciamento desacoplando o controle dos concentradores da rede, permitindo a aplicação das configurações on-the-fly. Com o advento das redes definidas por software (do inglês, Software Defined Networking (SDN)), surgem novas possibilidades para o gerenciamento de redes promovendo novos contextos para as redes cêntricas de informação (do inglês, Information Centric Network (ICN)). Essas possibilidades podem ser alcançadas por meio da programabilidade da rede com extensão remota do plano de dados para nuvem.

    Este trabalho apresenta e valida um protótipo de redes de conteúdo, disponibilizado em um domínio estabelecido e replicado entre os mesmos, onde cada endpoint executa um microcache para otimização do tempo de requisição e resposta. Além disso, uma cópia minimizada desse backend está posto na nuvem em um servidor privado (do inglês, Virtual Private Server (VPS)) permitindo a alta disponibilidade do ambiente. O sistema possuí dois proxies reversos capazes de assumir o controle do plano de dados sem percepção para o usuário, mantendo alta performance e otimização através do algoritmo de balanceamento de carga Least_Conn.

    A validação ocorreu por meio de três cenários. No primeiro, foi avaliado aspectos inerentes ao funcionamento de uma rede de computadores, logo, latência, perda e vazão foram explorados. No segundo cenário, foi avaliado aspectos acerca do tunelamento para a nuvem com requisição direcional e bidirecional obtendo atraso e perda de pacotes. Por fim, aspectos de replicação, cacheamento, banda de contenção, otimização, banda alcançável, Cache Hit Ratio (CHR), Tempo Médio entre Falhas (MTBF) e Tempo Médio para Reparos (MTTR) foram apresentados, alcançando bons resultados para ICNs com SDN. O trabalho é concluído apontando para o estudo da latência de controladores SDN devido a variações no sistema, mas que não impactaram significativamente nos objetivos da pesquisa.

  • BRÁULIO LÍVIO DIAS CAVALCANTE JÚNIOR
  • Arquitetura Híbrida de Armazenamento no Contexto da Internet das Coisas
  • Advisor : DOUGLAS DYLLON JERONIMO DE MACEDO
  • Data: May 29, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A IoT se faz presente como uma das grandes áreas de inovação em tecnologia. Com ela, é possível compartilhar informações através do uso de dispotivos pequenos, considerados em muitos casos como pervasivos, ou seja, que estão presentes no cotidiano das pessoas sem serem percebidos.

    A computação em nuvem tornou-se um componente-chave para desenvolver aplicativos de IoT. Enquanto o número de dispositivos aumenta, uma grande quantidade de dados é gerada. Desse modo, é necessário tratar adequadamente o armazenamento e acesso desses dados de maneira otimizada.

    Existem diferentes formas de gerenciar e armazenar dados. A abordagem relacional (SQL), o armazenamento não-relacional (NoSQL), NewSQL e modelos de armazenamento em larga escala baseados em nuvem, são exemplos. Para o contexto de aplicações de IoT, é comum lidar com dados não estruturados, em sua maioria, além destas aplicações demandarem alta flexibilidade. Para aplicações que utilizam estes tipos de requisitos, estudos indicam o uso de arquiteturas de armazenamento que utilizem bancos de dados não relacionais, conhecidos como NoSQL. Estes tipos de armazenamento flexibilizam restrições de consistência e integridade, além de utilizar mecanismos otimizados de replicação e acesso.

    O presente trabalho tem como objetivo propor uma arquitetura de armazenamento híbrido para Internet das Coisas. Para validá-la, experimentos utilizando NoSQL foram feitos para dados escalares, multimídia e posicionais, 3 dos principais tipos de dados de sensores de IoT. Após os experimentos, foi identificado que o banco de dados Redis, do tipo chave-valor, obteve o melhor desempenho para escrita e consulta destes tipos de dados.

  • FLAYGNER MATOS REBOUÇAS
  • PREOrg: Um Guia para Elicitação de Requisitos Orientado ao Desempenho Organizacional
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Apr 24, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • No ciclo de desenvolvimento de software, a elicitação de requisitos é uma das primeiras atividades a serem realizadas, podendo ser repetida em todas as demais etapas da engenhariade requisitos. O Analista de Negócios precisa entender profundamente as característicasda organização onde atua, entendendo os processos de negócio e buscando o conhecimentonecessário à propositura de alternativas inteligentes aos processos. Técnicas de elicitaçãode requisitos auxiliam na identificação de um maior volume de requisitos, ao sugeriremque a elicitação de requisitos seja realizada de maneira próxima aos processos de negócioda organização, todavia não observam o quanto a elicitação de requisitos deve apoiar amelhoria no desempenho organizacional. O interesse por essa pesquisa surgiu mediante apreocupação com a evolução e melhorias das técnicas e metodologias encontradas na áreade engenharia de requisitos, com o desafio e a necessidade de desenvolver sistemas querealmente atendam às expectativas dos stakeholders e que acima de tudo, tenham maiorengajamento com as áreas de negócio das organizações. O trabalho propõe o desenvolvimentode um guia para a elicitação de requisitos orientada ao desempenho organizacional.O PREOrg é um guia de boas práticas para elicitação de requisitos de software orientadoao desempenho organizacional que propõe a identificação de oportunidades para a geraçãode resultado, melhoria dos processos e apoio à tomada de decisão, desde a etapa deelicitação de requisitos de software. Dois estudos de casos foram realizados com o objetivode comprovar a eficiência e a eficácia do PREOrg. O primeiro estudo de caso foi realizadona indústria envolvendo um software e o segundo numa organização pública envolvendotrês softwares, nos dois casos foi realizado um treinamento envolvendo analistas de sistemasresponsáveis por elicitar requisitos para a construção dos softwares, de maneira a propiciaro conhecimento dos processos propostos pelo PREOrg. Como resultado, foram encontradasevidências de que o PREOrg contribuiu para a definição de requisitos capazes de apoiar odesenvolvimento de softwares orientados ao desempenho organizacional. O primeiro estudode caso apresentou evidências de melhoria financeira para a organização onde o softwarefoi implantado. No segundo estudo de caso foram descobertas evidências de que o uso doPREOrg é útil para a elicitação de requisitos que apoiem o desenvolvimento de softwarescapazes de ajudar na tomada de decisão e a melhoria dos processos organizacionais.

  • ADAUTO CAVALCANTE MENEZES
  • Uma Abordagem para Análise de Desempenho e Eficiência Energética em Dispositivos Embarcados com uso do Asterisk
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Apr 9, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A comunicação por voz sobre IP (VoIP) dominará o mundo da computação nos próximos anos.Para realizar a transmissão VoIP, faz-se necessário a codificação e decodificação da voz. Esseprocesso consome os principais recursos computacionais, como o processador e memória. Asindústrias das telecomunicações disponibilizam equipamentos com valores elevados, o que tornao acesso a essa tecnologia ainda bastante restrito. Dispositivos embarcados executam sistemascom alto complexo de criticidade. O software livre de comunicação por voz sobre IP Asterisk temcomo principal função implementar todas as funcionalidades de uma central telefônica. Trata-sede uma alternativa viável para utilizar em dispositivos embarcados. Essas tecnologias prometemreduzir custos e maximizar resultados. Esta dissertação realiza uma análise de desempenho emtrês dispositivos embarcados modernos (Raspberry Pi 3, Orange Pi Plus 2 e Banana Pi M3), comuso do sistema de comunicação por voz sobre IP Asterisk. A análise de desempenho consisteem aferir o jitter, delay e vazão, assim como o quantitativo de chamadas simultâneas suportadasem cada dispositivo com os protocolos SIP e IAX2 com os CODEC’S G.711a, G.711u, Gsm,Speex, Ilbc, G.722, e em paralelo, monitorar o consumo de memória RAM, processamento eenergia. Os resultados mostram que os dispositivos Raspberry Pi 3 e Banana Pi M3 suportamde forma satisfatória um elevado número de chamadas simultâneas com consumo de memória,processamento e energia moderado. Todavia, o dispositivo Orange Pi Plus 2 demostrou elevadoconsumo de processamento.

  • KLEBER TARCISIO OLIVEIRA SANTOS
  • Uma abordagem unificada para especificar e checar restrições em múltiplas linguagens de programação no contexto de um Juiz On-line
  • Advisor : ALBERTO COSTA NETO
  • Data: Feb 28, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O processo de ensino e aprendizagem da programação de computadores é uma tarefa complexa que requer bastante prática e criatividade. Geralmente há inúmeras soluções para um mesmo problema. Por isso, o aluno precisa que suas soluções sejam avaliadas rapidamente visando um aprendizado mais ágil e eficaz. Para enfrentar esses desafios, os professores e alunos podem contar com recursos provenientes da evolução da Tecnologia da Informação e Comunicação. Os ambientes de aprendizagem virtual e os sistemas de juiz on-line são alternativas atrativas utilizadas nesse contexto. Este trabalho apresenta uma abordagem unificada de especificação e checagem de restrições de código-fonte. Apesar das ferramentas atuais serem capazes de indicar se o programa produziu a saída esperada a partir de uma entrada fornecida, nem todas são capazes de determinar se o aluno utilizou (ou não) determinada construção de linguagem de programação, como por exemplo criar uma função e utilizá-la no programa. Entre as que são capazes, existem problemas que foram sanados na abordagem proposta neste trabalho, como: facilidade de uso, abordagem unificada e grau de flexibilidade. Além disto, este trabalho conta com uma análise da base de dados do The Huxley com o objetivo de descobrir quais são as principais restrições de código-fonte utilizadas pelos professores e atendidas pelos alunos. Esta análise foi feita em conjunto com um survey aplicado aos professores de introdução à programação com o propósito de conhecer as principais restrições que seriam utilizadas por eles se possuíssem uma ferramenta de especificação e checagem de restrições.

  • BRENO SANTANA SANTOS
  • Uma Abordagem para Aumento de Empatia das Interações Textuais em Sistemas Colaborativos
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Feb 8, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A empatia desempenha um papel essencial em interações sociais, como, por exemplo, em processos de ensino-aprendizagem efetivos, nas relações professor-aluno e nas relações empresa-cliente ou colaborador-consumidor, retendo potenciais parceiros e proporcionando-lhes maior satisfação. Em paralelo, a Comunicação Mediada por Computador (CMC) auxilia as pessoas em suas interações, especialmente quando é necessário contornar as limitações de espaço-tempo. Em CMC, existem diversas abordagens para promover empatia em interações sociais ou humano-computador. Contudo, para este tipo de comunicação, um mecanismo pouco explorado para ganho de empatia é o uso da teoria da Neurolinguística, a qual apresenta a possibilidade de desenvolvimento de Sistemas Representacionais Preferenciais (SRPs) para cognição em seres humanos. Neste contexto, o presente trabalho apresenta a concepção e os resultados obtidos por meio de avaliações experimentais da biblioteca NeuroMessenger, a qual utiliza Neurolinguística, Psicometria e Mineração de Textos para promover empatia entre interlocutores, a partir da identificação de SRPs e sugestão de matching (espelhamento) textual baseado nesta identificação. Os resultados mostraram que a utilização do mesmo padrão de texto (SRP) aumenta a empatia entre os interlocutores de Sistemas Colaborativos, evidenciando que o recurso de matching pode melhorar significativamente a comunicação e formação de rapport em ambientes digitais.

  • GALILEU SANTOS DE JESUS
  • Uma abordagem para auxiliar a correção de erros de programadores iniciantes
  • Advisor : ALBERTO COSTA NETO
  • Data: Jan 24, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A utilização de ambientes virtuais de aprendizagem integrados a outras ferramentas, como juízes on-line, surgem como uma possibilidade de amenizar a carência de práticas laboratoriais em cursos presenciais, além de poder apoiar atividades práticas em cursos semipresenciais, a distância e em MOOC’s, assim como dar suporte aos docentes e diminuir os índices de reprovação em disciplinas iniciais de ensino de programação. Porém, nem sempre os juízes on-line fornecem o feedback apropriado ou entendível pelo aluno, isto é, normalmente não fornecem dicas ao aluno de como melhorar ou alcançar uma solução válida. Ao observar turmas iniciais, verifica-se que frequentemente são apresentadas as mesmas dicas, já que os alunos costumam errar muito em um mesmo ponto ou por uma mesma razão. Este trabalho apresenta uma proposta para apoiar o ensino-aprendizagem de programação de computadores, aprimorando o juiz on-line The Huxley através da capacidade de produzir mensagens de feedback que sejam facilmente compreendidas pelos aprendizes de disciplinas iniciais de programação, norteando-os sobre os erros de sintaxe apresentados ao realizar uma submissão ao juiz on-line. Também foi feito um estudo de caso com turmas de graduação para avaliar esta abordagem, através de um experimento controlado, assim como sua análise com testes estatísticos para confirmação de hipótese, onde o estudo concluiu que a abordagem aumentou a capacidade de corrigir erros, além de guiá-los mais enfaticamente, principalmente entre alunos com baixo domínio da língua inglesa e que lograram êxito na disciplina inicial de programação.

  • MARIANNE BATISTA DINIZ DA SILVA
  • BOAS PRÁTICAS PARA SUPORTAR AS DIMENSÕES DE GOVERNANÇA ÁGIL DE TI NA ADMINISTRAÇÃO PÚBLICA FEDERAL
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: Jan 18, 2018
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A Governança de Tecnologia da Informação e Comunicação (TIC) ainda é um fator desafiante para as organizações, tanto para o setor público como privado. Uma característica fundamental da governança de TIC é agregar valor ao negócio, como também colaborar para o desempenho da organização por meio de processos contínuos de decisões, provendo uma gestão de TI eficiente e eficaz, alinhada com a Governança Corporativa. Sabendo dessas características, as organizações públicas são reconhecidas pelos órgãos de controle (Tribunal de Contas da União - TCU, Sistema de Administração dos Recursos de Tecnologia da Informação - SISP, Estratégia de Governança Digital - EGD), os quais, por meio desse reconhecimento, fazem com que os gestores dessas organizações atribuam uma atenção para essa área. Nesse caso, a adoção e o direcionamento de boas práticas que atendam às exigências dos órgãos de controle com relação à Governança de TIC são necessárias. Assim, o objetivo desta dissertação foi propor boas práticas de Governança de TIC para direcionar as organizações para a melhoria do índice de maturidade de Governança de TIC (iGovTI) na Administração Pública Federal (APF), avaliado pelo TCU. Com o objetivo de realizar essa análise, foi adotado um estudo descritivo por meio dos procedimentos bibliográficos, survey e, por fim, o estudo de caso para a validação do framework proposto. Após a análise das boas práticas (ITIL, CMMI, COBIT, COSO e outras), foi desenvolvida a proposta de um framework denominado PeticGov, que tem o intuito de direcionar as organizações em qual(is) boa(s) prática(s) adotar com base no seu déficit. Obteve-se, como resultados, a validação da ferramenta PeticGov Wizard, que atende as fases propostas pelo framerwork. Dessa forma, foi validado a PeticGovWizard com relação a usabilidade, o questionário, seu direcionamento e sua utilidade perante as organizações iniciais e básicas. Para a primeira validação (usabilidade) obteve-se 21 respostas em um survey e foi visto que é necessário melhorar alguns aspectos (layout, informações na ferramenta). Para a validação do questionário obteve-se uma amostra de 46 organizações e percebeu-se que os dados estavam coerentes. Com relação a validação de utilidade da PeticGov Wizard nas organizações, obteve-se respostas de 20 funcionários de instituições com estágio de capacidade inicial e básico. Assim, observou-se que 100% dos respondentes afirmam que a ideia da ferramenta PeticGov Wizard com relação ao direcionamento das práticas isoladas para implantação nas organizações, ganham força perante os setores.

2017
Description
  • GLAUCO LUIZ REZENDE DE CARVALHO
  • Compartilhamento de Banda em Redes Definidas por Softwares
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: Aug 31, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O paradigma de Redes Definidas por Software (SDN) vem impondo mudanças significativas na forma de gerenciar e operar redes de computadores através da sua principal ideia, a separação dos planos de dados e de controle. O protocolo OpenFlow suporta e implementa este conceito e, devido às diversas vantagens de menor custo de operação e propiciar maior facilidade de adaptação a projetos computacionais já́ existentes, é facilmente encontrado em diversos equipamentos de rede comercializados. Com a adoção do protocolo OpenFlow e do paradigma SDN, a inovação e evolução da rede são relativamente mais favorecidas quando comparadas com o modelo tradicional. Dessa forma, serviços comuns de rede podem ser evoluídos, tornando-os cada vez mais flexíveis. Neste sentido, devido à padronização e adaptabilidade propostas pelas SDNs, e das limitações na arquitetura atual das redes IPs, esta dissertação propõe uma técnica que utiliza uma rede baseada na arquitetura SDN e o protocolo OpenFlow para a criação de um serviço para compartilhamento de banda, utilizando o controlador Floodlight. Emulações em ambiente virtual Mininet de experimentação foram desenvolvidas para validação das implementações realizadas. Para a análise de desempenho, foram estudadas métricas como largura de banda, número de pacotes enviados, recebidos e descartados. Os resultados demonstraram qa possibilidade de alcançar com eficiência o de compartilhamento de banda em redes SDN.

  • SERGIO ANTONIO ALVES BARBOSA
  • i9ITS: uma Proposta de Arquitetura de Software para Armazenamento de Dados Abertos e Integração de Serviços para ITS em Cidades Inteligentes
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: Aug 31, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Em consequência do crescimento populacional, as grandes cidades enfrentam problemas cotidianos relacionados à mobilidade urbana, tais como: congestionamentos, qualidade da vias urbanas e ineficiência de transportes públicos. Iniciativas de sistemas de transportes inteligentes (ITS) agem como uma solução eficiente para melhorar o funcionamento e desempenho dos sistemas de tráfego, reduzindo congestionamentos de veículos e aumentando a segurança para os cidadãos. No entanto, devido à existência de diferentes formato e fontes distribuídos de informação sobre mobilidade urbana, a interoperabilidade das várias tecnologias envolvidas e a retenção desses dados são desafios que envolvem esforços complexos e onerosos para os governos e empresas. Nesse contexto, a presente proposta tem como objetivo geral apresentar uma arquitetura para dados georreferenciados de ITS (Intelligent Transportation System) com o intuito de armazenar, integrar e orquestrar essas informações georreferenciadas de mobilidade urbana de forma que permita a interoperabilidade entre diversas aplicações. Foram relacionados dois estudos de caso: um refere-se à construção de uma aplicação que utiliza a arquitetura i9ITS para uma empresa de serviço de táxi com dados reais; o segundo estudo de caso propõe a construção de um laboratório de teste utilizando um maior número de veículos, com o objetivo de alimentar informações para uma base de dados aberta, de forma que a arquitetura proposta possa ser testada quanto ao seu desempenho e performance. A utilização dessa arquitetura tem como objetivo principal evidenciar a eficácia e a eficiência para atender ao problema proposto, bem como para outras possibilidades e desafios relacionados a ITS.
  • GLAUBER ANDRADE BOTELHO
  • Investigando Algoritmos Baseados em Estimadores de Distribuição e Técnicas da Otimização com Muitos Objetivos na Refatoração Automática de Software
  • Advisor : ANDRE BRITTO DE CARVALHO
  • Data: Aug 30, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A Engenharia de Software Baseada em Busca, conhecida como SBSE (do inglês, Search Based Software Engineering), é uma área que usa algoritmos de otimização para solucionar problemas da Engenharia de Software. A área de SBSE compreende diversas subáreas, dentre estas, encontra-se a Refatoração de Software Baseada em Busca (SBSR, do inglês Search Based Software Refactoring), que trata de processos de refatoração automática de software utilizando algoritmos de otimização. Um dos problemas encontrados na SBSR é a determinação de sequências de refatorações com o objetivo da melhoria do código, de acordo com critérios previamente determinados. Para modelar este problema como um problema de otimização é necessário que sejam definidas funções objetivo. Nesse caso, as funções objetivo são métricas de qualidade utilizadas na Engenharia de Software. Como são muitas as métricas a se considerar, o problema de determinação de sequências de refatorações é naturalmente um Problema de Otimização combinatório com Muitos Objetivos. A otimização com muitos objetivos compreende um conjunto de algoritmos e técnicas que buscam resolver problemas de otimização com mais de três funções objetivo. Para resolver problemas dessa natureza, são propostos novos métodos quevisam reduzir a deterioração da busca à medida que o número de objetivos aumenta. Dentre eles, destacam-se os algoritmos evolucionários multiobjetivo, que incluem os Estimation of Distribution Algorithms (EDA). No entanto, apesar de ter bons resultados em problemas de otimização combinatória, os EDA ainda são pouco explorados no contexto da otimização com muitos objetivos. O objetivo deste trabalho é investigar o uso dos EDA na seleção automática de uma sequência de refatorações. Para que esse objetivo seja atingido, propõe-se um novo EDA, no qual são incorporadas técnicas de otimização de muitos objetivos existentes na literatura. O algoritmo proposto foi validado e adicionado a um framework de refatoração automática de software previamente implementado. Após a condução de um conjunto de experimentos, os resultados obtidos pelo algoritmo proposto foram comparados aos resultados obtidos pelos algoritmos encontrados na literatura aplicados no contexto de SBSR.

  • PABLO MARQUES MENEZES
  • Autonomicidade em uma rede definida por software utilizando teoria do perigo
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: Aug 30, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A necessidade de tornar os ambientes computacionais autonômicos é evidente devido à complexidade e a onipresença da tecnologia em quase todos os aspectos da vida humana. Além de trazer dinamismo aos negócios e novos serviços para os usuários, também traz riscos e complexidade na gestão. Os data centers evoluíram, tornando a gerência de uma rede uma tarefa difícil para os administradores, no aspecto da segurança da infraestrutura um cenário ainda mais complexo. Neste cenário, várias pesquisas têm sido realizadas em busca de métodos a tornar estas complexas redes autogerenciáveis. Inspirado nos conceitos de redes autonômicas e no sistema imunológico humano, este trabalho utiliza o modelo de gerenciamento MAPE-K, algoritmo das células dendríticas e as características de programabilidade, gestão centralizada e descentralização dos planos de dados e controle das redes definidas por software para prover autonomicidade. Considerando que a maioria dos ataques a uma rede de computadores inicia-se com o reconhecimento dos ativos, nos experimentos utilizou-se ataques de varredura de portas Port Scan como evento anômalo. Este tipo de ataque foi utilizado para comprovar a eficácia da detecção do processo anômalo com abordagem das células dendríticas em um único host. Nos experimentos é seguido todo o ciclo do modelo MAPE-K e os resultados de reação foram considerados satisfatório, com tempo médio de 1,2 segundos entre a detecção do evento anômalo e reação com isolamento da origem do ataque.

  • ADRIANO SILVA DE LIMA
  • PROPOSTA E AVALIAÇÃO DA COMBINAÇÃO DE UMA METODOLOGIA ÁGIL E GQM+STRATEGIES PARA O DESENVOLVIMENTO DE APLICAÇÕES DE BUSINESS INTELLIGENCE DIRIGIDO À ESTRATÉGIA
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Aug 30, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O cenário de concorrência entre as empresas dos diversos nichos de mercado, marcado pela constante necessidade de crescimento, tem alavancado o investimento estratégico em Tecnologia da Informação, visando a redução dos seus custos operacionais e o alcance dos objetivos do negócio. Neste contexto, o uso de Business Intelligence (BI) tem sido uma das principais soluções para agregar valores à empresa. No entanto, faz-se necessário caracterizar e propor melhorias para uso deste tipo de aplicação no mercado, pois muitas empresas têm encontrado dificuldades e prejuízos em sua implantação, principalmente, do ponto de vista estratégico. O objetivo desta dissertação foi propor e avaliar um método que mescle a abordagem GQM+Strategies com uma metodologia de desenvolvimento ágil de aplicações de Business Intelligence, visando garantir o alinhamento estratégico. Para caracterização, foram realizados um mapeamento sistemático e um survey que identificaram e confirmaram a necessidade de investimentos da indústria em experimentos que avaliem metodologias de desenvolvimento, bem como metodologias de alinhamento estratégico, como parte indispensável de projetos deste tipo. Para avaliação, foi realizado um estudo de caso com o método proposto em uma empresa multinacional latino-americana do mercado de varejo. Os resultados trouxeram evidências de que é possível integrar a abordagem de alinhamento estratégico adotada com uma metodologia de desenvolvimento de aplicações de BI.

  • LUCIO DA SILVA GAMA JUNIOR
  • Virtualização de Funções de Rede em Nuvem para Instituições Públicas
  • Advisor : EDILAYNE MENESES SALGUEIRO
  • Data: Aug 28, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Em uma rede tradicional, todas as funções são implementadas em hardware e software específicos, que empregam tecnologia proprietária, de difícil interoperabilidade, configuração e operação. Além disso, a arquitetura de rede tradicional é inadequada para atender as crescentes demandas da Internet, que impulsionam a transformação da sua infraestrutura. A computação em nuvem e a virtualização de funções de rede (NFV - Network Function Virtualization) são tecnologias complementares que oferecem novas soluções para projetar, construir e operar redes, possibilitando a coexistência de múltiplas redes, agora virtuais, sobre uma mesma infraestrutura física. Apoiada nos benefícios que a computação em nuvem proporciona, as redes podem ser organizadas de forma mais flexível, com programabilidade e dinamismo de configurações. O objetivo deste trabalho é projetar e implementar um ambiente de experimentação inspirado nos paradigmas de computação em nuvem e NFV, que permita avaliar os impactos que a virtualização de funções de rede provocam em uma infraestrutura. Neste trabalho, estão detalhadas a implantação de uma plataforma de computação em nuvem de código aberto, o OpenStack, como ela pode ser utilizada para implantar o NFV e como ambos podem contribuir na criação de soluções aptas a atender as demandas originadas de infraestruturas de rede tradicional. Para validar o ambiente de experimentação, foi realizado um Estudo de Caso da migração do protocolo IPv4 para IPv6 em um ambiente de rede de instituições públicas, considerando dois cenários possíveis: uma rede tradicional e uma rede virtualizada. Os resultados alcançados permitiram constatar o quanto o ambiente criado é uma ferramenta importante para a realização de experimentos que permitam aos administradores de redes planejar, por exemplo, o período de transição e coexistência desses protocolos, possibilitando com que essa mudança nas redes de computadores possa ocorrer de forma mais suave.

  • SAULO ANTONIO DE LIMA MATOS
  • Sincronização de Semáforos como um Problema de Otimização com Muitos Objetivos
  • Advisor : ANDRE BRITTO DE CARVALHO
  • Data: Aug 28, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Os Sistemas de Transporte Inteligente (ITS) têm como objetivo otimizar a eficiência do transporte e melhorar a sua segurança através do uso de tecnologia avançada. Nesse contexto de ITS uma das áreas importantes é a gestão de tráfego, que utiliza novos conceitos de organização e manutenção do tráfego, buscando, entre outros aspectos, manter um fluxo de tráfego de qualidade. Na gestão de tráfego está inserida a sincronização de semáforos, que é uma das abordagens que lida com a redução de congestionamento do tráfego. Uma sincronização é atingida quando mais de um semáforo está executando o mesmo tipo de plano semafórico de modo que permita um veículo passar pelos semáforos sincronizados sem paradas. Como consequência da sincronização é possível otimizar alguma qualidade relacionada ao tráfego, normalmente o fluxo de veículos. Porém, obter a sincronização de um cojunto de semáforos de malhas viárias em uma cidade é um problema complexo e é necessário a busca por soluções de forma automática. Com um simulador de tráfego, é possível construir uma representação computacional de uma combinação de semáforos e obter medidas (tempo de atraso, tempo de viagem, tempo parado, velocidade média global, entre outras) de qualidades do tráfego calculadas pelo próprio simulador. Assim, através da representação computacional e de um conjunto de medidas, podemos modelar o problema da sincronização de semáforos como um Problema de Otimização Multiobjetivo (MOP), que é a classe de problemas que possuem mais de uma função objeto a ser otimizada. Dentro dessa classe de problemas, recentemente foi definida a Otimização com Muitos Objetivos,que busca resolver um MOP que possue um grande número de funções objetivo, geralmente com mais de três funções. No contexto da sincronização de semáforos, apesar do problema ser modelado com um grande número de funções objetivo, trabalhos da literatura buscam otimizar apenas um pequeno subconjunto envolvendo no máximo duas funções. Assim, este trabalho propõe modelar e resolver o problema da sincronização de semáforos como um Problema de Otimização com Muitos Objetivos (MaOP). Na modelagem o problema será representado computacionalmente e serão escolhidas várias funções objetivo, para resolução do problema serão aplicadas técnicas de otimização com muitos objetivos. Para modelar o MaOP foi desenvolvido um sistema e utilizado o simulador SUMO. A finalidade do sistema é realizar a comunicação entre diversas tarefas que estão incorporadas em módulos, assim, é possível possível efetuar a comunicação entre um algoritmo e o SUMO. Para resolver o MaOP foi aplicado o algoritmo NSGA-III e técnicas de redução de dimensionalidade, tornando possível modelar o problema com um número de objetivos reduzidos. Nesse trabalho foi realizado um conjunto de experimentos, buscando analisar a performance dos algoritmos NSGA-II e NSGA-III em diferentes cenárioscom muitos objetivos. Os resultados mostraram que NSGA-II superou NSGA-III para o problema na maioria dos cenários e que as técnicas de redução de dimensionalidade foram eficazes.

  • LEVI DA COSTA MOTA
  • Uma analise comparativa dos protocolos SNMP, ZAbbix e MQTT no contexto de aplicações de Internet das Coisas
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Aug 25, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A complexidade e o crescimento das novas redes de objetos inteligentes vem gerando uma nova demanda pela manutenção desses dispositivos, com a necessidade de monitorar e controlar remotamente tais aparelhos sem consumir recursos significativos. Analisar o consumo de memória e o consumo de energia dos protocolos usados no gerenciamento dessas redes é uma maneira de evidenciar as melhores alternativas de protocolos para esse tipo de aplicação. Este trabalho realiza um estudo experimental, analisando o comportamento dos protocolos SNMP, Zabbix e MQTT, no tocante ao consumo de memória e ao consumo de energia elétrica, quando usados em uma aplicação de Internet das Coisas, com dispositivo sensor implementado sobre o ESP8266. O experimento é executado realizando o monitoramento de dispositivos em um ambiente com alguns Motes e um servidor Zabbix. O Mote usado é projetado e construído usando o ESP8266. Ele coleta temperatura e humidade do ambiente, e fornece informações de falha e desempenho para o servidor de gerenciamento. Para expor as informações, um agente é implementado para cada protocolo examinado. O estudo analisa a memória ROM e a memória RAM ocupada pelo código do firmware resultante de cada agente, e acompanha a evolução do consumo de memória RAM ao longo do tempo. Também é feita a medição do consumo de energia de cada protocolo. Ao final, o estudo constata que os três protocolos analisados são suportados pela plataforma usada. O SNMP é o protocolo que consome menos memória do dispositivo, e o protocolo Zabbix é o que aloca mais memória ao longo do tempo. Não há diferença significativa no consumo de energia entre os protocolos. Entretanto, o modelo de funcionamento do MQTT permite que o ESP8266 seja colocado em modo de suspensão nos momentos de inatividade, reduzindo em mais de 60% o consumo médio de energia do dispositivo.

  • JOSÉ LUCAS MATOS SILVA
  • Múltiplos Enxames Combinados com Métodos de Arquivamento, Pontos de Referência e Topologias na Otimização com Muitos Objetivos
  • Advisor : ANDRE BRITTO DE CARVALHO
  • Data: Aug 24, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Problemas de Otimização Multiobjetivo podem ser classificados como um conjunto de problemas que possuem mais de uma função objetivo conflitante. Nestes problemas, as funções objetivo a serem otimizadas possuem índices de desempenho que são conflitantes, ou seja, normalmente quando um valor de uma função objetivo tem uma melhoria, um valor de outra função objetivo tende a ter uma piora. Com isto, é necessário obter um conjunto de melhores soluções, onde os valores das funções objetivo simultaneamente sejam aceitáveis. Pode-se destacar que nessa classe de problemas o número de melhores soluções cresce exponencialmente conforme o número de objetivos aumenta. Nesse sentido, esse aumento do número de soluções causa a deterioração da busca por melhores soluções, dificultando o progresso em direção às soluções ótimas. Apesar da aplicação com sucesso de diversos Algoritmos Evolucionários Multiobjetivo a esses tipos problemas, a maioria dos estudos foca em problemas com um número pequeno de objetivos. Além disso, esses algoritmos sofrem com a deterioração da busca quando o número de funções objetivo otimizadas é maior do que três. Assim, recentemente há a busca por novas técnicas e algoritmos que busquem reduzir a deterioração dos algoritmos multiobjetivo. A área que estuda essas novas técnicas é chamada de Otimização com Muitos Objetivos e os problemas multiobjetivo que possuem mais de três funções são classificados como Problemas de Otimização com Muitos Objetivos. Recentemente, diferentes abordagens têm sido propostas para melhorar o desempenho destes algoritmos em problemas de otimização com muitos objetivos. Uma dessas abordagens é o uso de múltiplas populações na otimização multiobjetivo por enxames de partículas, no qual chamamos de Múltiplos Enxames. Múltiplos Enxames são técnicas para explorar populações paralelas para decompor o problema e otimizá-lo de forma colaborativa. Neste trabalho foram desenvolvidos algoritmos que incorporam as características de múltiplos enxames com topologias, arquivamento e pontos de referência para resolver Problemas de Otimização com Muitos Objetivos. O primeiro algoritmo desenvolvido envolveu métodos de arquivamento e topologias, outro explorou pontos de referência e o último trabalhou com modificações dos pontos de referência com o objetivo de obter boa convergência e diversidade nesses tipos de problemas. Um conjunto de experimentos é feito para avaliar os algoritmos propostos e buscar identificar qual a melhor configuração de cada algoritmo. Além disso, é feita uma análise do desempenho dos algoritmos, comparando-os à métodos da literatura.

  • RUAN MARCOS DE ARAUJO CORREIA MELLO
  • Arquitetura de Autoproteção para Internet das Coisas baseada no Laço MAPE-K
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Aug 23, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A Internet das Coisas é um novo paradigma baseado na Computação Ubíqua ou Computação
    Pervasiva. Computação Ubíqua e Computação Pervasiva que são termos utilizados para descrever
    a onipresença da informática no cotidiano das pessoas. O principal objetivo da Internet das
    Coisas é fazer com que as pessoas se comuniquem com as coisas e que as coisas também
    criem comunicação entre si sem necessidade da intervenção humana. O ambiente da Internet
    das Coisas possui bastantes restrições e a principal delas é o pouco recurso computacional
    dos dispositivos. O pouco recurso computacional dos dispositivos termina resultando em um
    ambiente muito inseguro e propício a diversos tipos de ataques, sejam eles físicos ou lógicos.
    Para tornar o ambiente da Internet das Coisas mais receptivo e bem visto por todos é importante
    investir em segurança. Para isso é muito interessante associar mecanismos de segurança com
    propriedades autonômicas, considerando o crescimento exponencial de dispositivos conectados.
    Este trabalho propõe uma arquitetura de segurança voltada ao ambiente da Internet das Coisas. A
    arquitetura proposta possui características autonômicas e é baseada no Laço de Controle MAPE-
    K. Para poder verificar a eficácia da arquitetura proposta foi abordado alguns dos principais
    ataques ocorridos no ambiente em questão (Selective Forward, Blackhole, Sinkhole e Flooding).
    Analisou-se o impacto causado por esses ataques e a interferência deles no funcionamento da
    rede criada a partir do protocolo de roteamento RPL.

  • OTÁVIO MANOEL PEREIRA SIQUEIRA
  • AIKI ECOSYSTEM ARCHITECTURE: UMA PROPOSTA DE ARQUITETURA DE ECOSSISTEMA DE SOFTWARE DE REFERÊNCIA PARA A ÁREA DA SAÚDE
  • Advisor : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: Aug 17, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A crescente pressão pelo aumento da qualidade dos serviços de saúde, bem como a necessidade de redução dos custos, tem feito com que as organizações de saúde adotem, cada vez mais, o uso de Tecnologias da Informação e Comunicação (TIC), através do desenvolvimento e adoção de Sistemas de Informação em Saúde (SIS) para os mais diferentes fins. Com isso, o ambiente tecnológico das organizações cresceu em tamanho e complexidade. Entretanto, a implantação e adoção de SIS nem sempre é uma tarefa de fácil execução. A existência de inúmeros padrões, muitas vezes difíceis de serem utilizados, de sistemas legados e de um ambiente em constante transformação representam grandes desafios. Adicionalmente, a grande carência por essas aplicações faz com que as organizações de saúde não consigam criar todas as soluções que precisam, sendo inevitável a aquisição de SIS de terceiros. Conceitos como Arquitetura de Software e Ecossistemas de Software podem auxiliar no gerenciamento desses ambientes. Nesse contexto, esse trabalho apresenta a AiKi Ecosystem Architecture, uma arquitetura de ecossistema de software de referência, que tem como objetivo definir regras para a criação e adoção de SIS em organizações de saúde, bem como estabelecer critérios para a interação entre os SIS e as pessoas que fazem parte desse ambiente. Uma análise, através de uma sugestão de aplicação foi realizada no Hospital Universitário da Universidade Federal de Sergipe, demonstrando a utilização e viabilidade da arquitetura proposta.

  • ANDRÉ SANTOS OLIVEIRA
  • Uma Proposta de Ensino Semipresencial de Programação Apoiada por Juiz On-line e Ambiente Virtual de Aprendizagem Móvel
  • Advisor : ALBERTO COSTA NETO
  • Data: Aug 16, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A programação de computadores é parte integrante do currículo de diversos cursos nas áreas de computação e das engenharias. Contudo, o processo de ensino e aprendizagem de programação é uma tarefa complexa pois diversos são os problemas enfrentados pelos alunos e professores durante esse processo. A evolução na área de Tecnologia da Informação e Comunicação está permitindo mudar o processo de ensino e aprendizagem para atender as novas demandas da educação. A utilização de ambientes virtuais de aprendizagem e outras ferramentas, como sistemas de juízes on-line, surge como uma proposta para atender as novas necessidades educacionais no cenário de ensino e aprendizagem de programação. Além disso, nos últimos anos, os avanços na área de computação móvel permitem mais uma alternativa para ampliar o processo de ensino e aprendizagem na área educacional. Nesse contexto, este trabalho apresenta uma proposta de metodologia semipresencial para ensino de programação apoiada por juiz on-line e por ambientes virtuais de aprendizagem Web e móvel. Essas ferramentas computacionais foram descritas com suas principais funcionalidades adaptadas e utilizadas para a metodologia proposta. A proposta foi avaliada através de um estudo de caso em turmas da disciplina de Introdução à Ciência da Computação (ICC) do Departamento de Ciências da Computação da Universidade Federal de Sergipe (DComp/UFS) que possui em seu conteúdo programação de computadores. Primeiramente, o estudo analisou o desempenho acadêmico das turmas da disciplina ICC do DComp/UFS que utilizaram a abordagem tradicional, de 2002 à 2016, sob a ótica do REUNI, onde foi evidenciado melhores desempenhos das turmas antes do REUNI. Em relação às turmas que utilizaram a metodologia proposta, de 2015 a 2016, os resultados foram comparados com os das turmas passadas após o REUNI ministradas por apenas professores efetivos. Foi identificado que as turmas de 2016 que utilizaram a metodologia proposta tiveram melhores resultados do que as turmas de 2015 e do que as turmas após o REUNI e ministradas apenas por professores efetivos. Foram avaliados que os cumprimentos de atividades do Roteiro de Estudo e a utilização do juiz on-line The Huxley pelos alunos para as atividades práticas de programação influenciam na aprovação do aluno. Além disso, foram realizadas pesquisas com os alunos que permitiram identificar que a experiência na utilização da metodologia proposta e de suas ferramentas de apoio se mostraram eficazes, mas que há algumas melhorias propostas a serem aprimoradas na metodologia. Como contribuição, espera-se que essa metodologia proposta e as ferramentas que a apoiam possam ser empregadas em outras turmas, em outras disciplinas e em outras instituições de ensino, podendo assim melhorar o aprendizado de programação que é uma das bases de conhecimento da Engenharia de Software e da Computação.

  • JOÃO PAULO ANDRADE LIMA
  • PRODIS: PROJETO, DESENVOLVIMENTO E AVALIAÇÃO DE UMA PLATAFORMA DE PROCESSAMENTO, DIGITALIZAÇÃO E INTERFACEAMENTO DE SINAIS BIOELÉTRICOS.
  • Advisor : MARCO TULIO CHELLA
  • Data: Aug 15, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Sinais são fenômenos que transmitem informação, mas na maioria das vezes em
    que são utilizados na área biomédica, somente a aquisição do sinal não é suficiente,
    pois o sinal possui ruído e precisa ser processado, ou seja, filtrado. Mesmo que seja
    possível lidar com formas de ondas em tempo contínuo, é geralmente conveniente
    convertê-los em uma forma numérica antes do processamento, uma vez que o
    processamento digital é mais eficiente e flexível do que o analógico. Na área de
    engenharia biomédica, está disponível um grande número de métodos e algoritmos
    de processamento de sinal digital, no entanto, não é fácil implementar novas
    técnicas. Dessa forma, este trabalho desenvolveu o "ProDIS", uma plataforma de
    processamento, digitalização e interfaceamento de sinais biomédicos, nesse caso o
    eletrocardiograma, o eletromiograma e o eletro-oculograma, que permite o acesso
    experimental à operação de filtros digitais, seus algoritmos e seus efeitos. Ademais,
    potencializa a prototipagem rápida de aplicações, visto que visa diminuir a
    sobrecarga em termos de tempo de desenvolvimento quando novos recursos ou
    funcionalidades são necessárias. Além de tornar a aquisição e/ou o estudo de sinais
    biomédicos fácil e acessível a todos, desde estudantes, investigadores e pessoas
    com interesse em trabalhar na área da engenharia biomédica. A avaliação da
    plataforma ocorreu por meio de um estudo experimental que avalia a usabilidade da
    plataforma proposta além de mensurar a curva de experiência da mesma, mediante
    observação do tempo de execução dos experimentos. Por fim, os resultados
    mostraram que não há diferença estatística entre as médias de usabilidade e entre
    as médias dos tempos de execução dos grupos avaliados, como também
    forneceram evidências de que a ProDIS possui uma usabilidade excelente e uma
    curva de aprendizagem rápida.

  • ROBERT ANDERSON NOGUEIRA DE OLIVEIRA
  • Análise e avaliação experimentais de técnicas para o incremento da eficácia de recuperação de documentos jurisprudenciais
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Aug 14, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Os algoritmos de radicalização são normalmente utilizados na fase de pré-processamento textual,
    com o intuito de reduzir a dimensionalidade dos dados. No entanto, essa redução apresenta
    diferentes níveis de eficácia, a depender do domínio sobre o qual eles são aplicados. Desse modo,
    a título ilustrativo, há relatos na literatura que evidenciam o efeito da radicalização quando aplicada
    a dicionários ou bases textuais de notícias. Por outro lado, não foi encontrado qualquer
    estudo que analisasse o impacto da radicalização sobre a jurisprudência judicial brasileira, composta
    por decisões da magistratura, instrumento fundamental para que os profissionais do Direito
    possam exercer o seu papel. Assim, o presente trabalho apresenta os resultados obtidos
    por meio da análise e avaliação experimentais da radicalização aplicada sobre documentos jurisprudenciais
    verídicos, oriundos do Tribunal de Justiça do Estado de Sergipe. Os resultados
    mostraram que, dentre os algoritmos analisados, o RSLP possuiu a maior capacidade de redução
    de dimensionalidade dos dados. Outrossim, mediante avaliação extrínseca dos algoritmos
    de radicalização sobre a recuperação de documentos jurisprudenciais, os algoritmos RSLP-S e
    UniNE, radicalizadores menos agressivos, apresentaram o melhor relação custo-benefício, haja
    vista que reduziram a dimensionalidade dos dados e tiveram eficácia similar, ou até mesmo superior,
    à do grupo de controle.

  • ANTONIO FERNANDO CRUZ SANTOS
  • SALUTEM: ARQUITETURA DE BIG DATA PARA ÁREA DA SAÚDE
  • Advisor : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: Aug 8, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Não é de hoje que os dados são considerados um dos principais ativos das organizações. Nos últimos anos, decorrente a crescente geração de dados, em diversos formatos e variadas fontes, a importância em tornar os dados em informações e em conhecimento, são características basilares do big data. No ambiente da saúde, o big data está se popularizando, trazendo inúmeros benefícios para a área, como: predição de doenças, melhoria no tratamento dos pacientes, entre outros. Mas a aplicação de soluções pode não ser simples, pois apresentar desafios que devem ser levados em consideração, como é o caso da segurança dos dados dos pacientes e profissionais de saúde, além da questão da unicidade semântica empregada. Por um lado, os dados, em contextos de saúde, são sensíveis e por esse motivo devem ser salve guardados contra acessos indevidos. Por outro, os dados que são compartilhados pelos profissionais de saúde devem manter uma mesma interpretação, para que não gere interpretações dúbias. Nesse sentido, esta dissertação apresenta uma arquitetura de big data para a saúde, denominada de Salutem, com vistas a simplificar sua aplicação, mas também contornar os problemas da segurança e semântica dos dados. Como forma de avaliação, a arquitetura proposta foi aplicada em um estudo de caso, onde foi possível avaliar sua utilização. Os resultados obtidos foram satisfatórios, haja vista que foram entregues serviços para os consumidores com êxito.

  • DIEGO ASSIS SIQUEIRA GOIS
  • YOUMAKE: UMA PLATAFORMA DIDÁTICA, DE BAIXO CUSTO, GENÉRICA E DE FÁCIL PROTOTIPAGEM PARA AQUISIÇÃO E CONDICIONAMENTO DE SINAIS BIOLÓGICOS.
  • Advisor : MARCO TULIO CHELLA
  • Data: Aug 4, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Com o crescimento da computação física e o aumento do movimento “faça você mesmo”
    (Do-It-Yourself), surgiram diversas plataformas de prototipagem eletrônica como o Arduino
    e o Raspberry pi. Porém essas placas não atendem os requisitos de aquisição e
    condicionamento de sinais biomédicos. Seguindo a ideia do “faça você mesmo”, esta
    dissertação apresenta um framework de aquisição e condicionamento de sinais
    biomédicos formados por um conjunto de placas que tem como características o fato de
    ser composto por placas interconectáveis, intercambiáveis, interconfiguráveis e
    reconfiguráveis denominado YouMake. Além disso, possui um baixo custo e forte
    documentação, possibilitando uma fácil prototipagem e manipulação. A avaliação
    experimental da plataforma foi realizada em um grupo de pessoas que utilizaram a
    plataforma para mostrar o nível de usabilidade e o tempo gasto. Os resultados mostraram
    que não há diferença estatística entre o tempo de prototipagem obtido para os grupos
    “com experiência” e “sem experiência”. Além de fornecer evidências de que a plataforma
    pode ser utilizada como uma alternativa de baixo custo para aquisição e condicionamento
    de sinais biomédicos.

  • LUCIANA MAIARA QUEIROZ DE SANTANA
  • Aplicação de redes neurais recorrentes no reconhecimento automático da fala em ambientes com ruídos
  • Advisor : LEONARDO NOGUEIRA MATOS
  • Data: Jul 26, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Inúmeras tarefas de aprendizagem exigem lidar com dados sequenciais, a exemplo de tradutores de textos, geradores de músicas, entre outros. Os sistemas que utilizam redes neurais profundas (DNN) têm mostrado resultados promissores no reconhecimento automático de fala (ASR), onde um dos maiores desafios é o reconhecimento em sinais de voz contaminados com ruído. Para este trabalho, combinamos duas arquiteturas conhecidas de aprendizagem profunda, as redes neurais convolucionais (CNN) para abordagem acústica e uma arquitetura recorrente com classificação temporal conexionista (CTC) para modelagem sequencial. As redes neurais recorrentes são modelos que capturam a dinâmica da sequência através de uma topologia que contém ciclos, ao contrário das redes neurais acíclicas ou de alimentação direta (feedforward). O modelo estudado neste trabalho é um caso particular de rede recorrente profunda que, ao contrário de seus correlatos de arquitetura rasa, é capaz de reter um estado que pode representar informações de uma janela de contexto arbitrariamente longa. Os resultados experimentais mostraram que a arquitetura proposta alcançou um desempenho superior quando comparado ao modelos clássico, modelo oculto de Markov (HMM), em testes realizados sobre as mesmas bases de dados.

  • JOSÉ BONIFACIO DA SILVA JÚNIOR
  • Paralelização em CUDA do Algoritmo Aho-Corasick Utilizando as Hierarquias de Memórias da GPU e Nova Compactação da STT (Tabela de Transição de Estados)
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Jun 21, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O objetivo principal desta dissertação de mestradoé paralelizar algoritmos de comparação de strings tradicionais através de GPUs usando a linguagem de programação C na plataforma de computação paralela CUDA. Após paralelizar os algoritmos, acelerar o tempo de execução deles fazendo o uso da memória compartilhada das GPUs através de uma nova técnica de compactação.

    1.2.1 ObjetivosEspecíficos

    Para alcançar o objetivo primário, alguns objetivos específicos têm que ser atendidos, a saber:

    • Fazer um estudo na literatura sobre a paralelização do algoritmo de comparação de strings do Snort, o Aho-Corasick;

    • Compactar a máquina de estados do Aho-Corasick a fim de possibilitar que o algoritmo seja executado na memória compartilhada da GPU;

    • Paralelizar o algoritmo em uma GPU fazendo versões nas memórias global, de textura e compartilhada;

    • Comparar o desempenho dos algoritmos paralelizados, além de compará-los com a versão serial do algoritmo;

  • TELMO OLIVEIRA DE JESUS
  • UMA TÉCNICA BASEADA EM EVENTOS PARA RASTREABILIDADE ENTRE REQUISITOS MODELADOS COM SysML
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Jun 12, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Gerenciar um projeto de software é uma tarefa cada vez mais complexa à medida que as exigências sobre a qualidade do produto final aumentam. Assim, é preciso um gerenciamento eficaz desde a concepção do projeto até a implantação e manutenção do software. Segundo literatura, a Engenharia de Requisitos é a fase que possui maior impacto em um projeto de software. As mudanças nos requisitos de software ocorrem ao longo do processo de software,desde a elicitação e análise de requisitos até a operação do software. A rastreabilidade de requisitos possibilita identificar a origem e a dependência entre os requisitos de software. Estudos mostram que as ferramentas e métodos de rastreabilidade de requisitos atuais são insuficientes e dificultam o uso prático da rastreabilidade. O objetivo deste trabalho foi a criação de uma técnica de rastreabilidade de requisitos combinada com uma linguagem de modelagem e que seja suportada por uma ferramenta. Para atingir este objetivo, foram utilizados como instrumentos de pesquisa a revisão bibliográfica, uma pesquisa do tipo estado da arte, análise comparativa,questionário e entrevistas. Inicialmente, foram realizadas análise das técnicas de rastreabilidadede requisitos e avaliação de ferramentas de rastreabilidade de requisitos com intuito de avaliarse as técnicas são utilizadas na prática, e se estão sendo apoiadas por ferramentas de software.Após estas análises, foi proposta uma técnica de rastreabilidade entre requisitos baseada emeventos utilizando conceitos da linguagem de modelagem SysML. Uma ferramenta de software foi desenvolvida para apoiar essa técnica. Sempre que um requisito é modificado, a ferramenta notifica aos stakeholders a alteração realizada nos requisitos do sistema por meio de e-mails.A técnica e a ferramenta foram avaliadas por vinte e quatro profissionais de tecnologia dainformação utilizando questionário, baseado no modelo TAM, que engloba os conceitos de utilidade percebida, facilidade de uso percebido e uso percebido, e entrevistas. Como resultado,foram observados a falta de relação entre as técnicas e as ferramentas pesquisadas e que o critériode comunicação automática com stakeholders não foi abordado em nenhuma ferramenta avaliada.Com relação à técnica e ferramenta propostas, observou-se uma ampla aceitação da técnica e da ferramenta. A aceitação das propostas foi realizada por profissionais com experiências variadasincluindo conhecimentos em sistemas legados e ERP.

  • AIRTON ANTONIO DE JESUS JÚNIOR
  • Detecção de falhas em Sistema para Ambiente de Vida Assistida
  • Advisor : TARCISIO DA ROCHA
  • Data: Jun 9, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Ambiente de Vida Assistida (AVA) é, essencialmente, uma proposta científica e tecnológica que visa auxiliar a manutenção da vida e o bem-estar de pessoas idosas ou com necessidades especiais. Para tanto, utiliza-se um sistema de controle (middleware) que integra e coordena dispositivos inteligentes: braceletes, roupas, camas, quartos etc., com vistas a ampliar a autonomia dos indivíduos na execução das mais simples atividades diárias bem como prover remotamente serviços de saúde e de assistência social. Como então garantir, neste contexto, que o sistema não esteja interpretando uma situação equivocada da realidade do meio ou do próprio paciente? Ou ainda, como prevenir respostas inadequadas ou omissões irremediáveis? Apenas com o cumprimento eficaz de requisitos não funcionais, tais como técnicas de detecção de erros e tolerância a falhas poder-se-á minimizar tais circunstâncias inaceitáveis para preservação da saúde do indivíduo. Neste diapasão, o presente estudo visa levantar o contexto de identificação de falhasem sistemas distribuídos assíncronos de modo a projetar, desenvolver e, em seguida, avaliar a eficácia de módulo de detecção de erros em sistemas para controle de AVA por meio do emprego de tecnologias abertas (open hardware/software).

  • CLAUDIO JUNIOR NASCIMENTO DA SILVA
  • GOVERNANÇA E ALINHAMENTO ESTRATÉGICO DE TIC E NEGÓCIO NO ÂMBITO DAS EMPRESAS SERGIPANAS
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: May 30, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Em um mercado cada vez mais competitivo, os recursos de Tecnologia da Informação e Comunicação (TIC) são essenciais e estratégicos nas organizações. Atualmente, o uso das TIC é uma questão de sobrevivência do negócio. Da mesma forma que as organizações e o mercado estão em constantes mudanças, as TIC estão em constante evolução, não sendo mais concebível tratá-las apenas como recursos de apoio, mas também como um recurso estratégico - com riscos para o negócio e sendo conhecido por todos. Consequentemente, o emprego dos recursos tecnológicos deve estar alinhado com os objetivos do negócio. Faz-se necessário, então, identificar como as organizações estão promovendo o alinhamento das estratégias de TIC com as estratégias do negócio e como estão sendo tratadas as questões dos riscos e da comunicação e transparência de TIC. O presente trabalho investigou, após a aplicação de um questionário eletrônico (survey) aos Chiefs Information Officer sergipanos, como as práticas de Governança de TIC são adotadas pelas empresas e como se encontram o planejamento e o alinhamento estratégico entre TIC e negócio. Como resultado, observou-se uma carência das organizações na gestão de riscos, dos processos de comunicação e do alinhamento estratégico entre TIC e negócio, bem como se constatou que as principais práticas de Governança da TIC utilizadas foram Planejamento Estratégico de TIC próprio ou customizado, ITIL, PMBOK e BSC. Além das práticas de Governança de TIC citadas, existem outras metodologias e frameworks que propõem a gestão eficiente dos objetivos de TIC, alinhados com a estratégia da organização. Dentre elas, destaca-se a Metodologia PETIC desenvolvida pela Universidade Federal de Sergipe. Neste cenário, são propostas melhorias na Metodologia PETIC, incorporando ao seu escopo a gestão de riscos e gestão da comunicação e transparência de TIC, possibilitando uma avaliação de TIC eficiente e alinhada com os objetivos estratégicos do negócio. Para evidenciar e comprovar a suposição apresentada de que as melhorias propostas na Metodologia PETIC promovem uma gestão mais eficiente dos riscos e da comunicação e transparência de TIC, um estudo de caso foi aplicado em uma empresa sergipana e, por meio de análises qualitativas e quantitativas das métricas previamente definidas, constatou-se que houve significativa melhoria na elaboração do planejamento estratégico de TIC e na gestão dos riscos e da comunicação e transparência.

  • GEORGE LEITE JÚNIOR
  • I9VANET: um modelo de arquitetura de software para rede veicular em nuvem
  • Advisor : DOUGLAS DYLLON JERONIMO DE MACEDO
  • Data: May 29, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Em consequência do crescimento populacional, as grandes cidades enfrentam problemas cotidianos relacionados à mobilidade urbana tais como: congestionamentos, baixa qualidade das rodovias, ineficiência de transportes públicos, entre outros. Iniciativas de sistemas de transportes inteligentes (ITS) agem como uma solução eficiente para melhorar o funcionamento e desempenho dos sistemas de tráfego, reduzindo congestionamentos e aumentando a segurança para os cidadãos. Atualmente, pesquisadores vem buscando nas redes veiculares ad-hoc (VANET) uma possível solução para os problemas referentes à mobilidade urbana. Contudo, VANETs ainda apresenta uma série de desafios que devem ser resolvidos para que seu uso seja consolidado. Deste modo, o presente trabalho apresenta uma arquitetura e plataforma denominada I9VANET, cujo intuito é o gerenciamento de uma rede veicular de maneira virtualizada por meio da computação em nuvem, para auxiliar nas soluções dos principais desafios relacionados à VANETs tais como: interferências na comunicação devido a árvores e prédios; alta mobilidade dos nós; alta e baixa densidade dos nós em uma área; garantia de confidencialidade, integridade e disponbilidade, autenticidade e não repúdio. Após realização de experimentos em laboratório, foi constatado a viabilidade técnica para a utilização de velocidades definidas para os modelos de telefonia móvel 3G, 4G e 5G, satisfazendo os critérios de eficiência se comparados a outros trabalhos, na literatura, que utilizaram redes veiculares ad-hoc.

  • JAMILLE SILVA MADUREIRA
  • Avaliação de Equipes de Desenvolvimento de Software por Meio de Métricas Orientadas a Objeto
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Apr 12, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Gerenciar um projeto de software é uma tarefa cada vez mais complexa à medida que as exigências sobre o produto final aumentam. O ambiente competitivo no mercado de software e as necessidades dos clientes exigem que os desenvolvedores de software tenham preocupação cada vez maior na satisfação do usuário como uma medida da qualidade do produto final. Assim, é preciso um gerenciamento eficaz desde a concepção do projeto até a manutenção do software. A equipe de desenvolvimento é um dos recursos mais relevantes para o êxito dos projetos, mas também é onde frequentemente são encontrados os maiores problemas. O uso de métricas é uma forma de ajudar a equipe do projeto a atingir os seus objetivos e metas. O objetivo deste trabalho foi utilizar métricas de software para avaliar equipes e indivíduos, analisando o desempenho atual dos desenvolvedores. Para atingir esse objetivo, nesse trabalho foram aplicados como instrumentos de pesquisa a revisão da literatura e o estudo de caso. A revisão da literatura propiciou descobrir valores referência para as métricas aplicadas, com a finalidade de estabelecer critérios que serviram de base para avaliar os softwares envolvidos na pesquisa. Após obter esses conhecimentos, foi aplicado o estudo de caso em duas empresas públicas locais e em exercícios com alunos de graduação de duas universidades. No total, foram avaliados treze softwares, sendo quatro desenvolvidos nas empresas e nove pelos estudantes. Para a aplicação das métricas, foi selecionada uma ferramenta que as coletasse automaticamente e fornecesse o resultado em um formato pronto para ser manipulado. Como resultado, foi constatado que a avaliação da qualidade do software por meio de métricas contribui efetivamente na gestão de projetos, pois indica suas falhas e onde deve ser melhorado. Também foram descobertas evidências de que ouso de métricas é útil na avaliação dos membros das equipes de desenvolvimento. Por meio doestudo de caso, descobriu-se que a composição da equipe é importante para o sucesso do projeto,pois a formação e experiência dos membros afetam diretamente a qualidade do software. Nestesentido, as métricas de software podem contribuir para acompanhar tanto o desenvolvimento doprojeto quanto nas decisões que causam mudanças na equipe.

  • ANDERSON SANTOS BARROSO
  • UM ESTUDO SOBRE A INFLUÊNCIA DA PERSONALIDADE HUMANA NA QUALIDADE DO SOFTWARE PRODUZIDO
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: Mar 30, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A personalidade dos profissionais de engenharia de software tem sido um elemento contínuo de interesse na pesquisa acadêmica. Os pesquisadores aplicaram diferentes modelos de análise de personalidade em várias áreas de engenharia de software para identificar pontos de melhoria, promover a satisfação no trabalho e organizar melhor as equipes. Entre esses modelos destacamos o MBTI e BIG Five. Esta dissertação objetiva realizar um estudo para avaliar modelos de personalidade aplicados em engenharia de software e compreender como a personalidade humana influencia a qualidade do software. Dois experimentos controlados foram realizados, o primeiro na indústria, no departamento de TI de uma instituição privada de ensino superior e o segundo em uma disciplina de programação avançada na academia. Para ambas as experiências, a qualidade do software produzido individualmente por cada participante foi avaliada utilizando métricas de software para linguagens de paradigma orientadas a objetos. Como resultado, há evidências de que desenvolvedores com personalidades diferentes não desenvolvem software de qualidade igual. Como os experimentos foram realizados em uma única localização geográfica com uma cultura de desenvolvimento de software própria, estudos adicionais precisam ser realizados para determinar qualquer ligação real entre personalidade e qualidade de software.

    ::

    Personality of software engineering professionals has been a continuous element of interest in academic research. Researchers have applied different models of personality analysis in various software engineering areas to identify improvement points, to promote job satisfaction and to better organize teams. Among these models, we can highlight the MBTI and BIG Five. This work aims to conduct a study to evaluate personality models applied in software engineering and to understand how human personality influences software quality. Two controlled experiments were performed, the first in industry, in IT department of a private higher education institution and the second in an advanced programming discipline in academy. For both experiments, the quality of software individually produced by each participant was evaluated using software metrics for object-oriented paradigm languages. As a result, there is evidence that developers with different personalities do not develop software of equal quality. As the experiments were run in a single geographic location with an own software development culture, additional studies need to be performed to determine any real link between personality and software quality.

  • QUELITA ARAÚJO DINIZ DA SILVA RIBEIRO
  • UMA TÉCNICA BASEADA EM SysML PARA MODELAR A ARQUITETURA DE SISTEMAS EMBARCADOS DE TEMPO REAL
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Mar 23, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A especificação da arquitetura de sistemas de software de tempo real é uma atividade que depreende análise, conhecimento e compreensão tanto do domínio da aplicação quanto das partes envolvidas na construção do software. A arquitetura tem um papel primordial na comunicação entre os stakeholders, além do planejamento e estrutura de todo o processo arquitetural envolvido no projeto. Contudo, as Linguagens de Descrição de Arquitetura (ADLs) não tem sido amplamente usadas na indústria. Outro fator limitador para o uso efetivo de ADLs é a dificuldade dessas linguagens em expressar efetivamente a arquitetura de sistemas complexos. Considerando essa situação de dificuldade do uso efetivo de ADLs, a UML tem sido utilizada nos últimos anos para modelagem da arquitetura. No entanto, a UML por si só não consegue representar completamente as características pertinentes a sistemas de tempo real, tais como segurança ou restrições de tempo real. Uma das vantagens da UML é a capacidade de extensão permitindo a criação de profiles. Neste sentido, este trabalho apresenta Systems Modeling Language (SysML), um profile da UML, para modelagem da arquitetura de sistemas de tempo real em dois sistemas automotivos, o sistema de controle de airbag e o sistema de controle de faróis. Neste trabalhotem-se como objetivos mostrar a possibilidade de utilizar a UML e a SysML para modelagem edocumentação da arquitetura e delineamento de rastreabilidade de requisitos entre software esistema, ampliando o entendimento do projeto entre as partes envolvidas, e por fim apresentara SysML como uma linguagem capaz de ser usada na descrição da arquitetura de software detempo real. As linguagens SysML e a ADL Architecture Analysis & Design Language (AADL)foram comparadas para mostrar as vantagens da SysML, foi percebido que características abstratas,tais como tomadas de decisão, repetição de uma funcionalidade (loop), características que são relacionadas a realidade e consequentemente, ao sistema não podem ser descritas em AADL. A SysML mostrou-se relevante no contexto da descrição, análise, classificação e modelagemde arquitetura para sistemas de tempo real. O diagrama de Requisitos da SysML mostra explicitamente os diversos tipos de relacionamentos entre diferentes requisitos, o diagrama de Blocos viabiliza a visão global dos sistemas envolvidos num único projeto, o diagrama de Blocos Internos possibilita a visão interna do sistema em construção, o diagrama de Atividades considera a visão comportamental do sistema. Os conceitos de SysML, articulados nos diagramas de Requisitos, Atividades, Blocos e Blocos Internos da SysML são complementares cobrindo os propósitos necessários para a descrição da arquitetura de sistemas de tempo real. Conclui-se quea técnica proposta da junção de UML e SysML fornece elementos para descrever requisitos desoftware e seus relacionamentos com o sistema, gerenciar mudanças, evoluir e rastrear requisitosmais facilmente, além da comunicação ser efetivamente realizada entre os stakeholders. Este aspecto é importante ao desenvolvimento de sistemas de tempo real, por causa da diversidade depessoas/equipes envolvidas e que influenciam uma ampla série de decisões de projeto.

  • ÍTALO PEREIRA TELES
  • BPM4SERVICES: FRAMEWORK DIRIGIDO A MODELOS PARA AUTOMAÇÃO DE PROCESSOS DE NEGÓCIO
  • Advisor : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: Feb 23, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Organizações estão cada vez mais conscientes da importância da definição e gerenciamento de seus processos, dessa forma, a Gestão de Processos de Negócio (Business Process Management - BPM) tem evoluído ao longo dos últimos anos. Conceitos como Arquiteturas Orientadas a Serviços (Service Oriented Architecure - SOA) auxiliam na aproximação entre negócio e tecnologia, facilitando a comunicação e entendimento das reais necessidades do negócio. Adicionalmente, o paradigma Model Driven Engineering (MDE) promove a criação de softwares baseados em modelos, o qual visa aumentar a produtividade no desenvolvimento de soluções independentes de plataformas e com um menor custo de implementação. Nesse contexto, este trabalho apresenta o BPM4Services, um framework dirigido a modelos para automação de processos de negócio baseado em uma Arquitetura Orientada a Serviços. O framework tem como objetivo direcionar o desenvolvimento de soluções orientadas a processos de forma eficiente e padronizada, integrando os conceitos de BPM, SOA e MDE. Uma análise do BPM4Services, através de um caso exemplo, foi realizada no processo de Triagem Neonatal no Hospital Universitário da Universidade Federal de Sergipe, demonstrando a utilização e viabilidade do framework.

  • LEONARDO HENRIQUE DA SILVA BOMFIM
  • Um Serviço para Anonimização em Redes Definidas por Software
  • Advisor : EDILAYNE MENESES SALGUEIRO
  • Data: Feb 22, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Este trabalho tem como objetivo implementar um serviço de anonimização em Redes Definidas por Software (SDN). Através de um serviço de anonimização é possível realizar a ocultação dos endereços IP dos hosts da rede, garantindo maior proteção contra ataques à segurança, permitindo um aumento de sua disponibilidade. Um dos maiores desafios da arquitetura SDN é a segurança. A separação do controle e do plano de dados permite que desafios para garantir a segurança sejam gerados, devido à permissividade da rede a ataques como ``Homem no Meio'', Negação de Serviço e Saturação. O serviço aqui desenvolvido, denominado de BomIP, utiliza a técnica de anonimização de micro-dados através da randomização dos endereços IP dos hosts. O serviço BomIP foi adicionado ao controlador RunOS, que ficou responsável por realizar o gerenciamento dos endereços IP reais e anonimizados. Para validar este serviço foram realizados dois Estudos de Caso em um ambiente simulando um ataque de Negação de Serviço. O primeiro Estudo de Caso realizou a comparação do funcionamento do serviço de anonimização Crypto-Pan com o BomIP. Enquanto que o segundo Estudo de Caso realizou a comparação de uma rede IP tradicional sob ataque de Negação de Serviço e uma SDN utilizando o BomIP. A análise dos resultados mostrou que o serviço desenvolvido tem um tempo de execução 65\% mais eficiente que o Crypto-Pan. A análise de complexidade do algoritmo do BomIP demonstrou que é de ordem quadrática. Os resultados também demonstraram que os pacotes anonimizados permitem a rastreabilidade e a mitigação de 80\% das tentativas de ataque, dando garantias que os serviços providos pela rede continuem disponíveis.

  • FÁBIO GOMES ROCHA
  • PETIC DECISION MAKING (PDM): UM MODELO AUTOMATIZADO PARA APOIO À TOMADA DE DECISÃO ESTRATÉGICA EM TIC
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: Feb 9, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Strategic planning is essential for the management of Information and Communication Technologies in organizations, providing more assertive decisions to establish the basic purposes of improvement and implementation of new resources. Broaching the subject, the goal of this study was the adaptation of the Technique for Order Preference by Similarity to Ideal Solution (TOPSIS) in the creation of a new model to support decision making on the prioritization of investments in strategic planning of Information and Communication Technologies as a support to the methodology PETIC, called PETIC Decision Make (PDM), evaluating its applicability in real case studies. The investigated institutions were a municipal public administration body and a labor union entity, where the PDM was used in the prioritization of investments for the period of five years, using the tool PDMSys created in this study. By means of the proposed method was possible to select alternatives of actions considered preferable and to analyze their dependencies, besides creating a continuous cycle for classification. The results indicated the practicability of the method, avoiding an indication that the dependencies would jeopardize the investment in technologies. In this way, it was verified that the application of the PDM increases the predictability of expenditures, allows the reduction of initial costs and contributes to the assertiveness in the decisions on the management of the technological resources, implying in the global management of the institutions.

    ::

    O planejamento estratégico é essencial para a gestão das Tecnologias da Informação e Comunicação nas organizações, proporcionando decisões mais assertivas para o estabelecimento dos propósitos básicos de melhoria e implementação de novos recursos. Abordando o tema, o objetivo deste estudo foi a adaptação do Technique for Order Preference by Similarity to Ideal Solution (TOPSIS) na criação de um novo modelo de apoio à tomada de decisão sobre a priorização de investimentos em planejamento estratégico de Tecnologias da Informação e Comunicação como suporte à metodologia PETIC, denominado PETIC Decision Make (PDM), avaliando sua aplicabilidade em estudos de caso real. As instituições investigadas foram um órgão da administração pública municipal e uma entidade sindical, onde se empregou o PDM na priorização de investimentos para o período de cinco anos, utilizando-se a ferramenta PDMSys criada neste estudo. Por meio do método proposto foi possível selecionar alternativas de ações consideradas preferíveis e analisar as suas dependências, além de criar um ciclo contínuo para ordená-las. Os resultados indicaram a praticabilidade do método, evitando indicação em que as dependências prejudicassem o investimento em tecnologias. Dessa forma, constatou-se que a aplicação do PDM amplia a previsibilidade sobre os gastos, possibilita a redução de custos iniciais e contribui para a assertividade nas decisões sobre a gestão dos recursos tecnológicos, implicando na gestão global das instituições.

  • ÉDEN PEREIRA DA SILVA
  • Kernel Sigmoide (KSIG): análise de convergência e experimentos em filtragem adaptativa não linear
  • Advisor : CARLOS ALBERTO ESTOMBELO MONTESCO
  • Data: Jan 27, 2017
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A filtragem adaptativa é aplicada na solução de diversos problemas da engenharia. Há
    muitas alternativas para melhorá-la, uma delas é o uso de kernel, que consiste na mudança
    do espaço dos dados e, em adição ao uso desta técnica, há a proposta do uso de um dicionário
    pré-definido de dados. Outra alternativa é a mudança da função de custo. Neste contexto, este
    trabalho traz o algoritmo KSIG, a versão em kernel do Sigmoide, no qual se busca a redução
    do erro, decorrente do uso da função kernel, e o aumento na velocidade de convergência
    pela mudança na função de custo par e não linear utilizada. Ademais, descreve-se também
    a versão do KSIG com dicionário de dados pré-definido, visando redução do grande número
    de dados utilizados para obtenção da saída decorrente do uso da técnica com kernel. Este
    trabalho mostra o resultado teórico da eficiência do KSIG e de sua versão com dicionário pré-
    definido está presente nas provas de convergência construídas para ambos os algoritmos, as
    quais demonstraram que estes convergem em média. Por outro lado, as curvas de aprendiza-
    gem, obtidas nas simulações computacionais dos experimentos realizados, demonstraram
    que o KSIG quando comparado ao KLMS, em diferentes problemas de filtragem adaptativa,
    apresenta convergência mais rápida, tanto nas versões sem e com dicionário pré-definido de
    ambos os algoritmos.

2016
Description
  • JOVAN DE ANDRADE FERNANDES JUNIOR
  • Reconhecimento Automático de Expressões Faciais Baseado na Geometria Facial
  • Advisor : LEONARDO NOGUEIRA MATOS
  • Data: Dec 21, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Nos últimos anos temos observado grandes avanços na área de Visão Computacional que possibilitaram uma mudança na maneira como nos relacionamos com a máquina. Para al- cançar uma efetiva Interface Humano-Computador Inteligente (IHC), além dos movimentos corporais ou comandos vocais, é necessário que a máquina seja capaz de compreender tam- bém as expressões faciais dos seres humanos.

    Nos últimos vinte anos, diversos autores buscaram reconhecer expressões faciais mas essa tarefa ainda não é executada com a mesma eficiência que um humano.

    Este trabalho se utiliza da geometria facial humana para propor dois métodos de seleção de características para reconhecer expressões faciais humanas. Os resultados obtidos foram compatíveis com o atual estado da arte.

  • VICTOR GABRIEL GALVAN
  • Proposta de Identificação de Ataques ao Serviço SSH usando Padrões no Consumo de Corrente em Plataformas Embarcadas
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Nov 22, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Este trabalho apresenta a obtenção de curvas de consumo de corrente elétrica, a partir das respostas geradas por um sistema embarcado de baixo custo Raspberry Pi 2 Model B executando o sistema operacional Linux Raspbian trabalhando como um servidor de acesso remoto SSH, que é avaliado através de diferentes tipos de acessos e ataques de força bruta com dicionários através das ferramentas especializadas Medusa e Hydra, como também a ferramenta não especializada Metasploit.O comportamento energético é interpretado por um sistema de medição de consumo de corrente desenvolvido pela plataforma embarcada de baixo custo Arduino Uno que administra um sensor de corrente baseado no chip ACS721ELC-5A de efeito Hall, que possui a capacidade de coletar as variações geradas pela plataforma de teste em resposta aos eventos produzidos pelos cenários de provas propostos, os dados são processados pelo Framework Matlab que coleta, analisa e normaliza por meio do método de Welch o sinal de corrente que é interpretado pelo Arduino Uno, posteriormente se apresenta uma curva padrão que caracteriza um determinado evento baseado nos cenários de provas.Os resultados apresentam as diferentes curvas padrões normalizadas, e contextualizadas nos tipos de cenários avaliados, seguidamente se apresenta um modelo matemático teórico do consumo de corrente proposto, como também as regras ou assinaturas propostas para identificar um ataque através do método de detecção por padrões que utilizada o IDS Snort. Essas curvas de corrente facilitam o entendimento e obtenção de um padrão de consumo de corrente para cada acesso e ataque na plataforma embarcada.

  • DAVID WILLIANS DOS SANTOS CAVALCANTI BESERRA
  • Performance Analysis of Virtualization Technologies in High Performance Computing Environments
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Sep 19, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • High Performance Computing (HPC) aggregates computing power in order to solve large and complex problems in different knowledge areas, such as science and engineering, ranging from 3D real-time medical images to simulation of the universe. Nowadays, HPC users can utilize virtualized Cloud infrastructures as a low-cost alternative to deploy their applications. Despite of Cloud infrastructures can be used as HPC platforms, many issues from virtualization overhead have kept them almost unrelated. In this work, we analyze the performance of some virtualization solutions - Linux Containers (LXC), VirtualBox and KVM - under HPC activities. For our experiments, we consider CPU,(network and inter-process) communication and I/O performance. Results show that different virtualization technologies can impact distinctly in performance according to hardware resource type used by HPC application and resource sharing conditions adopted.

  • MAYKA DE SOUZA LIMA
  • VOCABULÁRIO PADRÃO PARA DESCOBRIR SERVIÇOS NA INTERNET DAS COISAS
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Aug 31, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A internet das coisas é uma infraestrutura de rede que se baseia em protocolos de comunicação, domínios e aplicações conectando objetos físicos, como sensores ou dispositivos remotos através de comunicações sem fio. Para que objetos inteligentes realizem suas funções quando conectados à internet utilizando os recursos da web, é necessário que as interfaces de comunicações possam tratar a busca de um determinado serviço solicitado pelo usuário com precisão. A busca deste serviço se dará se a semântica utilizada no vocabulário for eficaz ao processo de solicitação. Em algumas pesquisas citadas no trabalho a utilização dos vocabulários semânticos em serviços da web, apresenta alguns problemas que persistem na detecção clara destes serviços. Estes trabalhos que realizam busca de serviços foram analisados e correlacionados seus pontos positivos e negativos sobre a semântica utilizada no vocabulário e sua aplicação na IoT. Desta forma, para obter um processo de descobrimento de serviços, este trabalho apresenta um vocabulário padrão para realizar a descoberta de serviços na internet das coisas. O vocabulário construído foi testado em uma aplicação que simula o processo de busca, Cooja Simulator do sistema operacional Contiki, e utilizando a linguagem JSON(JavaScript Object Notation) para a base do código de descobrimento, uma linguagem simples e muito utilizada para aplicações web. Realizada a simulação foram comparados dados qualitativamente e quantitativamente do consumo de energia e de memória do vocabulário como um todo e parte dele, demonstrando que utilizando parte deste vocabulário o consumo de memória e energia se manteve no padrão necessário, mas se utilizá-lo por completo necessitará de mais recursos de rede.

  • JOSÉ JORGE BARRETO TORRES
  • Identificação e análise de clones de códigos heterogêneos em um ambiente corporativo de desenvolvimento de software.
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Aug 31, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A exigência por acelerar o desenvolvimento de software nas empresas desencadeia uma série de problemas relacionados à organização do código. As equipes de desenvolvimento, pressionadas a cumprir prazos ditados pela área de negócio, adotam a prática ruim de copiar e colar código. Assim, os clones são criados e povoam os repositórios de software dessas companhias, tornando o aprimoramento e manutenção dos sistemas cada vez mais dificultado. Linguagens de programação que possuem características do paradigma de orientação a objetos tendem a facilitar ainda mais o processo de abstração de código e de reaproveitamento. No entanto, uma questão pode ser feita: uma mesma equipe, trabalhando com diversos tipos de linguagens, sofre influência destes tipos, no que diz respeito à diminuição da incidência de clones? Este trabalho propôs uma abordagem para identificar, analisar e comparar clones em repositórios heterogêneos de software, com uma análise tênue do perfil da equipe envolvida. A avaliação experimental da abordagem foi realizada por meio de dois experimentos controlados, os quais visaram a detecção e a avaliação de clones, utilizando e adaptando o ferramental disponível no mercado. Esta avaliação foi executada in-vivo, em um ambiente organizacional real, o qual possuía uma grande quantidade de aplicações e linhas de código fechado disponíveis para análise. Os resultados finais não apresentaram relação direta com a quantidade de linhas de código das aplicações. Sistemas de linguagem procedural apresentaram menor incidência de clones e, no conflito entre sistemas de código aberto e fechado, ambos tiveram resultados similares no que diz respeito à manifestação de clones de código-fonte.

  • IGOR PETERSON OLIVEIRA SANTOS
  • UM FRAMEWORK DE TESTES UNITÁRIOS PARA PROCEDIMENTOS DE CARGA EM AMBIENTES DE BUSINESS INTELLIGENCE
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Aug 31, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A qualidade de um produto de software está diretamente relacionada com os testes empregados durante o seu desenvolvimento. Embora os processos de testes para softwares aplicativos e sistemas transacionais já apresentem um alto grau de maturidade, estes devem ser investigados para os processos de testes em um ambiente de Business Intelligence (BI) e Data Analytics. As diferenças deste ambiente em relação aos demais tipos de sistemas fazem com que os processos e ferramentas de testes existentes precisem ser ajustados a uma nova realidade. Neste contexto, grande parte das aplicações de Business Intelligence (BI) efetivas depende de um Data Warehouse (DW), um repositório histórico de dados projetado para dar suporte a processos de tomada de decisão. Sãos as cargas de dados para o DW que merecem atenção especial relativa aos testes, por englobar procedimentos críticos em relação à qualidade. Este trabalho propõe uma abordagem de testes, baseada em um framework de testes unitários, para procedimentos de carga em um ambiente de BI e Data Analytics. O framework proposto, com base em metadados sobre as rotinas de povoamento, realiza a execução automática de casos de testes, por meio da geração de estados iniciais e a análise dos estados finais, bem como seleciona os casos de testes a serem aplicados. O objetivo é melhorar a qualidade dos procedimentos de carga de dados e reduzir o tempo empregado no processo de testes. A avaliação experimental foi realizada através de dois experimentos controlados executados na indústria. O primeiro avaliou a utilização de casos de testes para as rotinas de povoamento, comparando a efetividade do framework com uma abordagem manual. O segundo experimento efetuou uma comparação com um framework genérico e similar do mercado. Os resultados indicaram que o framework pode contribuir para o aumento da produtividade e redução dos erros de codificação durante a fase de testes em ambientes de suporte à decisão.

  • ADRIANA DE MELO FONTES
  • TAXOPETIC: PROPOSTA DE UMA TAXONOMIA PARA A CLASSIFICAÇÃO DOS ARTEFATOS GERADOS PELA METODOLOGIA PETIC
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: Aug 30, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Os avanços das Tecnologias da Informação e Comunicação (TIC) podem proporcionar diferenciais competitivos para as organizações. A busca de inovações pelas organizações exige melhores soluções para a garantia de qualidade e satisfação aos seus clientes. Nesse sentido, as organizações necessitam que o Planejamento Estratégico (PE) e as TIC estejam integrados e coerentes entre si. A Metodologia de Planejamento Estratégico de Tecnologia da Informação e Comunicação (PETIC) é um PE que auxilia gestores na identificação da maturidade dos processos de TIC e sua consequente melhoria. Por outro lado, o crescente número de estudos de caso da PETIC nas organizações tem destacado uma dificuldade de localizar e classificar os Artefatos PETIC gerados. Nesse contexto, a utilização de estruturas classificatórias (taxonomias) tem sido aplicada com sucesso para a classificação e a recuperação de informações. Este trabalho propõe uma taxonomia para dar suporte à Metodologia PETIC, denominada TAXOPETIC. Dentre as diversas abordagens técnicas para a construção de uma taxonomia, optou-se pelo uso das abordagens técnicas de Aganette (2010) e Bayona-Oré et al. (2014). Após a construção da TAXOPETIC, foi realizado um estudo comparativo entre essas abordagens utilizadas. Neste trabalho, também são apresentados os motivos pela escolha de uma dessas abordagens. Para testar a estrutura da TAXOPETIC, foi construído um produto de software chamado TAXOPETICWeb. Entre os resultados, ficou evidenciado que a TAXOPETIC consegue classificar os componentes dos Artefatos PETIC e que a TAXOPETICWeb permite o armazenamento, a classificação e a localização desses Artefatos.

  • EMANUEL FERREIRA DA SILVA
  • SDNMonitor: Um Serviço de Monitoramento de Tráfego em Redes Definidas por Software
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: Aug 30, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Com a popularidade da Internet e a emergência de novos serviços, tornou-se cada vez mais necessário fazer um planejamento da rede, com o objetivo de assegurar que cada um dos elementos que a compõem sejam utilizados de forma eficiente. Além disso, é necessário controlar e monitorar a rede, verificando se tudo está sendo executando da maneira que foi planejada. Em redes que utilizam o paradigma SDN, através da introdução de um controlador de rede, é possível a separação entre o plano de dados (hardware) e o plano de controle (software) existentes nos dispositivos de rede, permitindo que novos protocolos e novas tecnologias sejam implementadas e testadas em qualquer dispositivo de rede, independente do seu fabricante. Em contrapartida, surge o seguinte questionamento: como aplicar monitoramento de tráfego em uma rede SDN diante da sua arquitetura de controle centralizada sem causar atrasos ou inconsistências? Este trabalho propôs um serviço de monitoramento de tráfego em redes SDN baseado no protocolo OpenFlow, chamado SDNMonitor, que tem como principal objetivo prover uma visão do tráfego de dados da rede em três níveis de granularidade, por cada porta de cada switch, por cada fluxo e por cada serviço de rede. Adicionalmente, também foi proposto um serviço de balanceamento de carga, baseado na utilização dos algoritmos Round-Robin e Bandwidth-Based. A avaliação experimental destes serviços foi realizada através de experimentos controlados, onde foram gerados e monitorados alguns tráfegos. Os resultados demonstraram que o serviço SDNMonitor conseguiu monitorar o tráfego da rede nos três níveis de granularidade sem impactar de forma negativa no seu funcionamento, e que o serviço de balanceamento de carga foi capaz de melhorar o tráfego da rede.

  • RODRIGO DE ÁVILA REZENDE
  • Cloudlets móveis: deslocamento de serviços para redução de latência
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: Aug 29, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Serviços em nuvem tem se tornado uma solução frequente para os problemas computacionais convencionais, algumas empresas a exemplo da Amazon ou Microsoft investiram em infraestrutura para vender recursos como PaaS ou IaaS. Subsequentemente novos dispositivos, agora portáteis, tem se disseminado e precisaram adotar o modelo da nuvem de provimento de recursos criando dessa maneira a Mobile Cloud Computing. Mesmo com os vários modelos de arquitetura para essa nova nuvem para dispositivos móveis, a evolução aponta em total transparência para as aplicações e usuários quanto à localização dos recursos, demandando que os equipamentos móveis necessitem uma conexão permanente e uma abordagem de espelhamento de processos conhecidas como Cloudlets. As Cloudlets devem prover recursos exigidos que garantam uma experiência de percepção de uso confortável ao usuário, contornando problemas como alta latência, processamento local e indisponibilidade de conexão. Para a obtenção dessa qualidade de percepção, a Cloudlet deve estar o mais próximo possível do usuário e acompanhá-lo durante seu deslocamento. O modelo convencional de cloud computing oferece esses processos executados em máquinas virtuais, que são onerosas quanto ao seu deslocamento e tempo de subida para execução. Como alternativa, este trabalho propõe um modelo baseado em containeres e dockers que permita um tempo de subida menor e menos dados referentes ao ambiente para serem deslocados entre os centros de processamento das cloudlets. A alternativa demonstrou através de simulação um comportamento condizente com o esperado, apresentado resultados que destacam a redução do tempo e overhead necessário para o deslocamento das cloudlet, beneficiando a percepção do usuário e abrindo novas premissas para implementação e otimização.

  • LUÍS OTÁVIO SANTOS DE ANDRADE
  • Hardware Embarcado para Aquisição e Análise de Sinais Vitais usando o Protocolo de Comunicação ModBus
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Aug 26, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • As redes de computadores nos ambientes hospitalares são temas centrais de discussão sobre a utilização dos sistemas aplicados à atividade em saúde que garantam a captura dos dados de sinais vitais. O presente trabalho teve como objetivo analisar o modelo de captura dos dados do nó sensor proposto, utilizando o padrão de comunicação do protocolo Modbus na aquisição de informações multiparamétricas de sinais biológicos de pacientes. A pesquisa foi desenvolvida com propósito experimental para a caracterização do protocolo ModBus sob a rede serial RS485. Foi realizada, ainda, uma revisão sistemática para subsidiar a escolha do modelo de dados e do padrão de comunicação serial em redes cabeadas. Para tanto, foi construído um protótipo de nó sensor (PIC18F26K20) para captura de temperatura corporal e frequência cardíaca na comunicação da rede com fio na qual os protocolos CAN e ModBus foram testados. Os dados dos nós sensores foram submetidos a testes de captura e envio dos dados ao nó central, e exibidos em plataforma portáteis (Smartphones). Foram, ainda, observadas as características de largura de banda e qualidade dos dados obtidos. A revisão sistemática demonstrou uma tendência na utilização do protocolo CAN como padrão de comunicação cabeado para as atividades HealthCare, a aplicação utilizada no experimento apresentou limitações. No entanto, após experimento utilizando o protocolo ModBus, este mostrou-se adequado e de fácil implementação às aplicações na área hospitalar, tendo uma plataforma de baixo custo como solução para a referida área.

  • FELIPE DOS ANJOS LIMA
  • Implantação e Desempenho de um Cluster de Baixo Custo com ARM e Plataforma Raspberry Pi
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Aug 26, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Com o desenvolvimento da computação de alto desempenho (HPC), grandes volumes de dados passaram a ser processados de forma rápida, permitindo assim, que avanços significativos fossem alcançados em varias áreas do conhecimento. Para isso, sempre se observou a área de HPC tendo uma infraestrutura complexa. Por outro lado, nos últimos anos, se observa que a capacidade de processamento dos processadores usados em
    sistemas embarcados, seguindo arquitetura ARM, vem aumentando de forma significativa. Além disso, os custos de aquisição e o consumo de energia dos processadores ARM são menores, quando comparados a processadores de outras plataformas. Neste âmbito, cria-se a possibilidade de ter HPC usando plataformas
    menores e mais econômicas e com um custo de manutenção mais acessível.

    Nesse intuito, esta dissertação de mestrado, propõe a análise de desempenho de um cluster embarcado de baixo custo composto por processadores da arquitetura ARM e plataforma Raspberry Pi. O trabalho analisa o impacto de usar as bibliotecas MPICH-2 e OpenMPI, executando os programas dos benchmarks HPCC e HPL. O trabalho apresenta resultados de desempenho e consumo de energia do cluster com esses programas, mostrando que é possível usar clusters de plataformas embarcadas de baixo custo e tendo speedups e
    consumo de energia satisfatórios.

  • JOSIMAR DE SOUZA LIMA
  • Uma Arquitetura de Software para Implementação de um EHR utilizando SOA considerando a Interoperabilidade entre Sistemas Legados
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Aug 25, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • No mundo atual, sistemas de informação são cada vez mais necessários para que organizaçõescontinuem prestando seus serviços com qualidade. Estes sistemas têm se tornado cada vez maisheterogêneos e complexos. Funcionar de maneira integrada com outros sistemas passou a ser prérequisitona maioria dos casos. Desenvolver aplicações do zero nem sempre é possível devido aexistência de sistemas legados com dados armazenados que precisam ser mantidos. Essa situaçãose agrava quando se trata de sistemas de informação em saúde pois existem legislações específicasque exigem que os dados sejam mantidos por décadas. Um sistema de saúde bem conhecido éo sistema EHR. O EHR é o registro eletrônico do paciente composto por informações vindasde diversos sistemas. Estes sistemas muitas vezes são desenvolvidos por empresas diferentese utilizam tecnologias diferentes. Com isso em mente o paradigma SOA se torna bastante útil,visto que é uma solução capaz de integrar estruturas heterogêneas utilizando padrões específicoscomo por exemplo web services. No entanto projetar sistemas baseados em SOA não é umatarefa trivial. Uma arquitetura bem definida é crucial para o sucesso de aplicações que baseadasno paradigma SOA. Por essa razão, este trabalho teve como objetivo apresentar uma arquiteturade software para desenvolvimento de aplicações na área de saúde baseada em SOA considerandoa interoperabilidade entre sistemas legados, bem como reunir informações cientificas sobre comomodelar e desenvolver aplicações baseadas em SOA. Para tanto, um conjunto de métodos depesquisas foram aplicados. Inicialmente foi realizada uma revisão da literatura com o intuitode encontrar trabalhos relevantes que pudessem auxiliar no desenvolvimento de aplicações naárea de saúde. Esta revisão foi delimitada a estudos relacionados aos sistemas EHR. A revisãodestes estudos visou primeiramente construir uma base de conhecimento a respeito de problemas,dificuldade e desafios em relação a implementação de sistemas EHR. A análise da literaturamostrou existia uma deficiência justamente na definição de uma arquitetura de implementação.Assim foi definida uma arquitetura de implementação e está foi utilizada em um estudo decaso com o objetivo de testar a aplicabilidade da mesma. O objeto deste estudo foi o HospitalUniversitário da Universidade Federal de Sergipe. Foi desenvolvido um protótipo de sistema EHR.A arquitetura proposta neste trabalho foi de fundamental importância para o desenvolvimentodo protótipo de sistema EHR. A arquitetura proposta definiu um ambiente arquitetural quepermitiu os sistemas legados se comunicassem com o EHR de maneira satisfatória. Entre aslimitações do estudo de caso, destaca-se a impossibilidade de utilizar sistemas reais para arealização dos testes da arquitetura. Foram criadas aplicações que simularam os sistemas reais.No entanto estas simulações não interferiram no resultado do estudo. Enfim, por meio do estudorealizado constatou-se que o uso da arquitetura proposta contribuiu de maneira satisfatória parao desenvolvimento do protótipo de sistema EHR.

  • JISLANE SILVA SANTOS DE MENEZES
  • Processo de Avaliação de Software Aplicado à Seleção de Sistemas Gerenciadores de Conteúdo
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Aug 24, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Content Management System (CMS) são sistemas de informação utilizados para facilitar amanutenção do conteúdo sobre Internet usando uma interface central. Esta facilidade de usopermite que usuários sem conhecimento em programação e desenvolvimento de software façamuso deste tipo de sistema. Ao longo dos anos, os CMSs evoluíram para plataformas de desenvolvimentorobustas que proporcionaram um grande conjunto de recursos agregados. ExistemCMSs das mais variadas características, aplicações gratuitas ou pagas, construídas em linguagensde programação como Java,PHP,Python e dotNET, utilizando variados sistemas gerenciadoresde bancos de dados como Oracle, MySQL, SQL Server e Postgree. Considerando a importânciade se adquirir uma solução que satisfaça às expectativas do usuário em meio a tantos CMSsdisponíveis, a ISO/IEC 25040 fornece um processo de avaliação da qualidade do produto de softwarepara desenvolvedores, adquirentes e avaliadores independentes. Este processo de avaliaçãodeve ser baseado em critérios de verificação. Para este projeto, a formulação dos critérios serábaseada nos requisitos de qualidade segundo o modelo proposto pela ISO/IEC 25010 e no modelode aceitação de tecnologia (TAM). Este projeto de pesquisa objetiva identificar, selecionar,analisar e classificar ferramentas de Content Management System (Sistema de Gerenciamento deConteúdo) segundo critérios dedesenvolvimento, manutenção e hierarquização de web sites paraorganizações governamentais. A pesquisa é financiada pela Fapitec em parceria com a EMGETISe participa do Programa de Apoio e Desenvolvimento de Políticas Públicas para o Estado deSergipe contribuindo para o processo de seleção e aquisição de CMSs para as secretarias públicasdo estado.

  • FERNANDA GOMES SILVA
  • Integração de Modelos de Processos de Negócio com Modelos de Requisitos de Software: Um Caso na Área de Saúde
  • Advisor : MICHEL DOS SANTOS SOARES
  • Data: Aug 23, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Os primeiros passos no ciclo de vida de desenvolvimento de software são cruciais para um

    produto de software bem sucedido. Neste cenário, as atividades de modelagem desempenham

    um papel importante na especificação de requisitos e demais atividades em todo o projeto. Embora

    as atividades de modelagem de processos de negócio e as atividades relacionadas com a

    Engenharia de Requisitos são reconhecidas como importantes individualmente, algumas abordagens

    têm considerado a integração destas atividades. Neste contexto, este trabalho propõe

    uma abordagem e orientações correspondentes à integração da modelagem de requisitos de

    software com SysML e modelagens de processos de negócio e fluxos de trabalho com o apoio

    da BPMN. Essa relação é representada tanto com modelos gráficos como em formato tabular.

    Portanto, os desenvolvedores de software podem rastrear os processos de negócio e requisitos de

    software já durante as atividades iniciais do processo de desenvolvimento de software. A abordagem

    proposta foi apresentada a um grupo de analistas de sistemas, professores universitários

    e estudantes de mestrado, e respondendo a um questionário baseado na teoria TAM afirmaram

    que a integração BPMN e SysML irá contribuir positivamente nas atividades de documentação,

    validação e rastreamento de requisitos. Apesar da demonstração de interesse em aprender mais

    sobre as duas linguagens, declararam a dificuldade em realizar a integração e o custo em utilizar

    esta proposta em projetos reais. Neste trabalho foi ainda apresentado um relato da experiência

    no HU/UFS e um guia para integração de BPMN e SysML, para auxiliar o desenvolvimento de

    um Prontuário Eletrônico do Paciente em um hospital público

  • RAFAEL SANT ANA JACAUNA
  • Avaliação da Experiência do Usuário com base na Arbitragem de parâmetros de QoS em fluxo Multimídia em Cenários com Roteadores Cisco e Placa NetFPGA
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Aug 19, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Um streaming de víıdeo tem características que o difere dos demais fluxos: a ocupaão de grande quantidade de banda, e a possíveis variações de cenas com consequente aumento (ou diminuição) na quantidade dos bytes transmitidos. Aplicaçções para transmissão de streaming de vídeo (YouTube, Vimeo, NetFlix, Telecine Play, e etc.) tem despertado o interesse dacomunidade científica quanto ao comportamento das redes. Nossa proposta é correlacionar, a partir de um fluxo de vídeo, a experiência do usuário com base na arbitragem de parâmetrosde QoS em ambiente controlado. O resultado dos experimentos demonstrou a eficácia do protocolo TCP sobre o UDP, que na fase da escolha do protocolo mais adequado para ostestes, mostrou-se ineficiente até a taxa Gigabit Ethernet. Esses experimentos ocorreram em topologias físicas distintas; apenas com roteadores Cisco, com e sem QoS, tendo ou não injeão de tráfego gerado pelo software iPerf na rede, e usando a placa NetFPGA no modo router, apenas com e sem tráfego via iPerf, uma vez que o projeto desenvolvido para fazer a placa atuar como roteador não permite configurações de QoS. Nesses cenários, constatou-se a necessidade de iniciar a execuão dos clientes em momentos diferentes, configurandoseus respectivos caches de redes diferentes, para que não coincidissem as cenas, evitandoaltos picos de banda em trechos com muita movimentação.

  • IZABELLA CRISTINE OLIVEIRA REZENDE
  • R2MDD: UM FRAMEWORK PARA RASTREABILIDADE E MONITORAMENTO DE REQUISITOS COM FOCO NO DESENVOLVIMENTO DIRIGIDO A MODELOS
  • Advisor : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: Aug 18, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O Model Driven Development (MDD) promove o uso de modelos na geração de soluções de software, no qual os modelos são o artefato principal do desenvolvimento. Nos últimos anos, estudos na área de Engenharia de Software (ES) tem sido intensificados e diversas soluções, definições, métodos e estruturas estão sendo geradas. Entretanto, esse novo paradigma, como é considerado por alguns autores, ainda não é utilizado de forma efetiva, visto que a ES abrange diversos aspectos, e, nem todos estão preparados para o MDD. A Engenharia de Requisitos (ER) ganha destaque nesse cenário, já que ela compreende a fase inicial do processo de desenvolvimento e o produto gerado deve atender aos requisitos definidos nesse momento. Uma vez que o código perde o foco em MDD, surge a necessidade de identificar se os requisitos definidos no início do projeto, ao serem transformados, mantém-se fieis, bem como os elementos alocados a cada requisito em todas as fases e possíveis impactos em caso de alteração. Nesse contexto, torna-se importante introduzir os conceitos da rastreabilidade de requisitos em MDD. Dessa forma, este trabalho apresenta o R2MDD, um framework que visa monitorar e rastrear requisitos durante as transformações de modelos até a geração de código fonte. O R2MDD busca identificar impactos, garantir a consistência dos requisitos e demais características, bem como gerar informações a nível gerencial, que beneficiam todos os stakeholders. Um estudo experimental foi realizado com o auxílio do modelo Qualitas no Hospital Universitário da Universidade Federal de Sergipe (HU – UFS) a fim de avaliar o R2MDD, destacar as vantagens e identificar limitações.

  • ANTONIO ALIBERTE DE ANDRADE MACHADO
  • INFERÊNCIA DE PERSONALIDADE A PARTIR DE TEXTOS DE REDE SOCIAL UTILIZANDO UM LÉXICO AFETIVO EM PORTUGUÊS BRASILEIRO.
  • Advisor : MARIA AUGUSTA SILVEIRA NETTO NUNES
  • Data: Aug 16, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A dissertação apresenta estudos sobre a correlação de informações léxicas em textos em Português com características psicológicas do modelo Big Five e as facetas do IPIP-NEO. Discorre-se, especialmente, sobre o uso das classes de sentimentos do dicionário LIWC. O objetivo final foi à adaptação de um léxico que incorpore não apenas o sentimento e/ou a polaridade das palavras, mas também suas possíveis características de personalidade. O experimento realizado mostra que o método proposto é capaz de inferir personalidade desde que o participante envolvido não oculte nenhuma informação, respondendo os questionários com razão e declarando em seus posts a sua real posição sobre quaisquer assuntos.

  • FELIPE VALADÃO GOULART
  • Mapeando traços da personalidade através do ritmo de digitação
  • Advisor : DANIEL OLIVEIRA DANTAS
  • Data: Aug 15, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A personalidade pode ser definida como um conjunto de características psicológicas
    capazes de determinar o padrão de pensar, agir e sentir de um indivíduo, não estando apenas
    ligada a traços superficiais, mas como um fator capaz de influenciar os interesses de um
    indivíduo. Desde a concepção da primeira descrição de software, sistemas computacionais são
    criados com o objetivo de gerar resultados baseados nos dados de entrada dos usuários, sem se
    preocupar com quem ele é ou quais são seus interesses. Através do desenvolvimento de um
    método não intrusivo para coleta de dados do ritmo de digitação dos usuários, e a aplicação de
    um questionário de autoavaliação de personalidade, este trabalho tem como objetivo identificar
    abordagens capazes de comprovar a existência da correlação entre tais informações, visando a
    construção de um conhecimento base para a criação de um framework de extração de
    personalidade baseado em ritmo de digitação.

  • DIEGO ARMANDO DE OLIVEIRA MENESES
  • ARCHEALTH: ENTERPRISE ARCHITECTURE FRAMEWORK PARA SISTEMAS TELEHEALTH BASEADOS EM TV DIGITAL INTERATIVA
  • Advisor : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: Aug 10, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Desde a década de 70 até o presente momento a Organização Mundial da Saúde (OMS) expõe a importância da promoção a saúde no mundo. O aumento do interesse na Promoção da Saúde e os custos de saúde crescente para as economias, contribuíram para o reconhecimento dos cuidados a saúde como uma importante área de pesquisa. Uma das vertentes mais importantes dessas pesquisas atualmente e a Telehealth, que utiliza das Tecnologias de Informação e Comunicação (TIC) para tentar prover acesso universal a saúde. O uso da tecnologia de TV Digital Interativa auxilia no acesso a locais remotos e cria a oportunidade de distribuir aplicações através de sua infraestrutura. Lidar com os problemas que surgem a partir da convergência desses conceitos é de grande importância. O processo de descrição de arquitetura auxilia no desenvolvimento de aplicações e sistemas baseados nos conceitos referenciados. Porém, não existem muitos frameworks que auxiliem a descrição de arquiteturas para esse domínio especifico. Este trabalho apresenta o framework ARCHealth, que foi desenvolvido para auxiliar o processo de arquitetura e foi baseado na norma ISO/IEC/IEEE 42010:2011. O framework foi elaborado com base nos princípios de Atenção Primária à Saúde, levando em consideração as principais preocupações do ambiente.

  • RAFAEL MENÊSES SANTOS
  • Reconhecimento de fala em ambientes ruidosos usando Redes Neurais Convolucionais
  • Advisor : LEONARDO NOGUEIRA MATOS
  • Data: May 30, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Um dos maiores desafios no reconhecimento de fala atualmente é usá-lo no contexto diário, no qual distorções no sinal da fala e ruídos no ambiente estão presentes e reduzem a qualidade da classificação. Nos últimos trinta anos, centenas de métodos para reconhecimento robusto ao ruído foram propostos, cada um com suas vantagens e desvantagens. Este trabalho propõe o uso de uma rede neural convolucional no papel de modelo acústico em sistemas de reconhecimento automático de fala, como uma alternativa ao métodos clássicos de reconhecimento baseado em HMM sem a aplicação de um método robusto ao ruído. Os experimentos realizados mostraram que o método proposto reduz o Equal Error Rate e aumenta a acurácia da classificação de comando de voz em ambientes ruidosos quando comparado a modelos tradicionais de classificação, evidenciando a robustez da abordagem apresentada.

  • FERNANDO MENDONÇA DE ALMEIDA
  • Autoproteção para a Internet das Coisas
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: May 23, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A Internet das Coisas é um novo paradigma de comunicação baseado na presença ubíquade objetos que, através de endereçamento único, cooperam com seus pares para atingir umobjetivo em comum. Aplicações em diversas áreas podem se beneficiar dos conceitos daInternet das Coisas, porém esta rede é muito vulnerável a ataques, seja pela possibilidadede ataque físico, pela alta conectividade dos dispositivos, a enorme quantidade de dispositivosconectados ou a baixa quantidade de recursos disponíveis. A grande quantidadede dispositivos conectados faz com que abordagens autonômicas sejam necessárias e areduzida quantidade de recursos exige a utilização de técnicas eficientes. Este trabalhopropõe uma arquitetura de autoproteção para a Internet das Coisas utilizando as técnicasde Rede Neural Artificial e Algoritmo de Células Dendríticas, duas técnicas bio-inspiradasque, através de experimentos, mostraram a possibilidade de serem utilizadas na Internetdas Coisas. A implementação da Rede Neural Artificial utilizada consumiu poucos recursosde memória do dispositivo, mantendo uma alta taxa de acerto, comparável a trabalhoscorrelatos que não se preocuparam com o consumo de recursos. A utilização do Algoritmode Células Dendríticas se mostrou interessante pela sua distributividade, permitindo umamelhor utilização dos recursos da rede, como um todo.

  • MARIA GÉSSICA DOS SANTOS LIMA ARAGÃO
  • Alinhamento do Modelo de Forma Ativa com Maquinas de Vetores de Suporte Aplicado na Detecção de Veículos
  • Advisor : LEONARDO NOGUEIRA MATOS
  • Data: May 13, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Muitas aplicações de processamento de imagens digitais utilizam técnicas de detecção de objetos. Detectar um objeto normalmente está relacionado a localizar a área em torno do mesmo, já a detecção da forma está relacionada a localizar precisamente em uma imagem um conjunto de pontos que constituem sua forma. Quando o problema envolve a detecção de formas que apresentam variações previsíveis, os modelos deformáveis se apresentam como uma alternativa eficaz. A abordagem desenvolvida neste trabalho se refere à detecção da forma de veículos em posição frontal através de métodos que se dividem em dois níveis, no primeiro nível foi feito o uso de uma cascata de máquinas de vetores de suporte e no segundo, de modelos deformáveis. O uso dos modelos deformáveis permitiu que veículos oclusos por objetos como árvores fossem identificados.

  • CLEBESON CANUTO DOS SANTOS
  • PROPOSTA DE UMA METODOLOGIA PARA OBTENÇÃO DE VOCABULÁRIOS DE GESTOS INTUITIVOS PARA A INTERAÇÃO HOMEM-ROBÔ
  • Advisor : EDUARDO OLIVEIRA FREIRE
  • Data: Feb 29, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O desenvolvimento da robótica vem ganhando aceleração desde as últimas décadas, moti- vado principalmente pelo avanço da tecnologia, sobretudo dos computadores. No entanto, mesmo tendo tecnologia suficiente para criar robôs que possam participar do cotidiano das pessoas, a robótica ainda não se popularizou, haja vista que a maioria dos robôs adquiridos pelas pessoas ainda se enquadram na categoria de brinquedos, sistemas de monitoramento, dentre outros. A busca por esses tipos de robôs se deve ao fato de que seu repertório de tarefas é bem reduzido e predeterminado, o que acaba facilitando a interação entre usuários e robôs. Enquanto isso, robôs mais sofisticados, por possuírem um maior repertório de tarefas, acabam necessitando de mecanismos de interação mais complexos que, em sua maioria, só podem ser utilizados por pessoas especializadas.

    Em outras áreas, como a informática, a interface de comunicação foi de fundamental importância para a sua popularização. Dessa maneira, a criação de interfaces amigáveis de comunicação entre pessoas e robôs pode ser a chave para que a robótica também possa ser amplamente difundida na sociedade atual. No entanto, não é qualquer interface que pode oferecer uma comunicação fácil e eficiente, para isso as mesmas devem ser o mais intuitivas possível, o que, segundo os estudos psicolinguísticos, pode ser alcançada por meio de gestos espontâneos. Logo, sabendo da dificuldade de se encontrar uma metodologia que ofereça a possibilidade de se obter vocabulários de gestos intuitivos, esta dissertação de mestrado propõe uma metodologia que, baseada na psicolinguística e nos estudos sobre HCI (do inglês - Human Computer Interaction), ofereçe facilidade no processo de obtenção de vocabulários de gestos intuitivos a serem utilizados na interação entre pessoas e robôs. Desta maneira, após a aplicação de tal metodologia, pôde-se perceber que a mesma, apesar de ser nova, além de poder levar a resultados tão bons quanto uma outra metodologia já utilizada e aceita em HCI, ainda possui diferenciais, como a possibilidade de obter vocabulários mais complexos, que podem levar a vocabulários de gestos mais intuitivos e possivelmente mais robustos. Além disso, ao submeter os gestos obtidos a um reconhecedor, obteve-se uma taxa de acertos de 83,78%, que mesmo não sendo alta, pode ser considerada boa, pois, uma vez que alguns gestos obtidos são realizados com os dois braços, a complexidade do reconhecimento é aumentada de maneria considerável. Logo, ao final desta dissertação, são apresentados vários trabalhos complementares a este, que devem ser realizados para que se possa avançar ainda mais na direção do desenvolvimento das interfaces intuitivas para a interação homem-robô.

  • WAGNER LUÍS DE ARAUJO MENEZES MACÊDO
  • GoThings: Uma Arquitetura de Gateway de Camada de Aplicação para a Internet das Coisas
  • Advisor : TARCISIO DA ROCHA
  • Data: Feb 29, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Com a Internet das Coisas (IoT), é previsto que o número de dispositivos conectados atingirá o número de 50 bilhões até 2020. Muitos desses dispositivos adotam, na camada de aplicação, protocolos de mensagem mutualmente incompatíveis entre si. Uma possível solução a esse problema é usar um mesmo protocolo de mensagem em todos os dispositivos. No entanto, um único protocolo nem sempre é adequado para dispositivos restritos e não restritos ao mesmo tempo. Diversas soluções à questão da interoperabilidade na IoT foram propostas, mas elas ou não provêem interoperabilidade transparente ou não são extensíveis e configuráveis o suficiente. Esta dissertação apresenta uma proposta de uma arquitetura para o desenvolvimento de gateways, a qual denominamos de GoThings, que permite habilitar a interconectividade entre diferentes
    protocolos de mensagem. A arquitetura proposta é focada na extensibilidade, configurabilidade e generalidade, no contexto de problemas da IoT.

  • MICHAEL OLIVEIRA DA CRUZ
  • Sobre a similaridade de usuários para recomendação de caronas em sistemas computacionais
  • Advisor : HENDRIK TEIXEIRA MACEDO
  • Data: Feb 26, 2016
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A falta de mobilidade urbana é uma grande preocupação da gestão pública em todo o mundo. Algumas políticas têm sido adotadas a fim de minimizar seus efeitos nas grandes cidades. Construção de rotas alternativas, melhorias e incentivo ao uso de transportes públicos, construção de ciclovias e estímulo ao uso de bicicletas são algumas dessas políticas. Uma prática que pode contribuir para a solução do problema é a carona. Carona consiste no ato de transportar gratuitamente num veículo pessoas que possuem trajetórias semelhantes. Embora existam algumas aplicações que se propõem a facilitar a prática de caronas, nenhuma dessas aplicações possuem funcionalidades de busca por usuários que possuem similaridades de trajetória e de perfil demográfico e social para posterior recomendação de caronas mais apropriadas. Neste trabalho, propomos uma abordagem inovadora, considerando peculiaridades do contexto do uso de caronas, que visa a descoberta de agrupamentos de usuários que possuem trajetórias semelhantes, usuários que possuem perfis semelhantes e agrupamentos de usuários que são similares considerando suas trajetórias e seus perfis. Elementos intrínsecos ao problema são formalmente definidos e uma primeira análise de complexidade para tempo de processamento foi realizada. Uma rede social de propósito específico para o compartilhamento de caronas foi modelada e implementada com respeito à abordagem proposta. O método para experimentação e avaliação da abordagem consistiu (i) na confecção de base de dados alimentada periodicamente em tempo real por dados de trânsito obtidos a partir de aparelhos de smartphone com GPS de voluntários em trânsito com seus automóveis, (ii) aplicação da abordagem proposta para geração dos agrupamentos de usuários a partir da base estabelecida e (iIi) aplicação da métrica Davies-Boulding Index, que indica o quão factível os agrupamentos são. Resultados mostraram a efetividade da abordagem para solução do problema se comparada a formas bem estabelecidas da literatura relacionada, como o K-means, por exemplo. Resultados da análise da base de dados também mostraram que algumas informações de trânsito podem ser inferidas a partir de ações de mineração. Por fim, a aceitabilidade de potenciais usuários da rede social foi medida a partir de questionário.

2015
Description
  • LIDIANY CERQUEIRA SANTOS
  • Um Estudo de Caso da Adoção da Programação Orientada a Aspectos para Melhoria do Processo de Manutenção e Evolução de Sistemas Integrados de Gestão
  • Advisor : ALBERTO COSTA NETO
  • Data: Aug 31, 2015
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A necessidade de atender a diferentes clientes e incluir diferentes requisitos aumentam a complexidade da manutenção e evolução de sistemas, envolvendo tarefas de customização e adaptação para corrigir problemas e incluir novas funcionalidades. Atualmente a equipe de desenvolvimento da Universidade Federal de Sergipe vem trabalhando com a customização e manutenção de Sistemas Integrados de Gestão que informatizam operações fundamentais para a gestão acadêmica e administrativa. Para atender aos requisitos da universidade, são necessárias modificações constantes no código fonte original do sistema, isso demandou a criação de um processo adotado atualmente para gerenciar essa atividade. No entanto, a abordagem atual adotada pela UFS não vem se mostrando adequada, pois as adaptações introduzidas pela equipe de desenvolvimento estão espalhadas e entrelaçadas com o código original, dificultando as tarefas de identificar e reaplicar as customizações em novas versões, causando atrasos na implantação de novos recursos e na manutenção dos que estão em produção. Nesta pesquisa é apresentado um estudo de caso que avalia a adoção da Programação Orientada a Aspectos na adaptação, manutenção e evolução de sistemas customizados em comparação ao processo adotado atualmente na UFS. Como resultado, observou-se que foi possível implementar 99,68% dos tipos de variações utilizando a POA e obteve-se um ganho qualitativo em relação em abordagem atual, em termos de tamanho de métodos, acoplamento, coesão e complexidade. A análise indica que houve um pequeno número de erros detectados após a reintrodução das variações com a POA.Contudo, esses erros precisam ser avaliados cuidadosamente devido a ocorrência de conflitos de versão. Os resultados obtidos com avaliação do estudo indicam que há benefícios com a adoção da POA no contexto avaliado.

  • NAYARA ROSY FELIX DA SILVA
  • Geração multi-parametrizada de corpora linguísticos
  • Advisor : HENDRIK TEIXEIRA MACEDO
  • Data: Aug 31, 2015
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O desenvolvimento de software de Processamento de Linguagem Natural (PLN) é altamente dependente da boa qualidade do que chamamos de Corpus Linguístico. Um corpus é uma coleção de textos processáveis pelo computador, mas produzidos dentro de um ambiente comunicativo natural. Essa dependência advém do fato de que a maior parte do trabalho realizado com PLN hoje em dia está relacionado ao uso de técnicas de Aprendizado de Máquina para criação de modelos de linguagem. Para sistemas que permitem correção automática e previsão de palavras e sentenças, por exemplo, modelos linguísticos são gerados a partir de um corpus de texto a partir de transcrições usando N-Gram. Infelizmente, corpora linguísticos em português do Brasil não são abundantes e sua confecção não é uma tarefa trivial. Um caminho é a confecção de Crawlers Web. Focused Crawlers, em particular, têm o propósito de coletar páginas da Web que sejam relevantes a um tópico ou interesse específico do usuário. Focused Crawlers existentes ainda não atendem completamente a necessidades específicas e toda potencialidade de um sistema de PLN. Esta dissertação de mestrado se propõe a contribuir com o Estado da Arte ao propor uma ferramenta para a confecção automática de corpora bem representativos ao objetivo do usuário que possam ser balanceados em respeito a fatores tais como tipo de coleta, domínio, língua, formalidade do discurso e rotulação do texto. A ferramenta permite ainda que etapas de pós-processamento sejam realizadas, como por exemplo limpeza do corpus, construção de um modelo de linguagem e de um modelo de entidades nomeadas. Dois corpora foram criados em duas formas de coleta distintas: por dados da Web (corpus VazaBarris) ou por dados do Twitter (corpus Poxim). O corpus VazaBarris consiste de 86 milhões de palavras e o Poxim consiste de 3 milhões de palavras. Estes corpora foram avaliados por meio da criação de modelo de linguagem e comparação com dois outros corpora em Português. Os resultados mostram que Poxim alcançou o melhor valor de perplexidade. Poxim também traz maior contribuição quando interpolado com algum outro corpus. Além dos corpora, foi criado um método de coleta automática para streaming de dados, utilizando o algoritmo de Relevance Feedback. Segundo os resultados, utilizar Relevance Feedback para a coleta dos dados melhorou o valor de perplexidade com o corpus coletado inicialmente. Um terceiro corpus foi criado para rotulação de Entidades Nomeadas, o Paramopama. O Paramopama é uma versão estendida PtBR do corpus WikiNer, com inclusão das entidades Pessoa, Localização, Organização e Tempo. Os resultados mostram que o Paramopama apresentou melhoria para as métricas de Precisão, Cobertura e Medida-F na comparação com outros três corpora do Estado da Arte.

  • JULI KELLE GÓIS COSTA
  • UMA ABORDAGEM PARA AUTOMATIZAR A MANUTENÇÃO DO CÓDIGO DE PROCEDIMENTOS DE CARGA PARA AMBIENTES DE BUSINESS INTELLIGENCE
  • Advisor : METHANIAS COLACO RODRIGUES JUNIOR
  • Data: Aug 27, 2015
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Grande parte das aplicações de Business Intelligence (BI) efetivas depende de um Data Warehouse (DW), um repositório histórico de dados projetado para dar suporte a processos de tomada de decisão. Sem um DW eficiente, as organizações tendem a não extrair, em um tempo aceitável, os dados que viabilizam ações estratégicas, táticas e operacionais mais eficazes. Muitos ambientes de BI possuem um processo de Engenharia de Software particular, baseado em dados, para desenvolver programas de Extração, Transformação e Carga (ETL) de dados para o DW. Este trabalho propõe o desenvolvimento e experimentação de uma abordagem de Desenvolvimento Rápido de Aplicações (RAD) para aumentar a eficácia e a eficiência da manutenção de procedimentos de carga SQL,utilizados em processos ETL, avaliando a relação existente entre a sua utilização e a qualidade dos dados que são movidos, gerados e atualizados durante o processo de povoamento de um Data Warehouse. Este é um ambiente ímpar que necessita de maior integração e interdisciplinaridade entre as áreas de Engenharia de Software (ES) e Banco de Dados. Foi feita uma avaliação da criação e manutenção automática de procedimentos em extensões da SQL, perfazendo dois experimentos controlados feitos na indústria, para analisar a efetividade de uma ferramenta que encapsula e automatiza parte da abordagem. Os resultados indicaram que a nossa abordagem pode ser usada como método para acelerar e melhorar o desenvolvimento e manutenção de processos ETL.


  • ELISALVO ALVES RIBEIRO
  • Imputação de Dados Faltantes via Algoritmo EM e Rede Neural MLP com o método de Estimativa de Máxima Verossimilhança para aumentar a acurácia das estimativas
  • Advisor : CARLOS ALBERTO ESTOMBELO MONTESCO
  • Data: Aug 14, 2015
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Base de dados com valores faltantes é uma situação frequentemente encontrada no mundo
    real, sendo as causas deste problema originadas por motivos diversos (falha no equipamento
    que transmite e armazena os dados, falha do manipulador, falha de quem fornece a informação,
    etc.). Tal situação pode tornar os dados inconsistentes e inaptos de serem analisados,
    conduzindo à conclusões muito viesadas. A maioria das ferramentas utilizadas nos softwares
    estatísticos é simples, não conseguindo resolver da forma mais adequada tal problema. Esta
    dissertação tem como objetivo explorar o emprego de Redes Neurais Artificiais MLP, com
    novas funções de ativação, considerando duas abordagens (imputação única e imputação
    múltipla). Primeiramente, é proposto o uso do Método de Estimativa de Máxima
    Verossimilhança na função de ativação de cada neurônio da rede, em contrapartida à abordagem
    utilizada atualmente, que é sem o uso de tal método, ou quando o utiliza é apenas na função de
    custo (na saída da rede). Em seguida, são analisados os resultados destas abordagens em
    comparação com o algoritmo EM que é o estado da arte para tratar dados faltantes. Os resultados
    obtidos indicam que ao utilizar a Rede Neural Artificial MLP com o Método de Estimativa de
    Máxima Verossimilhança, tanto em todos os neurônios como apenas na função de saída, pode
    auxilia a reduzir o erro de imputação. Estes resultados foram mensurados via algumas métricas,
    sendo as principais o MAE (Mean Absolute Error) e RMSE (Root Mean Square Error), as quais
    apresentaram melhores resultados na maioria dos experimentos quando se utiliza a RNA MLP
    abordada neste trabalho para fazer imputação única e múltipla.

  • ROBERT PAULO BARBOSA E SILVA
  • Metodologia de Caracterização e Modelagem de Tráfego para Transmissão de Imagens Médicas
  • Advisor : EDILAYNE MENESES SALGUEIRO
  • Data: May 28, 2015
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Caracterização e modelagem de tráfego em transmissões de imagens médicas é uma atividade importante para a gestão de redes corporativas. Com a popularização do uso de equipamentos de diagnóstico radiológico, uma grande quantidade de informações sobre o paciente passou a estar disponível. Essas novas formas digitais de imagens de alta definição e vídeo vêm sendo integradas às redes de computadores ao longo dos anos, com uso de protocolo DICOM. Recentemente, a Computação nas Nuvens passou a ser usado para transmissões de imagens médicas, gerando assim, novos desafios para operações de monitoramento e gerenciamento de redes. Modelos de tráfego de aplicações de imagens médicas são escassos na literatura. Este trabalho apresenta uma metodologia para a modelagem de tráfego DICOM. Foram realizadas medições de tráfego na rede e diretamente nos equipamentos radiológicos de um hospital de pequeno porte. A análise do tráfego da rede foi efetuada para caracterizar o comportamento deste tráfego, identificando assim, a sua forma e composição na rede. Medições nos equipamentos radiológicos foram executadas ao longo de um ano. A caracterização da fonte de tráfego foi realizada com uso de técnicas estatísticas de ajuste de curvas, para modelar a distribuição de tamanho dos arquivos de imagens. Análises de testes de aderência apontaram a distribuição de Dagum como a de melhor aproximação nestes resultados. Deste modo, o modelo de fonte de tráfego sugerido por esse trabalho pode ser utilizado em experimentos de simulação em projetos de expansão da rede.

  • SÁVIO ROBERTO AMORIM ARAGÃO SILVA
  • Um Algoritmo de Decisão de Handover baseado em QoS e Autonomia Energética
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: May 27, 2015
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Uma etapa fundamental no processo de handover corresponde à fase de decisão, na qual é selecionada a rede candidata para a qual o dispositivo móvel irá se transferir. O critério normalmente utilizado na etapa de decisão é a potência de sinal da rede que se encontra disponível. Além da potência de sinal, outros critérios também necessitam ser explorados em ambientes heterogêneos para a tomada de decisão de handover, uma vez que as tecnologias de rede divergem quanto aos tipos de serviços, protocolos, níveis de qualidade, faixas de frequência e custos monetários. Este trabalho propõe um algoritmo de decisão de handover baseado em função de custo que leva em consideração, além da potência de sinal recebida, alguns critérios de Qualidade de Serviço, tais como taxa de perda de pacotes, atraso e jitter, bem como o consumo de energia da interface de rede da estação móvel. A fim de avaliar o desempenho do algoritmo foram considerados dois cenários, um no qual a bateria do terminal móvel está com carga suficiente e outro onde a mesma se encontra com a carga baixa, sendo realizadas simulações no NS-2 em um ambiente composto pelas redes Wi-Fi e WiMAX. Os resultados obtidos mostraram que o algoritmo proposto contribuiu para reduzir o número dedecisões erradas de handovers, de modo que não houvesse uma degradação da Qualidadede Serviço que viesse a afetar o desempenho da rede na qual o terminal móvel se encontra conectado.

  • HALLAN COSMO DOS SANTOS
  • Classificação de sinais EGG combinando Análise em Componentes Independentes, Redes Neurais e Modelo Oculto de Markov
  • Advisor : CARLOS ALBERTO ESTOMBELO MONTESCO
  • Data: May 26, 2015
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Identificar características digestivas de pessoas através da Eletrogastrografia (EGG) é importante pois esta costuma ser uma opção barata, não-invasiva e incomoda menos que o tradicional procedimento de Endoscopia. Este trabalho avalia o comportamento do aprendizado das Redes Neurais Artificiais (RNA) e do Modelo Oculto de Markov (HMM) diante de componentes extraídas por algoritmos de Análise de Componentes Independentes (ICA). Nesta pesquisa é realizado um experimento com análise estatística cujo objetivo apresenta a relação entre a visualização de imagens neutras, negativas ou positivas e as reações digestivas.
    Treinando alguns classificadores com uma base de dados de sinais EGG, onde se conhece os estados emocionais dos indivíduos durante a sua obtenção, seria possível realizar o caminho inverso? Em outras palavras, apenas a partir dos sinais EGG, pode-se estimar o estado emocional de indivíduos? O desafio inicial é tratar o sinal EGG que encontra-se misturado aos sinais de outros órgãos como coração e pulmão. Para isto foi utilizado o algoritmo FastICA e os métodos tensoriais, com o intuito de produzir um conjunto de componentes independentes onde se possa identificar a componente do estômago. Em seguida, a classifição do sinal EGG é realizada por meio dos modelos de RNA e HMM. Os resultados mostraram que classificar apenas as componentes com mais presença da frequência do sinal do estômago pode reduzir a taxa de erro do aprendizado dos classificadores no experimento realizado.

    Identificar características digestivas de pessoas através da Eletrogastrografia (EGG) é importante pois esta costuma ser uma opção barata, não-invasiva e incomoda menos que o tradicional procedimento de Endoscopia. Este trabalho avalia o comportamento do aprendizado das Redes Neurais Artificiais (RNA) e do Modelo Oculto de Markov (HMM) diante de componentes extraídas por algoritmos de Análise de Componentes Independentes (ICA). Nesta pesquisa é realizado um experimento com análise estatística cujo objetivo apresenta a relação entre a visualização de imagens neutras, negativas ou positivas e as reações digestivas.

    Treinando alguns classificadores com uma base de dados de sinais EGG, onde se conhece os estados emocionais dos indivíduos durante a sua obtenção, seria possível realizar o caminho inverso? Em outras palavras, apenas a partir dos sinais EGG, pode-se estimar o estado emocional de indivíduos? O desafio inicial é tratar o sinal EGG que encontra-se misturado aos sinais de outros órgãos como coração e pulmão. Para isto foi utilizado o algoritmo FastICA e os métodos tensoriais, com o intuito de produzir um conjunto de componentes independentes onde se possa identificar a componente do estômago. Em seguida, a classifição do sinal EGG é realizada por meio dos modelos de RNA e HMM. Os resultados mostraram que classificar apenas as componentes com mais presença da frequência do sinal do estômago pode reduzir a taxa de erro do aprendizado dos classificadores no experimento realizado.
  • OTÁVIO CORDEIRO SIQUEIRA DE OLIVEIRA
  • MEPARALEL: um método para análise de implementação de algoritmo baseado em CUDA
  • Advisor : MARCO TULIO CHELLA
  • Data: May 25, 2015
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Algoritmos para Aprendizado de Máquina (ML) são muitas vezes dispendiosas, uma vez que a aprendizagem é uma tarefa que exige uma grande quantidade de conhecimentos e aprimoramento constante da mesma, exigindo, portanto, enorme processamento de dado, e isso muitas vezes gera uma limitação no tempo de processamento e no consumo de memória. O algoritmo selecionado por este trabalho para aprendizado de máquina é de Maximização de Expectativa (EM), usado para o treinamento de um dos modelos estatísticos parametrizados mais utilizados, o Modelo de Mistura Gaussianas (GMM) que exige um alto poder de processamento. Uma técnica que veem sendo aplicada para solucionar problemas de performance em algoritmos é a paralelização. Algoritmos paralelos, em comparação com os sequenciais, tendem a executar suas tarefas mais rapidamente devido a sua capacidade de distribuir sua carga de trabalho pelos múltiplos núcleos de processadores disponíveis, e assim diminuir o tempo de processamento. Porém a tarefa de paralelizar de forma a vim otimizar a utilização de recursos e reduzir o tempo de processamento não é uma tarefa fácil. Desta forma, este trabalho propõe um método para análise de algoritmos paralelos que possa vim auxiliar o processo de análise e refatoração de códigos construído com a linguagem de programação Cuda e podendo assim, gerar algoritmos mais rápidos e eficientes no consumo de recursos de hardware.


  • DIEGO SANTANA SILVEIRA
  • UEF-WEB: FRAMEWORK DE APOIO À ENGENHARIA DE USABILIDADE PARA APLICAÇÕES WEB
  • Advisor : HENRIQUE NOU SCHNEIDER
  • Data: Mar 13, 2015
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Nos últimos anos, a demanda por aplicações Web vem crescendo rapidamente para atender às necessidades das pessoas e empresas. Essas aplicações têm proporcionado benefícios que vão desde melhorias no processo de comunicação e maior velocidade ao realizar tarefas até a redução de custos. No entanto, inúmeros problemas relacionados à usabilidade de interfaces, a exemplo da alta complexidade e baixa eficácia de uso têm dificultado e, em muitos casos, inviabilizado a utilização de aplicações Web. Esse fato é preocupante, pois a usabilidade é apontada pelos usuários como o atributo de qualidade de software mais importante e por constatar que muitas organizações ainda não empregam os recursos de suporte à usabilidade sob vários motivos, tais como: desconhecimento de técnicas, métodos e ferramentas; restrição de orçamento; e dificuldade de seleção e uso sistemático desses recursos. Desenvolver interfaces com maior qualidade de uso é um desafio que tem se tornado crítico para o sucesso das aplicações Web junto às empresas e aos usuários. Pesquisas foram realizadas, mas há lacunas quanto ao fornecimento de soluções integradas de suporte à usabilidade nas diversas fases de um projeto de aplicação Web. Diante dessa necessidade, este trabalho propõe o Framework UEF-WEB de apoio à Engenharia de Usabilidade. Este framework, composto por fases, atividades, recursos e artefatos, tem por objetivo principal auxiliar as organizações a introduzir, de maneira sistematizada, recursos de usabilidade no processo de planejamento, desenvolvimento e avaliação de interfaces de aplicações Web, com vistas à ampliação da qualidade de uso das interfaces construídas.

  • ERIC BERNARDES CHAGAS BARROS
  • JEMADARIUS: UMA WEB-API AUTOCONFIGURÁVEL PARA A INTERNET DAS COISAS
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Feb 24, 2015
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • De acordo com a National Intelligence Council, a Internet of Things (IoT), chamada de Internet das Coisas no Brasil, é o paradigma que até 2025 estará dominando o mundo da computação. A grande divulgação da Internet, que em menos de 20 anos conseguiu conectar quase todas as pessoas do mundo, gerou espaço para novas demandas. Agora não só pessoas e serviços precisam trocar informações, mas objetos também. Desta forma, estudos devem ser realizados de maneira a garantir a busca pela evolução desse paradigma. O objetivo deste trabalho é unir diferentes tecnologias, como REST, computação nas nuvens e sistemas operacionais embarcados, a fim de obter um mecanismo capaz de realizar a autoconfiguração de dispositivos embarcados e Web-APIs para automaticamente realizarem a sincronização e troca de mensagens de ambientes inteligentes. Além disso, essa autoconfiguração deve ser feita em cima de dispositivos que possuem poucos recursos de hardware, pois a eficiência energética também é um ponto fundamental dentro de redes IoT. Dessa forma esta pesquisa oferece o desenvolvimento de uma WEB-API, denominada Jemadarius, para alcançar o próximo passo da evolução desse novo conceito, a autoconfiguração.

  • FRANKLIN MAGALHÃES RIBEIRO JUNIOR
  • Abordagem Dirigida a Modelos para Implantação Automática de Software em Nuvem
  • Advisor : TARCISIO DA ROCHA
  • Data: Jan 5, 2015
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A computação em nuvem oferece recursos para reduzir os custos computacionais nas instituições que utilizam recursos de hardware e software através da virtualização, além da entrega de software como serviço. Existem mecanismos automáticos para implantação de software em provedores de nuvem, no entanto, demandam codificação ou requerem conhecimento aprofundado do desenvolvedor acerca da tecnologia específica do provedor de nuvem, sobretudo da reconstrução de vários requisitos, já que ambientes em nuvem possuem arquiteturas de software próprias. Nesta pesquisa foi apresentada uma abordagem baseada em modelos para implantação automática de software no ambiente em nuvem. Foi apresentada uma breve revisão da literatura sobre as propostas existentes para implantação automática de software na nuvem. Foram analisadas as propostas, onde cinco mecanismos de implantação baseiam-se em script ou linguagem de programação, duas propostas utilizaram em mecanismos manuais e duas propostas aplicaram uma abordagem baseada em modelos para implantação de software na nuvem, no entanto ainda fortemente ligadas a aspectos manuais e de modelagem complexa, uma vez que requer do desenvolvedor a compreensão da arquitetura do provedor de nuvem. Esta investigação apresenta uma nova proposta com arquitetura detalhada, casos de uso, fluxo de dados e visão conceitual de uma abordagem
    dirigida a modelos para implantação de software automática na nuvem. Esta abordagem tem como objetivo reduzir os esforços humanos e tempo para implantar serviços de software na nuvem por meio de diagramas de implantação UML como entrada, a fim de realizar a implantação numa camada mais alta de abstração.

2014
Description
  • EDVAN DOS SANTOS SOUSA
  • Monitoramento e análise de tráfego na computação em nuvem
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: Sep 30, 2014
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Usuários de sistemas de Tecnologia de Informação e Comunicação vêm cada vez mais migrando suas aplicações de computadores locais para serviços oferecidos na Internet, utilizando o paradigma de computação em nuvem. Na computação em nuvem os recursos computacionais são disponibilizados na forma de serviços e utilizados de acordo com necessidades específicas do usuário. Tais serviços, muitas vezes impõem um tráfego intenso na rede, podendo degradar a qualidade dos serviços oferecidos. Este trabalho propõe e analisa o uso de técnicas multi-adaptativas para a monitoramento do tráfego em nuvens computacionais. Nesta dissertação, a metodologia de amostragem Multi-Adaptativa com Detecção de Picos (MAS-PD) é utilizada para monitorar o tráfego de dados em instâncias de uma nuvem privada Eucalyptus. A MAS-PD executa a captura passiva do tráfego, baseando-se na adaptabilidade do intervalo e tamanho das amostras às condições do tráfego, promovendo uma redução no volume de dados de gerenciamento armazenados e entregues na rede. A análise estatística do volume de dados e da vazão em experimentos realizados demonstraram a eficiência do MAS-PD em comparação com outros métodos apresentados na literatura.

  • MARCOS PEREIRA DOS SANTOS
  • Laboratório de Acesso Remoto para Controle, Experimentação, Automação e Validação de Processos em Tempo Real – “Baseado em HTML5”
  • Advisor : MARCO TULIO CHELLA
  • Data: Sep 30, 2014
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O objetivo geral desta pesquisa é propor um sistema de software e de hardware
    cuja principal função é realizar experimentos em sistema hardware, eletronicamente
    interconectados e atualizando sistemas embarcados através de acesso remoto em tempo real,
    sendo econômico e pedagogicamente viável. A solução proposta neste trabalho permite
    que alunos, pesquisadores e desenvolvedores de sistemas embarcados programem os seus
    próprios experimentos e realizem a integração na plataforma, usufruindo, assim, de todos
    os benefícios de controle, monitoração e distribuição experimento que a arquitetura da
    plataforma oferece. A plataforma do laboratório virtual foi projetada para viabilizar o conceito
    prático de laboratório remoto, promovendo a colaboração na pesquisa prática e no ensino de
    experimentos remotos.

  • FERNANDA ALMEIDA PASSOS
  • Avaliação de Técnicas de Linha de Produto de Software no Processo de Adaptação e Manutenção de Sistemas Customizáveis
  • Advisor : ALBERTO COSTA NETO
  • Data: Sep 24, 2014
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A customização em sistemas de software para atender aos diferentes requisitos funcionais e não funcionais de cada cliente envolve a criação de novos artefatos e mudanças nos existentes. Porém, nem todas as empresas fornecedoras de aplicativos de software realizam as customizações necessárias nos sistemas para atender a cada um dos seus clientes. Com isso, as organizações clientes ao adquirirem um sistema original fornecido por essas empresas, realizam as adaptações e manutenções necessárias diretamente no código base do sistema original para a obtenção de um sistema customizado específico aos seus negócios. Por este motivo, essas organizações normalmente enfrentam problemas na manutenção e evolução da aplicação. Um dos maiores desafios é identificar as variações presentes na versão corrente e reaplicá-las nas versões mais recentes do sistema original. Isto pode demandar retrabalho se estas variações não estiverem adequadamente separadas do código base. Neste contexto, a aplicação de técnicas de Linha de Produto de Software (LPS) surge como uma proposta para prover suporte à customização nos aplicativos de software. Assim, este trabalho tem como objetivo primeiramente efetuar a seleção de técnicas de LPS, levantadas em estudo sistemático realizado, baseado na análise comparativa entre elas tomando como premissa abordagem que possibilite criação de artefatos customizáveis, modularização das variações e implementação das variações sem realizar modificações ao código base. Com o intuito de avaliar as técnicas selecionadas, foi realizado um estudo experimental, que consiste na aplicação destas no processo de adaptação, manutenção e evolução de um sistema de informações gerenciais real, comprovando ou não a viabilidade do uso quanto à eficiência e eficácia.

  • LEONARDO BEZERRA SILVA JUNIOR
  • Investigando a refatoração automática de software baseada em algoritmos de otimização multiobjetivos
  • Advisor : LEILA MACIEL DE ALMEIDA E SILVA
  • Data: Sep 19, 2014
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Refatoração é um processo que objetiva a mudança de código sem a mudança de comportamento visível e é utilizada para corrigir problemas estruturais no software, advindos de manutenções sem planejamento ou de um processo de desenvolvimento desestruturado. Os mecanismos por trás do processo de refatoração, entretanto, são relativamente complexos e perigosos se feitos manualmente (para cada refatoração é preciso avaliar uma série de pré e pós-condições para garantir que o comportamento não seja alterado). Muitas ferramentas de desenvolvimento atuais facilitam as refatorações, mas de forma semiautomatizada, de maneira que o programador deve perceber a necessidade de uma refatoração específica. Novas técnicas tem surgido em um esforço para aproximar a engenharia de software das outras engenharias no que diz respeito à automatização de processos. Neste contexto, a aplicação de algoritmos de busca surge como uma proposta para prover suporte à manutenção de software através da aplicação automática de refatorações.
    Este trabalho se insere neste contexto, o de Refatoração de Software Baseada em Buscas (do inglês Search-Based Software Refactoring), e investiga detalhadamente o tema, propondo inclusive um algoritmo específico para a área, intitulado MultiObjective Particle Swarm Optimization with Path Relinking (MOPSOPR). Um framework open-source que possibilita a busca e aplicação automática de sequências de refatorações foi também proposto. Este framework permite a exploração do problema de refatoração automática através de vários algoritmos de otimização. Em particular, neste trabalho o framework foi utilizado para viabilizar análises comparativas do algoritmo proposto com o algoritmo mais utilizado na literatura deste tema, o Non-Dominated Sorting Genetic Algorithm-II (NSGA-II). Vários experimentos foram conduzidos, inclusive considerando-se softwares reais. Apesar de apresentar alguns resultados positivos, a avaliação geral não indica uma superioridade unânime do algoritmo proposto em relação ao NSGA-II nos diversos experimentos realizados. Entretanto, o estudo realizado revelou interessantes fronteiras de investigação a serem exploradas em trabalhos futuros.

  • GABRIEL FERREIRA ARAUJO
  • Sobre o uso do Contexto no Reconhecimento Automático de Fala
  • Advisor : HENDRIK TEIXEIRA MACEDO
  • Data: Sep 12, 2014
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Interfaces de fala têm se popularizado comercialmente nos últimos anos, principalmente devidoao advento das tecnologias pervasivas, móveis e acessíveis. Entretanto, a comunicação verbale falada é uma tarefa extremamente complexa em diversos aspectos, desde a sua variabilidadeacústica à ambiguidade. Tais interfaces, ou sistemas de reconhecimento de fala, enfrentamdiversos problemas que os limitam, à exemplo da precisão do reconhecimento. De maneirasimilar aos humanos, que combinam sensações auditivas e visuais na percepção da fala, aincorporação de informações de contexto à interface de fala pode melhorar significativamente aeficiência do reconhecimento. Portanto, o objetivo deste trabalho é investigar o impacto docontexto na performance do reconhecimento de fala. As definiçoes de contexto e formalizaçãodos tipos de informações contextuais são apresentadas inicialmente, seguidas pela proposta deum modelo contextual e seu respectivo uso através de um método de adaptação para o modelode linguagem. Tal adaptação objetiva a manutenção do foco do reconhecimento no domínioatual da aplicação. Diante de um situação de aplicação simples, a navegação falada de robôsmóveis, o efeito provocado pela inclusão do contexto nas taxas de reconhecimento de fala foiavaliado pelas métricas WER (Word Error Rate) e WIL(Word Information Lost). Na maioria doscenários de teste os resultados demonstraram reduções entre 1,5~2,5%, alcançando até 3,3%para o modelo linguístico mais restrito. Um outro estudo de caso mais abrangente foi posteriormente desenvolvido para o controle de automação residencial, este qual foi simulado na plataforma Arduino. Adicionalmente, um modelo de processo foi proposto a fim depadronizar e guiar o desenvolvimento de interfaces de fala, uma vez que que a criação de taissistemas não é uma tarefa trivial.

  • SAULO EDUARDO GALILLEO SOUZA DOS SANTOS
  • HighFrame: Uma solução para desenvolvimento em alto nível e deployment automático de sistemas distribuídos baseados em componentes
  • Advisor : TARCISIO DA ROCHA
  • Data: Aug 19, 2014
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Sistemas distribuídos têm se mostrado altamente heterogêneos e dinâmicos, mudanças acontecem constantemente e rapidamente. Uma abordagem largamente adotada no desenvolvimentode sistemas distribuídos é a do desenvolvimento baseado em componentes, que permite desenvolver softwares flexíveis através da composição de componentes individuais.Mas, com a grande diversidade de modelos de componentes, cada modelo possui sua especificidade de desenvolvimento e nativamente estes não possuem interoperabilidade. O desenvolvimento de métodos de comunicação remota e o deployment distribuído são tarefas difíceis que contribuem no aumento da complexidade. Considerando toda essa complexidade, os esforços destinados ao desenvolvimento de código técnico para sistemas distribuídos são obstáculos que desencorajam desenvolvedores. Neste cenário apresentamos o HighFrame - uma solução integrada para desenvolvimento em alto nível e deployment automático que tem como propósito reduzir a complexidade do desenvolvimento de sistemas distribuídos baseados em componentes heterogêneos. Com esta solução o desenvolvedor mantém o foco de desenvolvimento no negócio da aplicação. Ele utiliza anotações e um planejador gráfico para definir componentes e a arquitetura do sistema distribuído. O HighFrame desempenha o processo de deployment automaticamente e abstrai do desenvolvedor a complexidade de modelos de componentes, métodos de comunicação remota e interoperabilidade entre componentes heterogêneos.

  • MARCELINO NASCIMENTO DE OLIVEIRA
  • Avaliação de Desempenho de Serviços Emergenciais de Saúde em Redes Sem Fio Heterogêneas
  • Advisor : EDILAYNE MENESES SALGUEIRO
  • Data: May 16, 2014
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • As aplicações de saúde voltadas para monitoramento de pacientes à distância, têm atingido grandes proporções com o avanço das redes sem fio. Este trabalho apresenta o estudo de avaliação de desempenho do tráfego de biosinais, no qual foi simulado a transmissão de dados de pacientes em situações de emergência. Os sinais foram transmitidos a partir de uma ambulância, através de rede sem fio e coletados em um centro de monitoramento médico. No percurso até o hospital, o móvel transmitiu biosinais enquanto transitou entre áreas cobertas por tecnologias de rede distintas, caracterizando situação de handover vertical. Com base nos requisitos mínimos de QoS praticados na comunidade científica, foram avaliados os parâmetros mais importantes em aplicações de saúde como taxa de perdas, atraso, vazão e jitter. Ainda, foi considerado uma largura de banda mínima necessária para transmissão de sinais vitais, levando-se em conta as taxas de amostragens conhecidas para sinais médicos como Eletrocardiograma(ECG), Pressão arterial, Frequência cardíaca, Temperatura do corpo e Taxa de saturação de oxigênio no sangue. Para avaliar o desempenho, foram realizadas simulações computacionais, com o uso de uma implementação do padrão IEEE 802.21 para o simulador NS-2. O cenário simulado utilizou as redes das tecnologias Wi-Fi e WiMAX , dispositivo móvel com múltipla interface e nós de carga, os quais realizaram transmissões com taxas constantes CBR. Os resultados mostraram que as tecnologias de rede em uso, atenderam os requisitos mínimos de QoS para aplicações médicas.

  • CHRISTIANO LIMA SANTOS
  • Dmitry - Uma Arquitetura para Gestão Ágil de Projetos no Moodle
  • Advisor : HENRIQUE NOU SCHNEIDER
  • Data: May 16, 2014
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Nas últimas décadas, barreiras geográficas deixaram de existir, a comunicação tornou-se muito mais veloz e acessível e ferramentas tecnológicas ampliaram o poder de processamento humano das informações, levando a profundas transformações econômicas, sociais e culturais. Assim, Tecnologias da Informação e Comunicação receberam papel fundamental em uma sociedade que se comunica, negocia e aprende "em rede", entretanto abordagens educacionais adotadas nas instituições de ensino ainda se encontram defasadas. Novas técnicas de ensino construtivistas como a Aprendizagem Baseada em Projetos e ferramentas computacionais como os Ambientes Virtuais de Aprendizagem são pesquisadas e experimentadas, apontando a gestão de projetos educativos por meio do ciberespaço como uma possível abordagem educacional capaz de promover a construção do conhecimento pelos próprios aprendizes de forma colaborativa e superando restrições geográficas. Esta dissertação analisa o Ambiente Virtual de Aprendizagem Moodle como suporte à técnica de Aprendizagem Baseada em Projetos e apresenta uma arquitetura de software para a gestão de projetos educativos como um ambiente que permita a aprendizagem de forma mais autônoma e colaborativa.

  • RAFAEL XAVIER DE OLIVEIRA SOUZA
  • ModelER: Uma Abordagem baseada em Modelos aplicada ao Processo de Elicitação de Requisitos.
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: Feb 27, 2014
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A Engenharia de Requisitos (ER) possui um importante papel na Engenharia de Software pelo fato de compreender a fase inicial do processo de desenvolvimento de software, servindo de base para a realização das demais atividades, contribuindo decisivamente para a qualidade do produto de software final. O processo de Elicitação de Requisitos está entre as principais preocupações da ER. Ele envolve o reconhecimento e a descrição das necessidades dos clientes, de tal forma que seja possível refletir o negócio de forma precisa e coerente. Além disso, de maneira geral, a maior parte dos problemas que ocorrem durante o processo de desenvolvimento de software é causada por falhas nas fases iniciais. Diante desse contexto, o uso de abordagens que busquem compreender e descrever os processos de negócio e que permitam uma visão mais próxima do domínio, ou que possuam alto grau de abstração, tais como o Desenvolvimento Orientado por Modelos (Model-Driven Developement – MDD) e a Modelagem de Processos de Negócio (Business Process Modeling – MPN), sobretudo quando apoiadas por ferramentas de suporte, pode contribuir para a melhoria da qualidade dos requisitos e do processo de Elicitação de Requisitos. Este trabalho apresenta a abordagem ModelER, a qual busca promover melhorias no processo de Elicitação de Requisitos, através da utilização de conceitos e práticas do MDD e da MPN para identificação de requisitos de software.

  • LUIZ MARCUS MONTEIRO DE ALMEIDA SANTOS
  • My-Direct: Um Middleware para Desenvolvimento de Redes Sociais Móveis P2P
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Feb 25, 2014
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Nos últimos anos, o tema middleware para redes sociais móveis têm atraído a atenção do meio acadêmico, causando o projeto e desenvolvimento de diversas soluções por parte dos pesquisadores. Esse tipo de middleware facilita e torna mais eficiente o pro­cesso de desenvolvimento de aplicações de redes sociais para o ambiente móvel. Além disso, essas soluções de middleware também abstraem o processo de comunicação entre parceiros e permitem a aquisição, persistência e reuso de informações de contexto social e de localização do usuário, além de disponibilizarem API para que os desenvolvedores possam acessar essas informações rapidamente e construir novas aplicações sociais

    Tendo em vista colaborar para esta nova tendência de pesquisa, esta dissertação propõe uma arquitetura de middleware para redes sociais móveis chamada de My-Direct que faz uso da tecnologia Wi-Fi Direct em conjunto com o Bluetooth, visando proporci­onar comunicação flexível entre os nós da rede social móvel. Junto ao My-Direct, tam­bém foi criado um mecanismo de privacidade para o usuário baseado em informações disponíveis no dispositivo móvel, de forma que a execução de atividades sociais ocorra apenas entre parceiros com algum grau de afinidade.

  • CARLA CÁSSIA DE JESUS ALMEIDA
  • Qualitas: Um Processo de Desenvolvimento de Software Dirigido por Modelos
  • Advisor : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: Feb 25, 2014
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Model Driven Development (MDD) é um paradigma de desenvolvimento de produtos de software, cujo objetivo é colocar os modelos como o artefato central do processo de desenvolvimento, ao invés do código-fonte. Nos últimos anos, pesquisas na área de Engenharia de Software têm criado e adaptado definições, métodos e estruturas para a realização desse paradigma. No entanto, os modelos de processo de desenvolvimento de software, bem como, as atividades de testes envolvidas nestes modelos não são adequados e não permitem o uso efetivo desse paradigma. Tendo em vista que, a área de Engenharia de Software possui como objetivo principal, o desenvolvimento de produtos de software com qualidade, é necessário também que estes modelos de processo de desenvolvimento envolvam cada vez mais abordagens de teste de software, com o intuito de realizá-los desde as fases iniciais, visando que os erros sejam identificados e corrigidos o quanto antes, agregando qualidade ao software. Uma abordagem que faz uso de modelos no teste de software é o Model Driven Testing (MDT), a qual faz uso de práticas do MDD, através da geração automática de artefatos de teste de acordo com as regras de transformação pré-definidas a partir de modelos de desenvolvimento. Desta forma, este trabalho apresenta o Qualitas, um modelo para o desenvolvimento de software orientado a modelos, que possibilite tanto o uso de modelos quanto à efetiva integração do MDD e MDT. O modelo busca promover um maior controle das etapas e atividades do processo de desenvolvimento de software, como também, agregar qualidade aos produtos de software desenvolvidos. Uma avaliação e um estudo experimental do Qualitas foram realizados através do desenvolvimento e implementação de funcionalidades para o Sistema de Informação da Triagem Neonatal do Hospital Universitário (HU) da Universidade Federal de Sergipe (UFS), destacando as vantagens e mostrando as limitações do modelo.

  • LUANA BARRETO DA SILVA
  • Modelagem e Análise do Protocolo de Roteamento Leach
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: Feb 21, 2014
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • As Redes de Sensores Sem Fio (RSSF) são sistemas auto-organizáveis formadas por nós sensores que comunicam-se entre si trocando informações e auxiliando as mais diversas áreas. Porém, essas redes possuem grandes limitações devido à escassez de recursos, principalmente energético. Essa limitação se deve ao fato de que, em geral, os sensores possuem baterias limitadas e não há possibilidade de recarga de energia. Porém, para garantia de sua empregabilidade as RSSF devem possuir uma comunicação não somente eficaz, mas também eficiente. Para alcançar uma comunicação eficiente é necessário o uso de protocolos que priorizem as limitações enfrentadas por uma RSSF. A escolha equivocada de protocolos de roteamento em RSSF pode levar a uma utilização inadequada dos recursos da rede, acarretando a diminuição do seu tempo de vida e/ou diminuindo a qualidade dos dados capturados. Para o presente trabalho foi selecionado o protocolo de roteamento Leach (Low Energy Adaptive Clustering Hierarchy), para realizar através das Redes de Petri uma análise de desempenho dos componentes e fases existentes nele e posterior aplicação de melhorias. Para realizar a análise de desempenho, são estudadas métricas como: economia de energia de cada nó, tempo de vida da rede, atraso médio na entrega de pacotes, e escalabilidade. A partir do exame dessas métricas em cada uma das fases presentes no protocolo Leach, são propostas melhorias no protocolo e analisada sua empregabilidade.

2013
Description
  • MARLON SANTOS PRATA
  • Extração De Padrões Em Imagens De Ressonância Magnética Funcional Na Dimensão Temporal.
  • Advisor : CARLOS ALBERTO ESTOMBELO MONTESCO
  • Data: Dec 5, 2013
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Este trabalho busca avaliar a efetividade do Modelo de Análise de Componentes Independentes (ACI) em imagens de ressonância magnética funcional (fMRI) na dimensão temporal. Diante dos resultados dessa avaliação, serão extraídos padrões latentes da função resposta hemodinâmica (FRH), em um experimento que tem como base um protocolo que será executado por um voluntário. Imagens cerebrais de ressonância magnética serão usadas para que com o auxilio da técnica de ACI possam ser identificadas as áreas cerebrais que estão ativas no momento da execução do protocolo, separando-os dos sinais ativos que não pertencem ao protocolo, como batimentos cardíacos, respiração etc.

  • MURILO ALVES BEZERRA JUNIOR
  • Pré-Processamento dos Intervalos de Tempos Observados na Dinâmica de Digitação (KeyStroke) de Senhas Curtas
  • Advisor : JUGURTA ROSA MONTALVAO FILHO
  • Data: Sep 27, 2013
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Em 2006, um método foi proposto sobre o uso da equalização de intervalos de tempos,
    como forma de melhorar o desempenho de alguns métodos biométricos baseados em
    dinâmica de digitação (keystroke). Naquele artigo, pequenas bases de dados, com textos estáticos
    e livres, foram usadas para mostrar, em termos de taxas de erros, os ganhos quando
    a equalização era aplicada antes do uso de métodos clássicos. Em 2009, lançou-se uma
    base pública grande, correspondente a uma única senha hipotética curta, digitada por 51 voluntários,
    usada pelos autores do trabalho e, posteriormente, disponibilizada, publicamente,
    para novos experimentos. Nesta dissertação utilizou-se essa grande base pública, para a qual
    adapta-se a equalização de intervalos. Utilizando os mesmos métodos usados pelos proprietários
    da base experimental, obtém-se resultados que mostram, claramente, um notável
    ganho de desempenho para todos os métodos testados, quando a equalização de intervalos
    é usada no pré-processamento dos dados. É observado, também, o desempenho no tocante
    ao tamanho da senha, e analisa-se a estabilização do padrão de digitação. Por fim, pode-se
    verificar a montagem de uma nova base, a partir da qual foi possível verificar e analisar o
    seu desempenho, assim como a relação existente em abordagens tradicionais, no tocante ao
    layout do teclado e à “força” que a senha possui em sua essência.

  • CARLOS AUGUSTO DOS SANTOS
  • Uso de Análise Espectral e Máquinas de Vetores de Suporte no Reconhecimento de Assinaturas Vibracionais de Equipamentos Eletromecânicos
  • Advisor : LEONARDO NOGUEIRA MATOS
  • Data: Aug 16, 2013
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Desde seus primeiros dias, os seres vivos aprendem a identificar diferentes padrões de sinais, de acordo com suas capacidades sensoriais. De uma forma particular, os humanos sempre utilizaram sua capacidade auditiva em suas atividades laborais ligadas à mecânica. Sistemas mecânicos em funcionamento produzem vibrações, muitos deles gerando ruídos característicos. Esses sinais audíveis ao serem aprendidos são utilizados no reconhecimento de anomalias simples ou complexas, dependendo do sistema e do analista. Partindo do princípio de que se pode simular a capacidade humana de reconhecimento de padrões de audio através de sistemas computacionais, essa dissertação procura apresentar uma visão prática do reconhecimento de defeitos em equipamentos eletromecânicos, através da extração de características do espectro de frequências oriundas da vibração dos sistemas e o reconhecimento feito por Máquinas de Vetores de Suporte (SVM), especificamente SVM de Classe Única.

  • SIDNEY CASSEMIRO DO NASCIMENTO
  • UM FRAMEWORK EXTENSÍVEL PARA INTEROPERABILIDADE DINÂMICA ENTRE COMPONENTES DISTRIBUÍDOS
  • Advisor : TARCISIO DA ROCHA
  • Data: Jul 29, 2013
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • A popularização do middleware ocorrida nos últimos anos promoveu o surgimento de diferentes modelos tecnológicos. Devido a essa diversidade, a interoperabilidade entre diferentes modelos de componentes de software torna-se imprescindível para promover a integração entre partes heterogêneas.
    A heterogeneidade de middleware é um desafio para o desenvolvimento de sistemas distribuídos. Os problemas envolvidos com a interoperabilidade são tratados, em geral, pela adoção de sistemas de middleware capazes de intermediar e estabelecer a comunicação entre plataformas distintas.
    Nesse contexto, esta dissertação propõe, então, um framework padrão para interoperabilidade entre diferentes modelos de componentes de software. Para diminuir o acoplamento da plataforma proposta, foi implementado um framework distribuído com uma arquitetura extensível para suportar novos modelos de componentes e novos tipos de binding na forma de plugins independentes. O framework proposto possibilita a reutilização de componentes heterogêneos (i.e. OpenCOM e Fractal) na composição de sistemas distribuídos complexos, bem como a interoperabilidade entre componentes distribuídos de tais modelos.
    Para confirmar os benefícios em desempenho, usabilidade e extensão, está dissertação apresenta um estudo de caso de uma aplicação distribuída baseada no Servidor Web Comanche usando composição de componentes heterogêneos para avaliar a viabilidade do framework proposto.

  • GUSTAVO DA SILVA QUIRINO
  • Análise Arquitetural de Algoritmos Criptográficos Assimétricos em Plataformas Embarcadas usadas em RSSF
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Mar 13, 2013
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Esse trabalho consiste na avaliação de desempenho de algoritmos criptográficos assimétrico

    em plataformas embarcadas usadas em Redes de Sensores Sem Fio (RSSF). Os dispositivos

    sensores têm baixa capacidade computacional e energética, portanto técnicas de segurança

    não devem consumir grande quantidade de recursos. Os algoritmos criptográficos assimétricos

    RSA, ECC e MQQ foram avaliados nas plataformas Desktop, ARM, MSP430 e AVR.

    A avaliação de desempenho foi realizada com auxílio dos simuladores SimpleScalar, Sim-

    Panalyzer, MSPsim e AVRORA. Os critérios de avaliação foram: tempo de processamento,

    uso de memória e processador, além do consumo de energia. Os dados revelaram que o algoritmo

    MQQ foi mais eficiente que os algoritmos RSA e ECC na maioria dos critérios de

    avaliação, além disso, o algoritmo ECC obteve os melhores resultados quando comparado

    com o algoritmo RSA.

  • LUCAS AUGUSTO MONTALVÃO COSTA CARVALHO
  • Abordagens de Teoria dos Jogos para Modelagem de Sistemas de Recomendação para Grupos
  • Advisor : HENDRIK TEIXEIRA MACEDO
  • Data: Feb 20, 2013
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Sistemas de Recomendação tradicionalmente recomendam itens para usuários individuais.Em alguns cenários, entretanto, a recomendação para um grupo de indivíduos faz-se necessária,onde a grande dificuldade é como lidar adequadamente com as preferências de seusintegrantes para geração da recomendação. Diferentes métodos de agregação dessas preferênciastêm sido propostos na literatura científica relacionada, onde o objetivo principal éa maximização da satisfação média do grupo e assegurar justiça na recomendação. Porém,características do grupo influenciam sobremaneira os resultados obtidos pelos diferentes métodosde agregação. Esta dissertação defende a hipótese de que a Recomendação para Grupode usuários pode ser modelada como um problema de encontrar os itens em Equilíbrio deNash. Os itens disponíveis para potencial recomendação são modelados como ações de umJogo Não-Cooperativo. A abordagem seleciona os itens de forma racional e trata os membrosdo grupo como jogadores com interesses próprios. Garante-se a existência de ao menos umEquilíbrio de Nash como solução para a recomendação. O experimento realizado comparaa satisfação média do grupo entre a abordagem proposta e estratégias de agregaçãos entreelas a conhecida como Average, pertencente ao Estado da Arte. Para grupos de diferentesníveis de homogeneidade, os resultados alcançados são bastante promissores. Uma outrahipótese defendida nesta dissertação é a de que a formação de um grupo de usuários dentrode um determinado contexto deve ser baseada em Estruturas de Aliança com o objetivo demaximizar o bem-estar social total do grupo (Social Welfare). Enquanto a maioria das recomendaçõespara grupos são realizadas para um grupo fixo e pré-determinado de usuários, aorganização em grupos poderia ser de acordo com um objetivo. Um experimento comparouo resultado da abordagem de formação de grupos baseadas em Estruturas de Aliança comuma abordagem baseada em agrupamento com o algoritmo K-Means. Resultados mostraramque os grupos formados com a nova abordagem possuem um índice de similaridade internamaior.
  • DILTON DANTAS DE OLIVEIRA
  • Uma Arquitetura Baseada na Teoria do Perigo para Predição de Ataques de Segurança em Redes Autonômicas
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: Jan 31, 2013
  • Dissertação
  • View Dissertation/Thesis   Show resume
    • O crescimento do número de dispositivos conectados, do volume de dados trafegados e dasaplicações utilizadas tem evidenciado um aumento importante na complexidade das redesatuais, deixando a atividade de gerência cada vez mais difícil para os administradores de redese sistemas. Aspectos de gerência, como a segurança desses sistemas tem sido um dosprincipais desafios enfrentados pelos pesquisadores, principalmente, considerando que, emparalelo, observa-se um também importante aumento no grau de sofisticação das atividadesmaliciosas. Tal cenário exige o desenvolvimento de sistemas de segurança igualmentesofisticados, com o intuito de impedir ou conter ataques cada vez mais destrutivos aossistemas, como os ataques de worms. E a inspiração biológica tem sido uma das grandesaliadas nesta empreitada, trazendo diversos conceitos e novas formas de pensar e resolveresses problemas. Este trabalho utilizou os conceitos bio-inspirados das Redes Autonômicas(redes autogerenciáveis inspiradas nos funcionamento do sistema nervoso humano) e dosSistemas Imunes Artificiais (sistemas de segurança computacional inspirados nofuncionamento do sistema imunológico humano), para definir um arquitetura de gerência paraautoproteção de redes, através da predição de ataques de segurança. Tal arquitetura incorpora o modelo imuno-inspirado da Teoria do Perigo e utiliza o seu Algorítmo das CélulasDendríticas para correlacionar eventos e detectar anomalias. A análise da arquitetura foirealizada em um Sistema de Alerta Antecipado, que usa notificações recebidas de máquinas jáinfectadas por worm como informação adicional para identificar a iminência de uma infecçãoem máquinas ainda vulneráveis. Nos testes foi utilizado o modelo de propagação do wormConficker a fim de predizer sua infecção e os resultados apontaram uma redução deaproximadamente 8,45% no número de máquinas infectadas e, consequentemente, na propagação do worm em uma rede.
  • LEILA BUARQUE COUTO DE MATOS
  • Análise de Desempenho de Algoritmos Criptográficos Assimétricos em uma Rede Veicular (VANET)
  • Advisor : EDWARD DAVID MORENO ORDONEZ
  • Data: Jan 30, 2013
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Esta dissertação de mestrado descreve o impacto de usar algoritmos assimétricos de criptografia, dando ênfase aos algoritmos RSA, ECC e MQQ em cenários de VANET (Vehicular Ad hoc Network). Na pesquisa foram investigados alguns simuladores como GrooveNet, VANET/DSRC, VANET/Epidemic CRL, NS-2, TraNS, NCTUns/EstiNET, SUMO, VanetMobiSim e ns-3, próprio para VANET. Os algoritmos foram implementados em C e inseridos no ns-3, onde se criam cenários simples de uma rede VANET. Os resultados obtidos permitem concluir que é possível agregar ao protocolo, na camada de serviços de segurança das redes veiculares (1609.2), esses algoritmos assimétricos e obter comunicação segura entre os nós da VANET.

  • ESTELAMARIS DA COSTA PINA
  • GRESSUS: UMA METODOLOGIA PARA IMPLANTAÇÃO DA BPM EM ORGANIZAÇÕES PÚBLICAS
  • Advisor : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: Jan 29, 2013
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Desde a década de 90, vem-se desenvolvendo ações para estimular as organizações públicas brasileiras a administrar visando o cidadão e não somente os seus processos internos. Essas ações estão consolidadas, entre outras formas, na Carta de Serviço ao Cidadão e na Lei do Acesso a Informação (LAI). Uma das finalidades da Carta de Serviços ao cidadão é divulgar os serviços prestados pelas organizações públicas com os seus compromissos de atendimento para que sejam amplamente conhecidos pela sociedade, já a LAI, obriga as organizações públicas a fornecerem informações aos cidadãos permitindo o acesso e conhecimento dos seus direitos essenciais. Neste contexto, é imperativo conhecer e melhorar os processos da organização que são os alicerces para atender essas demandas, como também buscar o alinhamento da visão de processos à de dados, viabilizando a implementação de sistemas de informação (SI) mais racionais e integrados. Business Process Management (BPM) é uma alternativa para conhecer, melhorar, automatizar e adequar os processos de negócio de forma a apoiar as atividades administrativas provendo maior controle e qualidade às iniciativas desempenhadas. No entanto, existem obstáculos para uma organização pública implantar a BPM e alinhar aos sistemas de informação, um deles é o desconhecimento de uma estratégia para a transição da gestão por funções para a gestão por processos. Este trabalho apresenta a metodologia Gressus para conduzir a implantação da BPM em organizações públicas, com vistas a subsidiar o desenvolvimento de SI aderentes aos processos da organização. A aplicabilidade da Gressus foi verificada através de um estudo de caso que selecionou o processo de compras em uma organização pública. Os resultados apontaram que a metodologia Gressus pode ser uma opção viável para a implantação de BPM em organizações que ainda não adotaram a gestão por processos. Este trabalho contribui proporcionando um caminho para a institucionalização da BPM em organizações públicas, apoiando o desenvolvimento de SI alinhados e assim obter os melhores resultados.

  • SANDRA COSTA PINTO HOENTSCH ALVARENGA
  • SOCIALNETLAB: SERVIÇOS DE LOCALIZAÇÃO ATRAVÉS DA API DE GEOLOCALIZAÇÃO DO HTML5 E DO WEB SERVICE DINÂMICO
  • Advisor : ADMILSON DE RIBAMAR LIMA RIBEIRO
  • Data: Jan 15, 2013
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Diante da grande quantidade de dispositivos móveis pessoais vendidos no mercado e do vasto número de tecnologias de localização disponível para serem utilizadas por esses equipamentos, apresentamos uma solução de localização que é capaz de posicionar geograficamente um usuário e seus amigos em qualquer dispositivo móvel, independente da tecnologia de localização presente no equipamento, bem como calcular a distancia que o mesmo se encontra em relação aos amigos e definir a distância que deseja ser notificado da proximidade dos mesmos. Essa solução é composta por dois serviços de localização: o serviço de localização que utiliza a API de Geolocalização do HTML5 e o serviço de localização que utiliza Web Service Dinâmico. Ambos os serviços foram implantados e testados na SocialNetLab, que é a rede social móvel que foi implementada para validar esses serviços de localização e que servirá de laboratório para futuras pesquisas em redes sociais e estará disponível para o Departamento de Computação da Universidade Federal de Sergipe. Como principal resultado obtivemos a integração de dois serviços de localização em uma rede social móvel, a SocialNetLab, tornando-a capaz de localizar e notificar usuários da proximidade de amigos independente da tecnologia de localização disponível no dispositivo (móvel ou não). Ao término dos testes obtivemos resultados satisfatórios nos dois serviços de localização testados.

2012
Description
  • ANDERSON SANTOS FERREIRA DA SILVA
  • Algoritmo de Handover Vertical Baseado em Função de Utilidade com Prevenção Probabilística de Decisões Erradas
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: Dec 20, 2012
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O problema da decisão de handover entre redes sem fio heterogêneas ganhou grande importânciapara garantir aos usuários uma conexão contínua e um serviço de qualidade. Adisponibilidade de diversas tecnologias de redes sem fio proporciona ao usuário de um dispositivomóvel a possibilidade de selecionar a rede mais adequada às suas necessidades.Este trabalho apresenta um algoritmo de decisão handover vertical baseado em função deutilidade que previne decisões erradas de handover. O algoritmo é dividido em duas fases:Avaliação de RSS e avaliação de QoS. A avaliação de RSS verifica se o valor de RSS das redescandidatas atingiu um nível mínimo para estabelecer uma conexão na camada de enlace.Na avaliação de QoS, são coletadas medições de QoS, cujos valores servem como entradapara uma função de utilidade que pontua as redes de acordo com a QoS obtida. A fim de evitardecisões erradas de handover, causadas por flutuações nos valores das medições de QoS,é realizada uma análise probabilística sobre valores da função de utilidade. Para avaliar odesempenho do algoritmo foram realizadas simulações computacionais, com o uso de umaimplementação do padrão IEEE 802.21 para o simulador NS-2. O cenário simulado utilizouas redes das tecnologias Wi-Fi e WiMAX e dispositivos móveis com múltiplas interfaces, osquais realizaram chamadas VoIP e transmissões de vídeo. Os resultados mostraram a efetividadedo algoritmo em termos de diminuição do número de decisões erradas de handover emelhorias na qualidade do serviço. A redução de decisões erradas evita o efeito “ping-pong”,o que melhora o nível de QoS experimentado pelo terminal móvel, bem como garante umaconexão menos sujeita a interrupções.

  • JEIRLAN CORREIA PALMEIRA
  • PETIC 3.0: PROPOSTA DE APERFEIÇOAMENTO DA METODOLOGIA PETIC
  • Advisor : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
  • Data: Dec 20, 2012
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Atualmente, as organizações enfrentam um mercado bastante competitivo precisando de informações e conhecimentos que possam auxiliar de forma inteligente a sua gestão. As Tecnologias da Informação e Comunicação (TIC) são uma grande aliada para a obtenção de vantagens competitivas. Para isso, necessita-se de práticas de gestão que visem ampliar os benefícios das TIC para a organização.

    Neste contexto, será mostrada a importância da Governança de TI e do Planejamento Estratégico (PE) de TIC. Serão descritas as principais metodologias para o PE das TIC. Em particular, será apresentada uma proposta da aperfeiçoamento da metodologia PETIC. Essencialmente, esta proposta preocupa-se em manter o público-alvo da metodologia nas pequenas e médias organizações, procura alinhar a PETIC aos principais frameworks e modelos de governança de TI, bem como ao uso de uma ferramenta de apoio – o software PETIC Wizard. Será discorrido sobre os estudos de caso realizados no Centro de Processamento de Dados (CPD) da Universidade Federal de Sergipe (UFS) e no CPD da Universidade Federal do Amazonas (UFAM), além da aplicação do PETIC Wizard nas duas referidas instituições e na Secretaria de Tecnologia da Informação do Tribunal Regional Eleitoral de Sergipe. Por fim, será mostrada uma análise acerca dos resultados obtidos. Esta análise permitiu inferir que por meio da proposta de aperfeiçoamento da metodologia PETIC, é possível aprimorar o processo ligado ao planejamento estratégico de TIC.

  • JOSÉ HENRIQUE DE MELO CARDOSO
  • UMA ABORDAGEM PARA O PROCESSO DE ENGENHARIA DE REQUISITOS SOB A ÓTICA DA GESTÃO DE PROCESSOS DE NEGÓCIO
  • Advisor : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: Dec 19, 2012
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Pesquisas recentes relatam problemas de gestão no processo de Engenharia de Requisitos (ER). São problemas relacionados com comunicação, pessoas, metas, cultura e política, ligados diretamente à gestão do processo, que influenciam negativamente a ponto de inviabilizar projetos, causando prejuízos consideráveis para os negócios. Apesar do processo de ER apresentar como uma de suas atividades a Gerência de Requisitos, essa atividade tem como foco a qualidade do produto final, o Documento de Requisitos. Consequentemente, esforços para melhoria da qualidade da gestão de todo o processo, fazem-se necessários. Esta dissertação apresenta uma abordagem que propõe a visualização do processo de ER como um processo de negócio, possibilitando a inserção de princípios de gestão sob a ótica da Gestão de Processos de Negócio (Busines Process Management - BPM). A inserção tem por objetivo, a melhoria de desempenho de processos tradicionais de ER a fim de resolver o problema da gestão inadequada desses processos. Como modelo de partida (As Is), considera-se o processo de ER, conforme o SWEBOK. Em seguida um processo desejável (To Be) é definido e modelado, introduzindo-se princípios de gestão que proporcionam um aumento de efetividade e qualidade. A elevação da efetividade é obtida pelo Gerenciamento Estratégico, enquanto a melhoria da qualidade pelo Gerenciamento de Desempenho. A gerência estratégica é alcançada pelo alinhamento dos requisitos com as metas da organização e dos processos de negócio, já a gerência de desempenho é estabelecida pela aplicação da técnica do Controle Estatístico de Processos (Statistical Process Control - SPC). Como forma de validação, a abordagem proposta foi aplicada em um estudo de caso, onde dois processos foram avaliados em uma mesma organização, um com e outro sem a utilização da proposta. Para medição, foram empregados os indicadores de desempenho introduzidos pela abordagem. Como resultado, foi obtido um processo de ER com melhor efetividade e qualidade, capaz de realizar novas inserções, de forma objetiva, buscando a melhoria contínua desse processo.

  • RICARDO ARIEL CORREA RABELO
  • Um Arcabouço para Especificação e Modelagem de Estratégias de Jogo para Modalidade SIMUROSOT de Futebol de Robôs
  • Advisor : HENDRIK TEIXEIRA MACEDO
  • Data: Dec 19, 2012
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Futebol de robôs é um campo de pesquisa multidisciplinar crescente que envolve investigação científica acerca de aspectos relacionados ao controle de dispositivos móveis, comunicação, processamento de imagens, inteligência artificial, sistemas multiagentes, engenharia eletrônica, mecânica, entre outros. Competições científicas de âmbito mundial têm impulsionado grandes avanços tecnológicos nestes diversos aspectos, uma vez que institutos de pesquisa e universidades costumam inscrever anualmente seus times robóticos e apresentar, desta forma, as evoluções obtidas durante o ano anterior. A FIRA é uma das maiores organizações internacionais que promovem este tipo de competição e atualmente provê disputas em sete diferentes categorias de robôs que vão desde agentes virtuais até humanoides físicos. A categoria de agentes virtuais é denominada SimuroSot e consiste de um servidor e dois programas clientes que executam estratégias de jogo pré-programadas. Uma interface gráfica 3D exibe a partida. Esta plataforma de simulação 3D está disponível para que as equipes possam desenvolver seus times e testar seu desempenho apropriada e repetidamente. Esta plataforma também auxilia a codificação e testes de execução de estratégias de times de robôs para uma das outras categorias disponíveis, a MiroSot, que consiste de robôs móveis físicos de pequena dimensão. O grande problema com a codificação usualmente utilizada para confecção dos times para o SimuroSot é a falta de um processo formal de programação que padronize e modele as estratégias de jogo. Esta falta de padronização causa diversos problemas e limitações da competição como fomento à ciência, a saber: (1) dificuldade de entendimento de uma codificação alheia, (2) ausência de abstração para confecção de estratégias de jogo, (3) necessidade de grande conhecimento de linguagem de programação para confecção de estratégias e (4) falta de separação clara entre primitivas de movimentação de robôs e aspectos específicos do domínio de aplicação – neste caso, o futebol. Estes problemas, por sua vez, restringem o alcance da competição a pesquisadores especialistas e estudantes de cursos de Engenharias e Computação, dificultando a disseminação, por exemplo, a estudantes de nível médio ou técnico. Neste sentido, esta dissertação propõe uma especificação semi-formal para modelagem de estratégias de jogo para times de robôs na categoria SimuroSot. Esta especificação define dois níveis de mapeamento: (1) mapeamento das informações de domínio da aplicação – neste caso, o futebol enquanto competição – para máquinas de estado finito e (2) mapeamento de máquinas de estado finito que representam estratégias de jogo de um time para sua respectiva codificação em linguagem de programação, utilizando-se de padrões de codificação que garantem a legibilidade e manutenabilidade do código final. Esta dissertação apresenta ainda o desenvolvimento de uma ferramenta que implementa a especificação proposta e permite a programação visual das estratégias de times de robôs enquanto máquinas de estado finito e subsequente geração automática de código para linguagem de programação Lingo, comumente utilizada na plataforma SimuroSot. Cenários de experimentação consistindo de voluntários com diferentes graus de formação acadêmica e diferentes níveis de conhecimento técnico sobre programação de robôs foram definidos. Resultados mostram que a especificação e a ferramenta desenvolvida melhoram de fato a curva de aprendizagem da programação de times de robôs.

  • JENIFER VIEIRA TOLEDO
  • HARPIA: Um modelo para avaliação e condução da Gestão de Projetos de Software apoiado pelas práticas de Métodos de Desenvolvimento
  • Advisor : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: Dec 18, 2012
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • Desenvolver software com qualidade é, sem dúvida, o principal objetivo da Engenharia de Software. A qualidade do software está diretamente relacionada à qualidade do processo e da sua gestão. Várias abordagens podem ser utilizadas durante a aplicação de um desenvolvimento de software. Em destaque o uso de Métodos Ágeis e Dirigidos por Planejamento, fazendo parte cada vez mais da realidade das organizações de desenvolvimento, que acabam utilizando práticas de ambos os métodos, formalizando o emprego dos métodos híbridos, tendência para Engenharia de Software. Mas mesmo com tantas técnicas e métodos disponíveis, a escolha sobre o que usar em cada tipo de problema ou organização ainda é feita de maneira empírica, sem bases que justifiquem a aderência ao problema em questão. Este trabalho apresenta um modelo de gestão para obter atributos que viabilizem o delineamento de um perfil composto pelas características inerentes à equipe, ao ambiente e aos problemas relacionados ao desenvolvimento. Esse perfil torna-se a base para a escolha das melhores práticas dos métodos de desenvolvimento de software e mapeamento da contribuição destas práticas para a Gerência de Projetos de software, formulando-se assim, o modelo Harpia. A aplicabilidade do modelo Harpia foi verificada em um estudo de caso real, no qual problemas recorrentes como mudanças de requisitos e baixa qualidade dos dados exercem uma influência significativa no alcance dos objetivos dos projetos. O modelo favorece com o mapeamento de práticas de desenvolvimento que auxiliam a Gerência de Projetos de software e que se enquadram a realidade das empresas gerando uma maior satisfação quanto ao planejamento e execução dos projetos.

  • GIVANILDO SANTANA DO NASCIMENTO
  • AgileKDD: Um Processo Ágil para a Engenharia de Sistemas de Descoberta de Conhecimento
  • Advisor : ADICINEIA APARECIDA DE OLIVEIRA
  • Data: Nov 6, 2012
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • No contexto das economias baseadas em conhecimento e da Sociedade do Conhecimento, a
    competição global é cada vez mais baseada na capacidade de transformar dados em
    informações, informações em conhecimento e conhecimento em valor. Dados, informação e
    conhecimento constituem-se ativos intangíveis fundamentais para todas as organizações que
    atuam neste modelo sócio-econômico. A construção de sistemas de software capazes de
    extrair conhecimento de dados e de informações constitui um dos desafios mais significativos
    com que se depara a comunidade de Engenharia de Software. O desenvolvimento desse tipo
    de sistemas deve ser guiado por processos capazes de conduzir a transformação dos requisitos
    de negócio dos clientes em produtos de software, observando restrições cada vez mais rígidas
    de prazo, custo e qualidade. O esforço de sistematização da Descoberta de Conhecimento em
    Bancos de Dados e do Business Intelligence resultou em uma variedade de processos. No
    entanto, estes processos não contemplam elementos fundamentais para a Engenharia de
    Sistemas de Software, como os gerenciamentos de projetos, de requisitos e de mudanças, ou
    são incompatíveis com as evoluções constantes nos ambientes de negócios corporativos.
    Muitos dos processos existentes também carecem de experimentação científica em casos
    reais, capazes de confirmar as suas qualidades e identificar as suas deficiências. O processo
    proposto neste trabalho, o AgileKDD, busca integrar as melhores práticas dos principais
    processos de Descoberta de Conhecimento em Bancos de Dados existentes com um processo
    de software ágil. A aplicabilidade do AgileKDD foi verificada em um estudo de caso real, no
    qual problemas recorrentes como mudanças nos requisitos e baixa qualidade dos dados
    exerceram uma influência significativa no alcance dos objetivos do projeto. O estudo de caso
    apontou necessidades de melhoria do processo, as quais foram consideradas no refinamento
    do AgileKDD. O processo refinado resultante deste trabalho pode ser empregado como um
    arcabouço adaptável e flexível na construção de sistemas de software capazes de extrair
    conhecimento de dados e de informações. O processo favorece a entrega antecipada e
    contínua de valor ao cliente por meio de um ciclo de vida iterativo e incremental, da resposta
    imediata a mudanças, da adaptabilidade e da flexibilidade inerentes aos processos ágeis.

  • PRISCILA LÔBO GONÇALVES DORIA
  • “Avaliação de Desempenho de Variantes dos Protocolos DCCP e TCP em Cenários Representativos.”
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: May 15, 2012
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O Datagram Congestion Control Protocol (DCCP) é um proeminente protocolo de transporte que vem atraindo a atenção da comunidade científica pelos seus rápidos avanços e bonsresultados. A principal inovação do DCCP é a priorização de desempenho, como ocorre como UDP, mas com capacidade de realizar controle de congestionamento, como ocorre com oTCP. Entretanto, a literatura sobre o DCCP ainda é escassa e necessita ser complementadapara trazer elementos científicos suficientes para novas pesquisas. Neste contexto, este trabalho vem se somar aos esforços da comunidade científica para analisar, mensurar, comparare caracterizar o DCCP em cenários representativos que incorporem diversas situações de uso.Trabalhos anteriores já compararam o desempenho do DCCP com protocolos clássicos, entretanto limitando-se a um protocolo de cada vez por enlace, em enlaces supostamente isentos de falhas. Identificaram-se então três questões alvo, ainda em aberto na literatura: qualé o comportamento do DCCP (i) quando disputa o mesmo enlace com outros protocolos detransporte; (ii) com protocolos de transporte relevantes (e.g., Compound TCP, CUBIC) e(iii) em disputa no mesmo enlace com o Compound TCP e o CUBIC, utilizando aplicaçõesmultimídia (e.g., VoIP). Neste trabalho, simulações computacionais são utilizadas para comparar duas variantes do DCCP (CCID2 e CCID3) a três variantes do TCP (Compound TCP,CUBIC e TCP SACK), em cenários onde ocorrem situações de mundo real, incluindo utilização concorrente do enlace pelos protocolos, presença de erros de transmissão no enlace,variação de largura de banda, variação de latência, e variação de padrão e distribuição detráfego. Os resultados das simulações apontam que, sob contenção, na maioria dos cenárioso desempenho dos protocolos obedece à seguinte ordem de classificação: (i) DCCP CCID2;(ii) Compound TCP; (iii) TCP SACK; (iv) DCCP CCID3. Entretanto, os resultados tambémapontam que o DCCP CCID3 obtém desempenho significativamente melhor na presença deerros de transmissão, chegando a ultrapassar o desempenho do Compound TCP e do TCPSACK. Além disso, o DCCP CCID3 obtém melhor desempenho com valores maiores delatência e largura de banda. Por fim, o CUBIC obtém os melhores valores de vazão namaioria dos cenários, mas com o maior descarte de pacotes e a menor taxa de entrega

  • PRISCILA LÔBO GONÇALVES DORIA
  • “Avaliação de Desempenho de Variantes dos Protocolos DCCP e TCP em Cenários Representativos.”
  • Advisor : RICARDO JOSE PAIVA DE BRITTO SALGUEIRO
  • Data: May 15, 2012
  • Dissertação
  • View Dissertation/Thesis   Show resume
  • O Datagram Congestion Control Protocol (DCCP) é um proeminente protocolo de transporte que vem atraindo a atenção da comunidade científica pelos seus rápidos avanços e bonsresultados. A principal inovação do DCCP é a priorização de desempenho, como ocorre como UDP, mas com capacidade de realizar controle de congestionamento, como ocorre com oTCP. Entretanto, a literatura sobre o DCCP ainda é escassa e necessita ser complementadapara trazer elementos científicos suficientes para novas pesquisas. Neste contexto, este trabalho vem se somar aos esforços da comunidade científica para analisar, mensurar, comparare caracterizar o DCCP em cenários representativos que incorporem diversas situações de uso.Trabalhos anteriores já compararam o desempenho do DCCP com protocolos clássicos, entretanto limitando-se a um protocolo de cada vez por enlace, em enlaces supostamente isentos de falhas. Identificaram-se então três questões alvo, ainda em aberto na literatura: qualé o comportamento do DCCP (i) quando disputa o mesmo enlace com outros protocolos detransporte; (ii) com protocolos de transporte relevantes (e.g., Compound TCP, CUBIC) e(iii) em disputa no mesmo enlace com o Compound TCP e o CUBIC, utilizando aplicaçõesmultimídia (e.g., VoIP). Neste trabalho, simulações computacionais são utilizadas para comparar duas variantes do DCCP (CCID2 e CCID3) a três variantes do TCP (Compound TCP,CUBIC e TCP SACK), em cenários onde ocorrem situações de mundo real, incluindo utilização concorrente do enlace pelos protocolos, presença de erros de transmissão no enlace,variação de largura de banda, variação de latência, e variação de padrão e distribuição detráfego. Os resultados das simulações apontam que, sob contenção, na maioria dos cenárioso desempenho dos protocolos obedece à seguinte ordem de classificação: (i) DCCP CCID2;(ii) Compound TCP; (iii) TCP SACK; (iv) DCCP CCID3. Entretanto, os resultados tambémapontam que o DCCP CCID3 obtém desempenho significativamente melhor na presença deerros de transmissão, chegando a ultrapassar o desempenho do Compound TCP e do TCPSACK. Além disso, o DCCP CCID3 obtém melhor desempenho com valores maiores delatência e largura de banda. Por fim, o CUBIC obtém os melhores valores de vazão namaioria dos cenários, mas com o maior descarte de pacotes e a menor taxa de entrega

SIGAA | Superintendência de Tecnologia da Informação/UFS - - | Copyright © 2009-2024 - UFRN - bigua2.bigua2 v3.5.16 -r19032-7126ccb4cf