|
Descrição |
|
|
-
DANILO SOUZA SILVA
-
Uma Arquitetura Autonômica para a Alocação de Recursos Através de Migração de Serviços em Ambientes Fog Computing
-
Orientador : ADMILSON DE RIBAMAR LIMA RIBEIRO
-
Data: 20/12/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
Nos últimos anos, o número de dispositivos inteligentes tais como, smartphones, sensores eveículos autônomos, vem crescendo de forma significativa. Nesse cenário, a demanda computacionalnecessária para atender a demanda de aplicações sensíveis à latência em domínios comoIoT, Industria 4.0 e smart cities também está crescendo e o tradicional modelo de computação emnuvem já não é capaz de atender sozinho à todas as necessidades deste tipo de aplicação. Comoalternativa para esta limitação, foi introduzido um novo paradigma de computação chamadofog computing. Este paradigma define a arquitetura que estende a capacidade computacionale o armazenamento da nuvem para a borda da rede. Contudo, um dos principais problemasé como determinar de forma eficiente, onde os serviços serão alocados de modo a atenderdeterminadas necessidades de QoS para o provimento de serviços através de aplicações IoT. Opresente estudo, tem como objetivo apresentar uma estratégia de otimização para o problemade alocação de recursos utilizando migração de serviços através de um modelo de arquiteturaautonômico, baseado no laço de controle MAPE-K. À partir do modelo apresentado, a estratégiafoi implementada com tecnologia de virtualização em contêineres e avaliada em um ambientevirtual de larga escala para IoT, denominado VIoLET. Os resultados mostram que é possívelotimizar um ambiente de fog computing utilizando a migração de serviços entre os nós de acordocom objetivos estabelecidos e de forma autonômica. O trabalho contribui com uma revisão bibliográficado estado da arte sobre gerenciamento de recursos, a implementação de um ambientede monitoramento e orquestração para o VIoLET, além de contribuir com o desenvolvimento eavaliação da estratégia de otimização bem como, a análise da utilização de recursos da soluçãoproposta. Por fim concluímos o trabalho apresentando uma lista de promissoras direções depesquisas em linhas gerais para trabalhos futuros. Esperamos que o trabalho sirva como basepara trabalhos de pesquisas que buscam desenvolver técnicas de otimização para a utilização derecursos em ambientes fog computing.
|
|
|
-
ROBERTO VASCONCELOS MELO
-
Abordagem Imunológica de Segurança Baseada em Correlação de Alertas e Redes Programáveis
-
Orientador : DOUGLAS DYLLON JERONIMO DE MACEDO
-
Data: 12/12/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
Na área de segurança, foram desenvolvidas técnicas de detecção de anomalia para detectarpadrões de tráfego que não estão em conformidade com o comportamento esperado. Essespadrões representam ataques ou atividades maliciosas e são frequentemente referidos comoanomalias. Particularmente, algumas anomalias podem estar associadas a invasores que executamataques de negação de serviço distribuído (Distributed Denial-of-Service - DDoS) para degradara disponibilidade de serviços online. Ameaças na categoria DoS podem envolver estágios iniciais,como ataques de reconhecimento. Nesse tipo de ameaça, a rede é escaneada com o objetivo deencontrar maquinas vulneráveis e comprometê-las. Dessa forma, as vulnerabilidades detectadaspossibilitam o acesso não autorizado as maquinas por meio de ataques U2R, e R2L. Ondeas maquinas comprometidas poderiam ser utilizadas com o intuito de provocar a negação deserviço contra determinado alvo. No entanto, sistemas de detecção baseados em anomalia podemapresentar dificuldades na detecção de ameaças nas classes de reconhecimento, e DoS. Issoocorre porque as duas classes podem se esconder no tráfego normal devido à baixa intensidadede ataque requerida. Além disso, as técnicas de detecção baseadas em anomalia apresentam umaalta taxa de alarmes falsos, o que prejudica o desempenho da detecção. Enquanto as categoriasU2R, e R2L, também podem apresentar dificuldades no processo de detecção, pois ataques dessetipo estão contidos no conteúdo de seus pacotes, e portanto não consistem em uma sequência depadrões de tráfego de rede.Para atenuar esses problemas, o presente trabalho tem como objetivo apresentar uma abordagemde segurança com a função de detectar e mitigar ataques que exploram vulnerabilidades dainfraestrutura da nuvem. Essa abordagem consiste nos conceitos de imunologia, correlaçãode alertas, e redes programáveis. A partir dela, um sistema de detecção de intrusão baseadoem anomalia, e dentro da abordagem imunológica, é utilizado em conjunto com uma técnicade correlação de alertas baseada em grafos de ataque. O paradigma de sistemas imunológicosartificiais (AIS - Artificial Immune Systems) é inspirado pelo sistema imunológico humano e setrata de uma abordagem promissora para a detecção de anomalias. Esse paradigma consiste dequatro principais algoritmos conhecidos como, seleção negativa, seleção clonal, rede imune, eteoria do perigo. Neste trabalho, os três primeiros algoritmos são usados para implementar umsistema de detecção baseado em agentes distribuídos para analisar o tráfego de rede. O sistemadescrito é utilizado com o auxílio de grafos de ataque, que representam os caminhos que uminvasor pode explorar, para comprometer um sistema. Grafos de ataque apresentam informaçõesde vulnerabilidade entre hosts, de acordo com a topologia da rede. Se utilizado em conjuntocom um algoritmo de correlação de alertas, pode auxiliar na taxa de redução de alarmes falsos.Além disso, eles podem auxiliar na seleção de contramedidas baseadas na tecnologia de redesprogramáveis (SDN - Software Defined Networks). Onde recursos de interface e programaçãosão adicionados aos componentes da rede. Sendo assim essa tecnologia pode auxiliar na detecção ou na prevenção a ataques, através de medidas como redirecionamento, ou isolamento do tráfego,variação na topologia da rede, e mudanças de endereços IP.A adição da técnica de correlação na abordagem de segurança proposta aumentou o desempenhopara todas as classes de ataques estudadas.
|
|
|
-
TONICLAY ANDRADE NOGUEIRA
-
Uma Abordagem de Segurança do Sistema Asterisk em Plataformas Embarcadas Usando o Protocolo SIP
-
Orientador : ADMILSON DE RIBAMAR LIMA RIBEIRO
-
Data: 30/11/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
A preocupação com a segurança nas redes Internet Protocol (IP) vem crescendo exponencialmente.Medidas legais, como penas severas para criminosos virtuais, já são uma realidade. Váriosestudos estão sendo realizados com intuito de explorar os problemas de segurança relacionadosà VoIP.Por outro lado, dispositivos embarcados se mostram cada vez mais eficientes com sistemascomplexos e que exigem um bom desempenho. O software livre voz sobre IP Asterisk tem comofinalidade ser uma central telefônica, uma alternativa viável para ser utilizada em dispositivosembarcados sendo possível reduzir custos e maximizar resultados.Esta dissertação de mestrado realiza uma abordagem de segurança Usando o protocolo SIP doAsterisk em plataformas embarcadas. Em paralelo, também objetiva monitorar o consumo dememória RAM, processamento e consumo de energia eletrica nos momentos de três ataques desegurança do tipo Autenticação, Man-in- the-middle e de Negação de serviço DoS.Os resultados mostraram que o dispositivo Raspberry Pi 3 suporta de forma satisfatória os ataquesde Autenticação e Man-in- the-middle , mas o sistema Asterisk, no ataque de Negação de serviço,não consegue suportar o ataque a parti de quinhentos mil pacotes enviados pelo atacante, ficandosem possibilidade de realizar chamadas tendo seu funcionamento totalmente neutralizado. Comrelação ao consumo de energia notasse que o Raspberry Pi 3 em sua voltagem tende a ficar emum patamar médio de 5,19v (Voltage) e a Current variando entre -600,93mA a -832,41mA e oPower variando entre -3132,40mV a -4314,78mV tendo com parâmetro a quantidade de pacotesenviados pelo atacante de 0 a 25.000.000.
|
|
|
-
THIAGO DA SILVA ALMEIDA
-
Segmentação e Reconhecimento de Semáforos com Ajuda de Instrução Especialista
-
Orientador : HENDRIK TEIXEIRA MACEDO
-
Data: 26/10/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
Impulsionadas pelo alto número de pesquisas relacionados a veículos autônomos, as pesquisas sobre detecção e reconhecimento de semáforo tem crescido a cada ano. Além disso, técnicas de Aprendizado de Máquina tem sido amplamente utilizadas não apenas na pesquisa sobre reconhecimento de semáforos, como também em todos os campos em que pode ser útil generalizar dados e automatizar um comportamento humano. Os algoritmos de Aprendizado de Máquina requerem uma grande quantidade de dados para funcionar adequadamente e, por causa disso, precisam de muito poder computacional. Nesta dissertação foi investigado o uso de Conhecimento ou Instrução Especialista - IE na tentativa de reduzir a quantidade de dados exigidos por um algoritmo de Aprendizado de Máquina. O conhecimento especialista escolhido para ser utilizado como instrução foi a localização do semáforo numa dada imagem obtida do interior do veículo. Esta estratégia se baseia na teoria de que há maior probabilidade do semáforo aparecer em certas regiões como, por exemplo, nas regiões centrais e superiores da imagem. Foram construídos mapas de frequência de semáforos para validar essa teoria. Os mapas são o resultado da análise de um especialista humano sobre uma série de imagens, o especialista marca em cada imagem as coordenadas da região em que o(s) semáforo(s) aparece(m). Os resultados mostram que a inclusão do IE aumentou em pelo menos 15% a taxa de acurácia obtida pelo algoritmo de treinamento em dois bancos de imagem diferentes. A as taxas de avaliação alcançadas pela inclusão de IE também foram superiores num experimento completo incluindo a detecção de semáforo seguida da classificação pelo algoritmo treinado, neste teste a inclusão de IE obteve 83% de precisão e 73% de cobertura, enquanto o algoritmo de treinamento tradicional alcançou 75,3% de precisão e 51,1% de cobertura. Este trabalho também apresenta um protótipo de Dispositivo Reconhecedor de Semáforos (DRS) que pode ser utilizado para criar bancos de imagens e como suporte ao motorista. O DRS proposto utiliza um smartphone como câmera e unidade de processamento. Para validar o layout do protótipo, um conjunto de dados foi obtido e testado em um algoritmo de filtro de supressão de fundo adaptável (Adaptive Background Suppression Filter - AdaBSF) e Support Vector Machines (SVMs) para detectar e reconhecer semáforos. A aplicação do AdaBSF e subsequente classificação com SVM ao conjunto de dados alcançou uma taxa de precisão de 100% e reconvocação/cobertura de 65%.
|
|
|
-
LUIS EDUARDO DE SOUZA SANTOS
-
Um Processo para Elicitação e Documentação de Requisitos em Nível de
Usuário por Meio de uma Pesquisa-Ação em uma Instituição Pública
-
Orientador : MICHEL DOS SANTOS SOARES
-
Data: 18/10/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
A Engenharia de Requisitos se destaca como uma fase fundamental na Engenharia de Software, por instituir uma visão estrita e comum entre o cliente e a equipe do projeto sobre os requisitos do software a ser desenvolvido. Embora ainda haja alguma dificuldade, é possível encontrar especialistas em codificação de software nas várias linguagens de programação utilizadas atualmente, porém especialistas em requisitos de software são profissionais escassos no mercado. A definição dos requisitos de um software determinam o escopo e os limites do sistema que deve ser fornecido. Quando Analistas de Sistemas cometem erros durante as atividades de elicitação e documentação dos requisitos é provável que surjam problemas nas próximas atividades do ciclo de desenvolvimento do software. Os custos despendidos para resolução de problemas inseridos na documentação de requisitos podem elevar-se significativamente a medida que novas fases são iniciadas no ciclo de desenvolvimento. É comum encontrar empresas privadas ou instituições públicas com dificuldades para elicitar e documentar requisitos, seja pela falta de um processo específico ou pelo fato de não possuírem profissionais capacitados para realizarem essas atividades. A realização deste estudo teve como principal motivação a resolução dos problemas relacionados a documentação de requisitos em nível de usuário enfrentados por uma Instituição Pública na condução de seus projetos de software. Para resolver este problema foi realizado um estudo utilizando a metodologia da pesquisa-ação nesta instituição, com objetivo de propor e aplicar um processo para elicitação e documentação de requisitos em nível de usuário. No processo foi utilizado um template para documentação de requisitos utilizando a SysML. Durante a execução do estudo foi realizada uma avaliação qualitativa para verificar a eficácia do processo. Participaram do estudo de pesquisa-ação doze Analistas de Sistemas representantes da instituição, distribuídos em cinco projetos. A metodologia utilizada mostrou-se eficaz e proporcionou a construção da resolução do problema de forma participativa, envolvendo os pesquisadores e participantes do estudo. Os resultados obtidos sugerem que a intervenção realizada alcançou resultados positivos, inclusive com evidências de melhorias na elicitação e documentação dos requisitos em nível de usuário.
|
|
|
-
DENISSON SANTANA DOS SANTOS
-
Sistema de Recomendação de frameworks para Desenvolvimento Multiplataforma em Dispositivos Móveis
-
Orientador : ALBERTO COSTA NETO
-
Data: 31/08/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
O número e a variedade de dispositivos móveis têm crescido bastante atualmente, assim como o número de plataformas de diferentes fabricantes, sistemas operacionais e linguagens de programação existentes no mercado. Para acompanhar esse crescimento, os desenvolvedores, com o objetivo de disponibilizar suas aplicações para o maior número de plataformas, buscam cada vez mais otimizar a forma de desenvolver aplicativos mobile. Criar a mesma aplicação específica para cada plataforma demanda maior investimento financeiro, tempo e mão de obra. Para diminuir esses problemas surgiram os frameworks de desenvolvimento mobile para multiplataformas, onde torna-se possível a criação de aplicações para várias plataformas a partir do mesmo código fonte. No entanto, surge um dilema tanto para o desenvolvedor quanto para empresas de desenvolvimento: a pluralidade e diversidade desses frameworks, pois cada um possui objetivos e características que se aproximam e, em outros casos, distanciam-se um dos outros. Como por exemplo as diferentes linguagens usadas no desenvolvimento, as diferentes plataformas e recursos suportados, os diversos tipos de licença, dentre outros. Além disso, existe uma demanda por aplicativos de diversas finalidades e equipes de trabalhos com diferentes perfis de formação. Por esses motivos apresentados, a escolha do framework não é trivial. Com o objetivo de ajudar os desenvolvedores e empresas de desenvolvimento de software mobile, este trabalho apresenta uma abordagem capaz de indicar qual framework de desenvolvimento de aplicativos multiplataforma é mais adequado para um projeto. Ademais, a abordagem supracitada foi implementada através de um sistema de recomendação que considerou os fatores críticos de um dado projeto informados pelo desenvolvedor.
|
|
|
-
RODRIGO OCTÁVIO MELO DO AMARAL
-
Otimização com Muitos Objetivos por Múltiplos Enxames Aplicada ao Escalonamento Dinâmico de Projetos de Software
-
Orientador : ANDRE BRITTO DE CARVALHO
-
Data: 31/08/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
Os processos da Engenharia de Software geralmente envolvem problemas com requisitos e restrições conflitantes. Para a solução desses problemas, recentemente surgiu o conceito deSearch Based Software Engineering (SBSE). A SBSE consiste basicamente no uso de algoritmos de busca e otimização para encontrar soluções de forma automática e equilibrar o compromissoentre os objetivos dos problemas comuns a suas várias ramificações. Uma das áreas da SBSE ocupa-se do gerenciamento de projetos de software, sendo que um de seus principais desafiosé o problema de escalonamento de projetos de software (SPSP, do inglês Software Project Scheduling Problem). Soluções para este problema buscam montar um cronograma de projeto de modo que a alocação dos empregados às tarefas disponíveis minimize tanto a duração total do projeto quanto seu custo final, caracterizando o SPSP como um problema de otimização multiobjetivo. No entanto, o ambiente de projetos de software está sujeito a muitas incertezas, o que faz com que o espaço de soluções possíveis se transforme ao longo do tempo. Essa natureza dinâmica traz a necessidade de que os cronogramas sejam também estáveis e robustos frente a mudanças, introduzindo novos objetivos a serem conciliados. Assim, nessa nova abordagem o SPSP é modelado como um problema de otimização dinâmica com muitos objetivos (quandohá mais de três funções objetivo). Este trabalho tem como objetivo investigar a aplicação de algoritmos de otimização multiobjetivo ao problema de escalonamento dinâmico de projetos desoftware (DSPSP). Para isso, foi utilizada a meta-heurística de otimização por múltiplos enxames de partículas, abordagem ainda pouco explorada para aplicação ao DSPSP. O algoritmo propostoexplora características do problema, buscando conciliar tanto o aspecto de otimização dinâmica, por meio do uso de múltiplas populações, quanto o de ser um problema com muitos objetivos,por meio dos métodos de arquivamento. Além da utilização de múltiplos enxames, o trabalho explora também o uso de mais dois algoritmos multiobjetivo já aplicados a outros problemasna área de SBSE, porém ainda não aplicados ao problema de SPSP dinâmico. Em conjunto com a otimização por múltiplos enxames, são exploradas ainda algumas estratégias heurísticasdinâmicas para a inicialização das populações, de forma a aproveitar características das melhores soluções já encontradas. Essas estratégias também são aplicadas aos demais algoritmos avaliados,a fim de verificar como elas influenciam o desempenho. A validação do algoritmo é feita por meio de um conjunto de experimentos que comparam o algoritmo proposto com dois algoritmos consagrados da literatura (NSGA-II e SMPSO).
|
|
|
-
OTHON STUART FERREIRA CAMPOS
-
Data Analytics Transparente para Descoberta de Padrões e Anomalias na Realização de Convênios e Contratos de Repasse Federais
-
Orientador : METHANIAS COLACO RODRIGUES JUNIOR
-
Data: 29/08/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
Contexto: As recentes políticas de disponibilização de dados públicos pelo governo federal devem estimular a participação da população na fiscalização da transparência da gestão. Esta participação pode ser potencializada e estimulada, desde que os dados fornecidos pelo governo sejam estruturados e dispostos de uma forma entendível, ou efetivamente transparente, para o cidadão. Quando isto não ocorre, pesquisas sobre dados abertos podem contribuir com a estruturação, autenticação, interpretação, organização, tradução, descoberta de padrões e disponibilização de informação útil para tomada de decisão e para o controle social exercido pela população. Objetivo: Este trabalho teve como objetivo aplicar técnicas de Data Analytics e Mineração de Dados, para analisar dados públicos sobre convênios e contratos de repasse federais, avaliando a possibilidade de criação de aplicação transparente para encontrar correlações e anomalias que evidenciem ilegalidade administrativa (www.transparenciatraduzida.com.br). Método: Foi realizado um mapeamento sistemático, para caracterizar os últimos 10 anos na área, um estudo de caso para identificação de outliers, bem como um experimento, para descoberta de regras de associação envolvendo parlamentares, com o suporte de análises estatísticas e testes de hipóteses. Resultados: Não foram encontrados trabalhos sobre convênios e repasses federais, nas bases científicas indexadas pelo Scopus. Após a execução do estudo de caso, identificou-se 36 convênios com valores aberrantes (outliers), totalizando R$ 47.961.892,70. Com a execução do processo experimental, foram identificadas duas regras de associação entre parlamentares e áreas. Conclusão: Constatou-se o baixo número de publicações primárias, na área de análise inteligente de dados para Governança Pública, evidenciando um grande campo para desenvolvimento de pesquisas futuras. Foram encontrados diversos valores aberrantes (outliers) entre os valores dos convênios ainda em execução no Brasil, inclusive no Estado de Sergipe. Em se tratando do experimento realizado para Sergipe, após aplicação do algoritmo para descoberta de regras de associação, foram encontradas apenas duas regras significantes. Estas descobertas iniciais e suas explicações, em um nível entendível para a população, evidenciam a necessidade de tradução popular dos dados abertos brutos brasileiros, legitimando o verdadeiro conceito de transparência.
|
|
|
-
JONATAS CEZAR VIEIRA SANTOS
-
Utilização de Técnicas de Redução de Dimensionalidade em Algoritmos de Otimização com Muitos Objetivos no Problema de Sincronização de Semáforos
-
Orientador : ANDRE BRITTO DE CARVALHO
-
Data: 29/08/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
A mobilidade urbana é um problema atual da sociedade moderna e dos grandes centros urbanos. Os Sistemas Inteligentes de Transporte (ITS) utilizam a tecnologia para tentar resolver essesproblemas de mobilidade. No contexto de ITS, a gestão de tráfego é uma área que utiliza novos conceitos de organização e manutenção do tráfego, buscando obter um fluxo de tráfego dequalidade. A sincronização de semáforos é um deles e seu principal objetivo é garantir que os veículos tenham uma boa fluidez no trânsito, garantindo percorrer um trajeto em menos tempopossível. Com uma sincronização atingida, as medidas de qualidade tendem a melhorar, como a redução de emissão de poluentes, consumo de combustível, tempo de atraso, velocidade médiaglobal e outras. Indicar o melhor tempo semafórico é uma tarefa bastante complexa. É difícil modelar uma situação real, pois existem cadeias de cruzamentos, com características diferentes.A otimização em sincronização de semáforos se classifica como problema NP-Completo, a dificuldade do problema cresce exponencialmente, quando os números de variáveis de decisãoe de medidas de qualidades aumentam. Sendo assim, nenhuma técnica clássica seria capaz resolvê-lo em um tempo razoável. Uma solução, é modelar o problema como de otimização,através de um simulador de tráfego. Com o simulador é capaz de construir uma representação computacional semafórica, composta por vias, rotas, veículos, cruzamentos e semáforos. Apartir de configurações de condições de fluxo em cenários diferentes, podemos obter essas medidas de qualidades, tratadas como objetivos, extraídas do próprio simulador. O problema émodelado como de otimização multiobjetivo e por trabalhar com mais de 3 funções objetivos, é classificado como de otimização com muitos objetivos. Algoritmos tradicionais enfrentamproblemas na otimização com muitos objetivos, uma das técnicas para resolver é a redução de objetivos. O objetivo desse trabalho é utilizar técnicas de aprendizagem de máquina de reduçãode dimensionalidade, para redução de objetivos no problema de sincronização de semáforos. Foram aplicadas duas técnicas na busca de identificar os objetivos os essenciais e descartar osdemais para reduzir. As técnicas trabalhadas foram o L-PCA e o K-PCA utilizando os kernels polinomial, RBF e sigmoide. Uma otimização, utilizando os algoritmos NSGA-II e NSGA-III,foi aplicada nos conjuntos contendo todos os objetivos, foram trabalhados 12, e também para os subconjuntos obtidos pela redução. Foram feitas comparações das otimizações entre os conjuntossem redução e os subconjuntos reduzidos. Também foram executados testes para identificar se houve diferença estatística entre os algoritmos. Os resultados mostraram que o NSGA-III obtevemelhores resultados, e o K-PCA com kernel polinomial foi o melhor algoritmo de redução, conseguindo até superar o NSGA-III sem redução. Concluiu também que não houve diferençaestatística entre os algoritmos, sendo assim, trabalhar com um conjunto menor de objetivos, se tem um desempenho melhor na otimização sem perder a qualidade das informações.
|
|
|
-
DAVY OLIVEIRA BARROS SOUSA
-
Rastreamento de Células em Vídeos 3D
-
Orientador : HENDRIK TEIXEIRA MACEDO
-
Data: 28/08/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
Realizar o rastreamento de células é importante para a cura e prevenção de doenças. Isso se deve ao fato da motilidade celular estar ligada a vários processos celulares. Porém, realizar a análise da trajetória de uma célula não é um trabalho simples, pois para armazenar as informações da trajetória é necessário uma grande quantidade de imagens, principalmente em imagens 3D. Dessa forma, faz-se necessário a criação de algoritmos que possam realizar o rastreamento celular de forma prática e automática. Neste trabalho foi dada continuidade ao trabalho de conclusão de curso (TCC) de Sousa (2015) de forma a melhorar o algoritmo de rastreamento já implementado por ele. Para suprir as deficiências do algoritmo implementado por Sousa (2015), foram feitas modificações na fase de segmentação, de rotulação e de rastreamento. Além disso, foram adicionados métodos para a detecção de divisão celular e a entrada e saída de novas células do vídeo. A validação do algoritmo foi feita por meio de um software de avaliação que possui rotinas tanto para a parte de segmentação quanto para a de rastreamento. Foram utilizados 11datasets para a validação, sendo que o algoritmo proposto conseguiu obter resultados para 7 deles. Dentre os 7 datasets, 3 eram 2D e os outros 4, 3D. Embora os resultados não tenham sido satisfatórios para os datasets 2D, os 3D obtiveram resultados satisfatórios durante a fase de rastreamento, com médias de acurácia variando de 90.1% a 94.4%. A partir da validação, percebeu-se que, mesmo tendo obtido valores satisfatórios, inclusive alguns deles melhores que alguns encontrados no estado da arte, o algoritmo ainda precisa de melhorias.
|
|
|
-
JOSÉ DOS SANTOS MACHADO
-
Implementação de uma Fog Computing para Fornecer StaaS a Dispositivos IoT Utilizando Sistemas Embarcados
-
Orientador : EDWARD DAVID MORENO ORDONEZ
-
Data: 21/08/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
A IoT (Internet das Coisas) necessita de muitos serviços para ser uma realidade, por ter recurso de processamento e armazenamento muito restrito, a sua interconexão com a Cloud Computing é um fator relevante e de elevada atenção para pesquisadores do mundo inteiro. As questões de latência, big data, armazenamento e poder de processamento próximo dos dispositivos de borda, fez com que surgisse a Fog Computing. A Fog Computing é a interligação entre os dispositivos IoT e a Cloud Computing, e pode levar poder de processamento e armazenamento aos dispositivos IoT, sendo possível o surgimento de novas tecnologias e aplicações para poder sanar essas deficiências encontradas hoje. Esta dissertação apresenta o conceito da Fog Computing, seus desafios, sua contextualização teórica, os trabalhos correlatos junto com a revisão sistemática e realiza a implementação e análise de uma Fog Computing, para fornecer StaaS (Storage as a Service), a dispositivos IoT utilizando plataformas de sistemas embarcados e compara seus resultados com os obtidos por um servidor de alto desempenho. Desenvolve o sistema FogSys com o objetivo principal de simular, receber, validar e armazenar os dados de dispositivos IoT para serem transferidos para Cloud Computing, funcionando como uma Fog Computing para fornecer o serviço de StaaS (Storage as a Service). Os resultados demonstraram que a implementação desse serviço em dispositivos de sistemas embarcados pode ser uma boa alternativa para reduzir um desses problemas, no caso, o armazenamento de dados, que atinge hoje os dispositivos IoT.
|
|
|
-
RAQUEL MONTEIRO DE CASTRO TAVARES FIGUEIREDO
-
Modelo de Inferência da Confiança por meio de Critérios Cognitivos e Afetivos
-
Orientador : MARIA AUGUSTA SILVEIRA NETTO NUNES
-
Data: 10/08/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
Comunidades Virtuais de Aprendizagem são espaços caracterizados pela comunicação e cooperação de seus participantes. Podem ser utilizadas como salas de aulas virtuais para o ensino não presencial (Ensino a Distância) ou como ferramentas de apoio ao ensino presencial (interação extra aula). No entanto, sua eficiência depende do comprometimento de seus membros que enriquecem as comunidades virtuais com o compartilhamento de informações, materiais e cooperam com os demais membros. Quando situações de divergências, ausência de informações ou cooperação com outros membros ocorrem podem acarretar na falta de confiança, desinteresse e desmotivação a cooperação. Desse modo, cabe ao professor/tutor, como mediador, estimular e auxiliar os alunos a estabelecerem relações de confiança. A confiança, portanto, apresenta-se como um fator relevante às interações sociais. É um indicativo da motivação e da intenção de cooperação dentro desses espaços virtuais. Modelos computacionais de confiança atribuem a esses ambientes a capacidade de inferir a confiança entre indivíduos e dão ao professor uma visão mais próxima daquela proporcionada em ambientes físicos. O modelo de confiança proposto por esta dissertação utiliza os critérios de propensão à confiança, familiaridade, reputação e risco para a inferência da confiança que o aluno deposita em seu professor. Os resultados obtidos com a aplicação do modelo a ambientes de comunidades virtuais reais forneceram indicações de que a confiança de um aluno em seu professor pode ser inferida considerando os critérios de propensão à confiança, familiaridade, reputação e risco envolvidos em sua interação na comunidade.
|
|
|
-
FLÁVIO ARTHUR OLIVEIRA SANTOS
-
Sobre o uso de conhecimento especialista para auxiliar no aprendizado de Word Embeddings
-
Orientador : HENDRIK TEIXEIRA MACEDO
-
Data: 31/07/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
Representações de palavras são importantes para muitas tarefas de Processamento de Linguagem Natural (PLN). Estas representações têm como objetivo substituir a forma escrita das palavras por uma representação numérica, mais adequada para etapas de processamento. Obter boas representações é muito importante uma vez que a maioria dos métodos de aprendizado de máquina responsáveis pelas soluções dos problemas de PLN consistem de modelos matemáticos que fazem uso dessas representações numéricas capazes de incorporar as informações sintáticas e semânticas das palavras. Os chamados Word Embeddings, vetores de números reais gerados através de modelos de aprendizado de máquina, é um exemplo recente e popularizado dessa representação. GloVe e Word2Vec são modelos bastante difundidos na literatura que aprendem tais representações. Porém, ambos atribuem uma única representação vetorial para cada palavra, de forma que: (i) ignoram o conhecimento morfológico destas e (ii) representam paráfrases a nível de palavra com vetores diferentes. Não utilizar o conhecimento morfológico das palavras é considerado um problema porque este conhecimento é composto de informações muito importantes, tais como, radical, desinência de gênero e número, vogal temática e afixos. Palavras com essas características em comum devem ter representações semelhantes. As representações de paráfrases a nível de palavra devem ser semelhantes porque são palavras com escritas diferentes mas que compartilham o significado. O modelo FastText representa uma palavra como uma bag dos n-grams dos caracteres na tentativa de resolver o problema (i); assim, cada um destes n-gram é representado como um vetor de números reais e uma palavra é representada pela soma dos vetores dos seus respectivos n-grams. Entretanto, utilizar todos os n-grams possíveis dos caracteres é uma solução de força bruta, sem qualquer embasamento científico e que compromete (ou inviabiliza) a performance do treinamento dos modelos na maioria das plataformas computacionais existentes em instituições de pesquisa, por ser extremamente custoso. Além disso, alguns n-grams não apresentam qualquer relação semântica com suas respectivas palavras de referência (observe como exemplo, a palavra american e seu 5-gram, erica). Para resolver este problema, este trabalho propõe o modelo Skip-Gram Morfológico. A hipótese de pesquisa levantada é a de que ao se trocar a bag dos n-grams dos caracteres pela bag de morfemas da palavra, palavras com morfemas e contextos similares também irão ser similares. Este modelo foi avaliado com 12 tarefas diferentes: Google, MSR, SE-2012, MEN, MTurk, RG65, RW, SimLex999, WS353, AP, BLESS e BATTIG. Essas tarefas tem como finalidade avaliar o quanto os word embeddings aprendidos incorporam as informações sintáticas e semânticas das palavras. Os resultados obtidos mostraram que o modelo Skip-Gram Morfológico é competitivo se comparado ao FastText, sendo 40% mais rápido. Para tentar resolver o problema (ii), este trabalho propõe o método GloVe Paráfrase, onde uma base de dados de paráfrases a nível de palavra é utilizada para enriquecer o método GloVe original com esta informação e, assim, os vetores das paráfrases tornarem-se mais semelhantes. Os resultados da aplicação deste método mostraram que o GloVe Paráfrase necessita de menos épocas de treinamento para obter boas representações vetoriais. Por exemplo, na tarefa SimLex999, enquanto o GloVe Paráfrase atinge uma acurácia de aproximadamente 22.5 já na primeira época, o GloVe original atinge esse resultado apenas na sétima época.
|
|
|
-
MARCEL OLIVEIRA ALVES
-
ARNeuro: Mobile Augmented Reality for Craniotomy Planning
-
Orientador : DANIEL OLIVEIRA DANTAS
-
Data: 30/07/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
Cirurgias minimamente invasivas tornaram-se importantes porque propiciam vários benefícios para o paciente, tais como redução do risco de infecção, menos dor, menor tempo de internação e recuperação mais rápida. Na neurocirurgia, a orientação por imagens é fundamental para a realização de uma cirurgia minimamente invasiva. Por esse motivo, os sistemas de neuronavegação tornaram-se cruciais para os neurocirurgiões. Enquanto as técnicas tradicionais para localização de craniotomia podem apresentar erros de mais de 10mm, os neuronavegadores proporcionam maior precisão, com erros menores do que 5mm.
Apesar de seu papel crucial nos procedimentos neurocirúrgicos, muitos cirurgiões afirmam que a usabilidade dos neuronavegadores tem que ser melhorada. Outros mencionam que os neuronavegadores são caros e inacessíveis em hospitais com poucos recursos. Nesse contexto, alguns pesquisadores sugeriram que soluções de realidade aumentada poderiam ser uma alternativa aos neuronavegadores. Os sistemas de realidade aumentada estão surgindo na neurocirurgia, alguns deles tentando fornecer melhor usabilidade do que os sistemas atuais de neuronavegação, e outros tentando fornecer uma solução mais barata e que possa ser facilmente adotada.
Neste trabalho, analisamos os avanços dos sistemas de realidade aumentadade de neuronavegação nos últimos anos. Percebeu-se que muitas soluções de realidade aumentada superam algumas das deficiências do neuronavegador, mas também trazem novos problemas. Essas abordagens de realidade aumentada podem ser caras e difíceis de serem adotadas, ou exigem muitas etapas pré-operatórias por parte do neurocirurgião, tornando-as indesejáveis para uso em casos reais.
Para resolver esses problemas, apresentamos um aplicativo para dispositivos móveis, chamado ARNeuro, que auxilia na localização da craniotomia. O ARNeuro é mais acessível e mais fácil de usar do que a maioria das abordagens de realidade aumentada. Além disso, o ARNeuro é um aplicativo independente, o que significa que não é necessário nenhum hardware ou software adicional, além do que já está disponível nos hospitais. Nossa solução utiliza Odometria Inercial Visual, através de um framework de realidade aumentada, para indicar o centro da região da incisão, sobreposta na cabeça do paciente, mostrada na tela do dispositivo. Nossos experimentos iniciais indicam que o ARNeuro é uma ferramenta promissora, com um erro médio geral menor do que 4,5mm. Apesar disso, o sistema ainda tem muitas limitações e sua acurácia precisa ser melhorada.
|
|
|
-
FABRÍCIO SILVA MELO
-
Extração de relações a partir de dados não estruturados baseada em deep learning e supervisão distante
-
Orientador : HENDRIK TEIXEIRA MACEDO
-
Data: 11/06/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
Extração de relação é a tarefa de extrair relações entre entidades nomeadas de textos em lingua- gem natural. Este trabalho apresenta uma técnica de recuperação de informação para extração de relações com redes neurais convolucionais treinadas para o reconhecimento de padrões de sentenças representadas sobre word2vec de baixa dimensão e position embeddings. Foi feita uma avaliação da distribuição de amostras em cada tipo de relação em um conjunto de dados construído por supervisão distante, a partir da base de conhecimento FreeBase, largamente utilizado para treinamento pelos mais recentes trabalhos de extração de relações.
Foi constatado que esses trabalhos fizeram referência à qualidade de classificação de relações generalizando conclusões bastante otimistas baseadas em um conjunto de dados fortemente desbalanceado, usando, inclusive, metodologias de amostragem estatisticamente inapropriadas na construção do conjunto de teste. Esse conjunto de dados foi tratado utilizando amostragem estratificada aleatória para seu uso no treinamento e teste do modelo convolucional proposto utilizando validação cruzada k-fold estratificada.
Os experimentos demonstram que o modelo proposto pode alcançar 87.0% de precisão e 88.0% de recall. Esses resultados concluem que nosso modelo supera o estado da arte em classificação de relações.
|
|
|
-
THIAGO DIAS BISPO
-
Arquitetura LSTM para classificação de discursos de ódio cross-lingual Inglês-PtBR
-
Orientador : HENDRIK TEIXEIRA MACEDO
-
Data: 08/06/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
Uma das consequências da popularização do acesso à Internet é a disseminação de insultos e mensagens discriminatórias, os chamados discursos de ódio (do inglês, hatespeech). São comentários que visam discriminar alguém ou um conjunto de pessoas por pertencerem a um certo grupo, normalmente minoritário, ou possuírem alguma característica também comum a outras pessoas. O combate aos discursos de ódio é uma demanda crescente na vida real e virtual pois eles afetam profundamente a dignidade de suas vítimas. Detecção de discursos de ódio é uma tarefa difícil porque, além da linguagem natural ser inerentemente ambígua, ela exige certo nível de compreensão de sua estrutura linguística. Em muitos discursos, a discriminação não acontece de forma explícita ou com expressões típicas: é preciso ter conhecimento do mundo para reconhecê-las. Além disso, algumas vezes é necessário entender o contexto da frase para perceber seu teor odioso. O sarcasmo é outro desafio enorme (até para humanos) uma vez que sua presença exige conhecimento da comunidade e potencialmente do usuário responsável pelo comentário para o entendimento de sua intenção. Diversas abordagens foram propostas para reconhecimento do hatespeech. Muitos autores consideram N-grams, dentre os quais aqueles baseados em caracteres mostram-se mais efetivos que aqueles baseados em palavras. Combinadas ou não aos N-grams, features léxicas também foram estudadas, como a presença ou não de palavras negativas, classes ou expressões indicativas de insulto, sinais de pontuação, repetições de letras, presença de emojis, etc. Features linguísticas mostraram-se ineficientes quando utilizadas isoladamente, como POS tag, e a relação entre os termos da árvore de dependência resultante da análise sintática. Recentemente, a abordagem mais bem sucedida usou uma rede neural para criar uma representação distribuída das sentenças presentes em um corpus de discursos de ódio, indicando que o treinamento de word embeddings é um caminho promissor na área de detecção de discursos de ódio. A língua afeta drasticamente as tarefas de Processamento de Linguagem Natural (PLN), uma vez que a maioria das palavras, se não todas, são diferentes de uma língua para outra, além de sua sintaxe, morfologia e construções linguísticas. Por esta razão, os trabalhos em língua inglesa não são diretamente aplicáveis em corpora de língua portuguesa. Além disso, corpora em português para discursos de ódio são raros, fazendo com que pesquisadores da área precisem realizar todo o trabalho de construção. Nessa dissertação foi estudado o uso de um modelo deep cross lingual Long Short-Term Memory (LSTM), treinado com um dataset de discursos de ódio traduzido do Inglês de duas diferentes maneiras, pré-processado e vetorizado, com variadas estratégias que foram representadas em 24 cenários. As principais abordagens adotadas consideraram: o treinamento de embeddings através de vetores de índices de palavras (técnica Estado da Arte), vetores TFIDF, vetores N-grams, com ou sem vocabulário GloVe, testados com o dataset construído e rotulado neste trabalho e com outro disponível em português. O processo invertido também foi experimentado: traduzimos o nosso corpus para o Inglês e comparamos o desempenho com sua versão original. Com os embeddings resultantes do processo de treinamento em cada cenário, usamos uma Gradient Boosting Decision Tree (GBDT) como forma de seleção de features para melhorar a classificação. De fato, os resultados obtidos com a LSTM foram melhorados em muitos cenários. Alcançamos precisão de até 100% nos experimentos usando o modelo treinado com o corpus em Inglês e nosso dataset traduzido para esta língua. Alguns cenários tiveram um desempenho apenas razoável, com precisão em torno de 70%, por exemplo, e, em outros, técnicas tradicionais e bem sucedidas como vetores TFIDF associados à uma LSTM não se mostraram suficientes. Duas importantes contribuições deste trabalho são: (i) proposta de uma abordagem de pesquisa alternativa de ataque ao problema baseada na tradução de corpora e a (ii) disponibilização de um dataset de discursos de ódio em língua portuguesa para a comunidade.
|
|
|
-
ERICK BARROS NASCIMENTO
-
Arquitetura de Rede Programável para Information Centric Network ICN com Replicação de Conteúdo em Private Clouds
-
Orientador : DOUGLAS DYLLON JERONIMO DE MACEDO
-
Data: 30/05/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
A Internet lidera o modo como as informações, serviços e conteúdos são disponibilizados em formato digital. O acesso a esses conteúdos pode ser possível de qualquer lugar, pelos mais variados dispositivos. Entretanto, a configurabilidade da arquitetura de redes convencional é dificultada pela diversidade de sistemas embarcados presentes nos ativos de rede, onde as informações que consumem seus recursos não possuem um gerenciamento efetivo, ao mesmo tempo que, problemas específicos não são detectados com facilidade pelos sistemas e nem pelas equipes de infraestrutura, como a duplicação do tráfego de requisições HTTP no enlace.
Esta pesquisa realiza um estudo experimental com proposta de arquitetura descentralizada para redes de conteúdo. A arquitetura centraliza todo o gerenciamento desacoplando o controle dos concentradores da rede, permitindo a aplicação das configurações on-the-fly. Com o advento das redes definidas por software (do inglês, Software Defined Networking (SDN)), surgem novas possibilidades para o gerenciamento de redes promovendo novos contextos para as redes cêntricas de informação (do inglês, Information Centric Network (ICN)). Essas possibilidades podem ser alcançadas por meio da programabilidade da rede com extensão remota do plano de dados para nuvem.
Este trabalho apresenta e valida um protótipo de redes de conteúdo, disponibilizado em um domínio estabelecido e replicado entre os mesmos, onde cada endpoint executa um microcache para otimização do tempo de requisição e resposta. Além disso, uma cópia minimizada desse backend está posto na nuvem em um servidor privado (do inglês, Virtual Private Server (VPS)) permitindo a alta disponibilidade do ambiente. O sistema possuí dois proxies reversos capazes de assumir o controle do plano de dados sem percepção para o usuário, mantendo alta performance e otimização através do algoritmo de balanceamento de carga Least_Conn.
A validação ocorreu por meio de três cenários. No primeiro, foi avaliado aspectos inerentes ao funcionamento de uma rede de computadores, logo, latência, perda e vazão foram explorados. No segundo cenário, foi avaliado aspectos acerca do tunelamento para a nuvem com requisição direcional e bidirecional obtendo atraso e perda de pacotes. Por fim, aspectos de replicação, cacheamento, banda de contenção, otimização, banda alcançável, Cache Hit Ratio (CHR), Tempo Médio entre Falhas (MTBF) e Tempo Médio para Reparos (MTTR) foram apresentados, alcançando bons resultados para ICNs com SDN. O trabalho é concluído apontando para o estudo da latência de controladores SDN devido a variações no sistema, mas que não impactaram significativamente nos objetivos da pesquisa.
|
|
|
-
BRÁULIO LÍVIO DIAS CAVALCANTE JÚNIOR
-
Arquitetura Híbrida de Armazenamento no Contexto da Internet das Coisas
-
Orientador : DOUGLAS DYLLON JERONIMO DE MACEDO
-
Data: 29/05/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
A IoT se faz presente como uma das grandes áreas de inovação em tecnologia. Com ela, é possível compartilhar informações através do uso de dispotivos pequenos, considerados em muitos casos como pervasivos, ou seja, que estão presentes no cotidiano das pessoas sem serem percebidos.
A computação em nuvem tornou-se um componente-chave para desenvolver aplicativos de IoT. Enquanto o número de dispositivos aumenta, uma grande quantidade de dados é gerada. Desse modo, é necessário tratar adequadamente o armazenamento e acesso desses dados de maneira otimizada.
Existem diferentes formas de gerenciar e armazenar dados. A abordagem relacional (SQL), o armazenamento não-relacional (NoSQL), NewSQL e modelos de armazenamento em larga escala baseados em nuvem, são exemplos. Para o contexto de aplicações de IoT, é comum lidar com dados não estruturados, em sua maioria, além destas aplicações demandarem alta flexibilidade. Para aplicações que utilizam estes tipos de requisitos, estudos indicam o uso de arquiteturas de armazenamento que utilizem bancos de dados não relacionais, conhecidos como NoSQL. Estes tipos de armazenamento flexibilizam restrições de consistência e integridade, além de utilizar mecanismos otimizados de replicação e acesso.
O presente trabalho tem como objetivo propor uma arquitetura de armazenamento híbrido para Internet das Coisas. Para validá-la, experimentos utilizando NoSQL foram feitos para dados escalares, multimídia e posicionais, 3 dos principais tipos de dados de sensores de IoT. Após os experimentos, foi identificado que o banco de dados Redis, do tipo chave-valor, obteve o melhor desempenho para escrita e consulta destes tipos de dados.
|
|
|
-
FLAYGNER MATOS REBOUÇAS
-
PREOrg: Um Guia para Elicitação de Requisitos Orientado ao Desempenho Organizacional
-
Orientador : MICHEL DOS SANTOS SOARES
-
Data: 24/04/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
No ciclo de desenvolvimento de software, a elicitação de requisitos é uma das primeiras atividades a serem realizadas, podendo ser repetida em todas as demais etapas da engenhariade requisitos. O Analista de Negócios precisa entender profundamente as característicasda organização onde atua, entendendo os processos de negócio e buscando o conhecimentonecessário à propositura de alternativas inteligentes aos processos. Técnicas de elicitaçãode requisitos auxiliam na identificação de um maior volume de requisitos, ao sugeriremque a elicitação de requisitos seja realizada de maneira próxima aos processos de negócioda organização, todavia não observam o quanto a elicitação de requisitos deve apoiar amelhoria no desempenho organizacional. O interesse por essa pesquisa surgiu mediante apreocupação com a evolução e melhorias das técnicas e metodologias encontradas na áreade engenharia de requisitos, com o desafio e a necessidade de desenvolver sistemas querealmente atendam às expectativas dos stakeholders e que acima de tudo, tenham maiorengajamento com as áreas de negócio das organizações. O trabalho propõe o desenvolvimentode um guia para a elicitação de requisitos orientada ao desempenho organizacional.O PREOrg é um guia de boas práticas para elicitação de requisitos de software orientadoao desempenho organizacional que propõe a identificação de oportunidades para a geraçãode resultado, melhoria dos processos e apoio à tomada de decisão, desde a etapa deelicitação de requisitos de software. Dois estudos de casos foram realizados com o objetivode comprovar a eficiência e a eficácia do PREOrg. O primeiro estudo de caso foi realizadona indústria envolvendo um software e o segundo numa organização pública envolvendotrês softwares, nos dois casos foi realizado um treinamento envolvendo analistas de sistemasresponsáveis por elicitar requisitos para a construção dos softwares, de maneira a propiciaro conhecimento dos processos propostos pelo PREOrg. Como resultado, foram encontradasevidências de que o PREOrg contribuiu para a definição de requisitos capazes de apoiar odesenvolvimento de softwares orientados ao desempenho organizacional. O primeiro estudode caso apresentou evidências de melhoria financeira para a organização onde o softwarefoi implantado. No segundo estudo de caso foram descobertas evidências de que o uso doPREOrg é útil para a elicitação de requisitos que apoiem o desenvolvimento de softwarescapazes de ajudar na tomada de decisão e a melhoria dos processos organizacionais.
|
|
|
-
ADAUTO CAVALCANTE MENEZES
-
Uma Abordagem para Análise de Desempenho e Eficiência
Energética em Dispositivos Embarcados com uso do Asterisk
-
Orientador : ADMILSON DE RIBAMAR LIMA RIBEIRO
-
Data: 09/04/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
A comunicação por voz sobre IP (VoIP) dominará o mundo da computação nos próximos anos.Para realizar a transmissão VoIP, faz-se necessário a codificação e decodificação da voz. Esseprocesso consome os principais recursos computacionais, como o processador e memória. Asindústrias das telecomunicações disponibilizam equipamentos com valores elevados, o que tornao acesso a essa tecnologia ainda bastante restrito. Dispositivos embarcados executam sistemascom alto complexo de criticidade. O software livre de comunicação por voz sobre IP Asterisk temcomo principal função implementar todas as funcionalidades de uma central telefônica. Trata-sede uma alternativa viável para utilizar em dispositivos embarcados. Essas tecnologias prometemreduzir custos e maximizar resultados. Esta dissertação realiza uma análise de desempenho emtrês dispositivos embarcados modernos (Raspberry Pi 3, Orange Pi Plus 2 e Banana Pi M3), comuso do sistema de comunicação por voz sobre IP Asterisk. A análise de desempenho consisteem aferir o jitter, delay e vazão, assim como o quantitativo de chamadas simultâneas suportadasem cada dispositivo com os protocolos SIP e IAX2 com os CODEC’S G.711a, G.711u, Gsm,Speex, Ilbc, G.722, e em paralelo, monitorar o consumo de memória RAM, processamento eenergia. Os resultados mostram que os dispositivos Raspberry Pi 3 e Banana Pi M3 suportamde forma satisfatória um elevado número de chamadas simultâneas com consumo de memória,processamento e energia moderado. Todavia, o dispositivo Orange Pi Plus 2 demostrou elevadoconsumo de processamento.
|
|
|
-
KLEBER TARCISIO OLIVEIRA SANTOS
-
Uma abordagem unificada para especificar e checar restrições em múltiplas linguagens de programação no contexto de um Juiz On-line
-
Orientador : ALBERTO COSTA NETO
-
Data: 28/02/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
O processo de ensino e aprendizagem da programação de computadores é uma tarefa complexa que requer bastante prática e criatividade. Geralmente há inúmeras soluções para um mesmo problema. Por isso, o aluno precisa que suas soluções sejam avaliadas rapidamente visando um aprendizado mais ágil e eficaz. Para enfrentar esses desafios, os professores e alunos podem contar com recursos provenientes da evolução da Tecnologia da Informação e Comunicação. Os ambientes de aprendizagem virtual e os sistemas de juiz on-line são alternativas atrativas utilizadas nesse contexto. Este trabalho apresenta uma abordagem unificada de especificação e checagem de restrições de código-fonte. Apesar das ferramentas atuais serem capazes de indicar se o programa produziu a saída esperada a partir de uma entrada fornecida, nem todas são capazes de determinar se o aluno utilizou (ou não) determinada construção de linguagem de programação, como por exemplo criar uma função e utilizá-la no programa. Entre as que são capazes, existem problemas que foram sanados na abordagem proposta neste trabalho, como: facilidade de uso, abordagem unificada e grau de flexibilidade. Além disto, este trabalho conta com uma análise da base de dados do The Huxley com o objetivo de descobrir quais são as principais restrições de código-fonte utilizadas pelos professores e atendidas pelos alunos. Esta análise foi feita em conjunto com um survey aplicado aos professores de introdução à programação com o propósito de conhecer as principais restrições que seriam utilizadas por eles se possuíssem uma ferramenta de especificação e checagem de restrições.
|
|
|
-
BRENO SANTANA SANTOS
-
Uma Abordagem para Aumento de Empatia das Interações Textuais em Sistemas Colaborativos
-
Orientador : METHANIAS COLACO RODRIGUES JUNIOR
-
Data: 08/02/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
A empatia desempenha um papel essencial em interações sociais, como, por exemplo, em processos de ensino-aprendizagem efetivos, nas relações professor-aluno e nas relações empresa-cliente ou colaborador-consumidor, retendo potenciais parceiros e proporcionando-lhes maior satisfação. Em paralelo, a Comunicação Mediada por Computador (CMC) auxilia as pessoas em suas interações, especialmente quando é necessário contornar as limitações de espaço-tempo. Em CMC, existem diversas abordagens para promover empatia em interações sociais ou humano-computador. Contudo, para este tipo de comunicação, um mecanismo pouco explorado para ganho de empatia é o uso da teoria da Neurolinguística, a qual apresenta a possibilidade de desenvolvimento de Sistemas Representacionais Preferenciais (SRPs) para cognição em seres humanos. Neste contexto, o presente trabalho apresenta a concepção e os resultados obtidos por meio de avaliações experimentais da biblioteca NeuroMessenger, a qual utiliza Neurolinguística, Psicometria e Mineração de Textos para promover empatia entre interlocutores, a partir da identificação de SRPs e sugestão de matching (espelhamento) textual baseado nesta identificação. Os resultados mostraram que a utilização do mesmo padrão de texto (SRP) aumenta a empatia entre os interlocutores de Sistemas Colaborativos, evidenciando que o recurso de matching pode melhorar significativamente a comunicação e formação de rapport em ambientes digitais.
|
|
|
-
GALILEU SANTOS DE JESUS
-
Uma abordagem para auxiliar a correção de erros de programadores iniciantes
-
Orientador : ALBERTO COSTA NETO
-
Data: 24/01/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
A utilização de ambientes virtuais de aprendizagem integrados a outras ferramentas, como juízes on-line, surgem como uma possibilidade de amenizar a carência de práticas laboratoriais em cursos presenciais, além de poder apoiar atividades práticas em cursos semipresenciais, a distância e em MOOC’s, assim como dar suporte aos docentes e diminuir os índices de reprovação em disciplinas iniciais de ensino de programação. Porém, nem sempre os juízes on-line fornecem o feedback apropriado ou entendível pelo aluno, isto é, normalmente não fornecem dicas ao aluno de como melhorar ou alcançar uma solução válida. Ao observar turmas iniciais, verifica-se que frequentemente são apresentadas as mesmas dicas, já que os alunos costumam errar muito em um mesmo ponto ou por uma mesma razão. Este trabalho apresenta uma proposta para apoiar o ensino-aprendizagem de programação de computadores, aprimorando o juiz on-line The Huxley através da capacidade de produzir mensagens de feedback que sejam facilmente compreendidas pelos aprendizes de disciplinas iniciais de programação, norteando-os sobre os erros de sintaxe apresentados ao realizar uma submissão ao juiz on-line. Também foi feito um estudo de caso com turmas de graduação para avaliar esta abordagem, através de um experimento controlado, assim como sua análise com testes estatísticos para confirmação de hipótese, onde o estudo concluiu que a abordagem aumentou a capacidade de corrigir erros, além de guiá-los mais enfaticamente, principalmente entre alunos com baixo domínio da língua inglesa e que lograram êxito na disciplina inicial de programação.
|
|
|
-
MARIANNE BATISTA DINIZ DA SILVA
-
BOAS PRÁTICAS PARA SUPORTAR AS DIMENSÕES DE GOVERNANÇA ÁGIL DE TI NA ADMINISTRAÇÃO PÚBLICA FEDERAL
-
Orientador : ROGERIO PATRICIO CHAGAS DO NASCIMENTO
-
Data: 18/01/2018
-
Dissertação
-
Visualizar Dissertação/Tese
Mostrar Resumo
-
A Governança de Tecnologia da Informação e Comunicação (TIC) ainda é um fator desafiante para as organizações, tanto para o setor público como privado. Uma característica fundamental da governança de TIC é agregar valor ao negócio, como também colaborar para o desempenho da organização por meio de processos contínuos de decisões, provendo uma gestão de TI eficiente e eficaz, alinhada com a Governança Corporativa. Sabendo dessas características, as organizações públicas são reconhecidas pelos órgãos de controle (Tribunal de Contas da União - TCU, Sistema de Administração dos Recursos de Tecnologia da Informação - SISP, Estratégia de Governança Digital - EGD), os quais, por meio desse reconhecimento, fazem com que os gestores dessas organizações atribuam uma atenção para essa área. Nesse caso, a adoção e o direcionamento de boas práticas que atendam às exigências dos órgãos de controle com relação à Governança de TIC são necessárias. Assim, o objetivo desta dissertação foi propor boas práticas de Governança de TIC para direcionar as organizações para a melhoria do índice de maturidade de Governança de TIC (iGovTI) na Administração Pública Federal (APF), avaliado pelo TCU. Com o objetivo de realizar essa análise, foi adotado um estudo descritivo por meio dos procedimentos bibliográficos, survey e, por fim, o estudo de caso para a validação do framework proposto. Após a análise das boas práticas (ITIL, CMMI, COBIT, COSO e outras), foi desenvolvida a proposta de um framework denominado PeticGov, que tem o intuito de direcionar as organizações em qual(is) boa(s) prática(s) adotar com base no seu déficit. Obteve-se, como resultados, a validação da ferramenta PeticGov Wizard, que atende as fases propostas pelo framerwork. Dessa forma, foi validado a PeticGovWizard com relação a usabilidade, o questionário, seu direcionamento e sua utilidade perante as organizações iniciais e básicas. Para a primeira validação (usabilidade) obteve-se 21 respostas em um survey e foi visto que é necessário melhorar alguns aspectos (layout, informações na ferramenta). Para a validação do questionário obteve-se uma amostra de 46 organizações e percebeu-se que os dados estavam coerentes. Com relação a validação de utilidade da PeticGov Wizard nas organizações, obteve-se respostas de 20 funcionários de instituições com estágio de capacidade inicial e básico. Assim, observou-se que 100% dos respondentes afirmam que a ideia da ferramenta PeticGov Wizard com relação ao direcionamento das práticas isoladas para implantação nas organizações, ganham força perante os setores.
|
|