Projetos

1. Automating the Analysis of Transport and Application Protocols | 2020 | PESQUISA
In this project we will develop new mechanisms for automatically identifying performance degradation in Internet paths and tune transport protocols, including TCP and its many congestion control algorithms, to path properties.
Professor: Italo Fernando Scotá Cunha

2. MEROVINGIANS - Mecanismos de Estudo de Roteamento Vulnerável na Internet e de Geo-Identificação de Ataques de Negação de Serviço | 2020 | PESQUISA
Neste projeto iremos (1) estender a plataforma PEERING para permitir novas classes de pesquisa em roteamento seguro na Internet que estão além do alcance de pesquisadores acadêmicos hoje, e posteriormente (2) desenvolver técnicas que usam a plataforma para identificar redes que permitem o envio de pacotes IP com endereço de origem falsificados.
Professor: Italo Fernando Scotá Cunha

3. Covid Data Analytics | 2020 | PESQUISA
Este projeto tem por objetivo monitorizar, modelar e analisar a pandemia do coronavírus através da construção de uma plataforma de coleta, enriquecimento, análise e modelagem conjunta de dados oriundos da web, das redes sociais e de outras fontes tradicionalmente utilizadas em estudos epidemiológicos.
Professores: Wagner Meira Junior; Virgilio Augusto Fernandes Almeida; Gisele Lobo Pappa; Regina Helena Alves da Silva; Mauro Martins Teixeira; Ana Paula C Silva; Raquel Oliveira Prates; RIBEIRO, ANTONIO LUIZ P.; Adriana Pagano; Deborah Malta; Milena Soriano Marcolino; Zilma Silveira Nogueira Reis; Bruno A. Chagas; Evandro L.T.P. Cunha; Janaína Guiginski; Kícila Ferreguetti; Luana Passos; Luisa Cardoso; Raquel Schneider; Ramon Adrian Salinas Franco; Tereza Bernardes; Thiago Castro Ferreira; Wallace Marcelino Pereira

4. Aplicação de Técnicas de Aprendizado de Máquina e Otimização para Análise e Escolha de Beneficiários para Projeto Piloto de Atenção Primária à Saúde | 2019 a 2019 | EXTENSÃO
Desenvolvimento de pesquisa e análise da população de beneficiários do plano de saúde da CEMIG SAÚDE, com identificação de correlações e mapeamento de perfis, utilizando técnicas e ferramentas de inteligência artificial, a fim de auxiliar na tomada de decisão de grupo piloto para o programa de Atenção Primária à Saúde.
Professores: Anisio Mendes Lacerda; Daniel Hasan Dalip; Flávio Vinícius Cruzeiro Martins

5. Modelização de um Tensor Fuzzy por Aglomeração e Seleção de Padrões | 2019 a 2019 | PESQUISA
Dada uma relação binária, ou seja, um conjunto de objetos descritos por atributos Booleanos, um "itemset" associa um subconjunto de objetos ao subconjunto de atributos que todos eles têm. Esse tipo de padrão permite descobrir correlações entre os elementos das duas dimensões do conjunto de dados. Por exemplo, dada uma relação "comprou", um "itemset" pode destacar um subconjunto de clientes (os "objetos") que adquiriram um mesmo subconjunto de produtos (os "atributos"). O padrão pode ajudar a definição de ofertas, a segmentação dos clientes, etc. Nós projetamos um algoritmo que é não somente capaz de minerar todos os "itemsets" mas também generalizações deles para dados com mais de duas dimensões e para dados "fuzzy". Por exemplo, a análise precedente pode ser dinâmica (dimensão temporal adicional) e levar em conta as quantidades adquiridas (aspecto "fuzzy"). Infelizmente, as duas generalizações também pioram um problema que já afeta a mineração dos "itemsets": a quantidade de padrões válidos cresce exponencialmente com o tamanho do conjunto de dados, qualquer que seja o número de "padrões verdadeiros" nos dados. Isso acontece porque dados reais contêm muito ruído que esconde os "padrões verdadeiros". A nossa definição de um padrão inclui uma tolerância à ruído. No entanto, minerar todos os padrões que satisfazem esta definição (e somente esses padrões) requer um tempo que cresce exponencialmente com o nível de tolerância desejado. Como não se pode, em um tempo razoável, tolerar suficientemente ruído, os padrões descobertos são somente fragmentos dos "verdadeiros padrões". Mostramos porém que esses fragmentos são globalmente bons: juntados corretamente, os "verdadeiros padrões" podem ser encontrados. O presente projeto propõe resolver o quebra-cabeça: aglomeraremos, de forma heurística, a coleção completa de fragmentos. Assim, ao contrário de muitas abordagens da literatura (como aquelas baseadas em fatoração de tensores), não buscaremos os "padrões verdadeiros" diretamente nos dados: postergaremos o uso de heurísticas (e a consequente perda de exatidão). Por isso, esperamos melhores resultados. Já propusemos um algoritmo para aglomerar hierarquicamente os padrões e selecionar os melhores aglomerados. Porém, a heurística usada era ingênua e não fundamentada matematicamente. Logo, os resultados não foram bons. Desta vez, as definições da distância entre dois padrões (cuja aglomeração é considerada) e da relevância de um aglomerado serão derivadas de um modelo de regressão. Este modelo explica os dados a partir de um conjunto de padrões. Esperamos que o conjunto que minimiza o erro quadrático do modelo é aquele dos "verdadeiros padrões". Por isso, essa minimização dirigirá a aglomeração e a seleção de um subconjunto dos aglomerados, o modelo final.
Professor: Loïc Pascal Gilles Cerf

6. Investigação do uso de computação evolucionária para mineração de padrões discriminativos em bases de dados de alta dimensionalidade | 2019 | PESQUISA
CNPq. Universal. O objetivo principal deste projeto é investigar e desenvolver algoritmos baseados em computação evolucionária para mineração de padrões discriminativos em bases de dados de alta dimensionalidade. O uso de computação evolucionária para mineração de regras de classificação é algo bastante estudado na literatura. Contudo, existem poucas abordagens evolucionárias para mineração de padrões discriminativos, sendo o número de abordagens capazes de lidar com alta dimensionalidade ainda menor. Esse fato contraria alguns autores que sugerem a possibilidade de aplicar os algoritmos existentes em dados de biomédicos. Entendendo que a aplicação em bioinformática é de importância tanto social quanto científica, o objetivo central será desenvolver métodos que permitam tal utilização.
Professor: Renato Vimieiro

7. CNPQ: Bolsa de Produtividade em Pesquisa (nível 2) | 2018 | PESQUISA
O projeto visa o desenvolvimento de métodos e algoritmos de Aprendizado Profundo utilizando novas arquiteturas aprimoradas a partir de redes recorrentes, convolucionais, adversariais, sequência-sequência, treinadas através de supervisão e adaptação de domínio, ou por reforço
Professor: Adriano Alonso Veloso

8. Técnicas de Aprendizado de Máquina e Processamento de Linguagem Natural para facilitar o relacionamento entre compradores e vendedores do Elo7 | 2018 | EXTENSÃO
O projeto tem por objetivo a orientação da pesquisa para o desenvolvimento de soluções de inteligência artificial para melhorar o entendimento e a concretização de relações de compra e venda no Elo7, maior marketplace para produtos de artesanato no Brasil.
Professores: Adriano Alonso Veloso; Carlos Augusto Mendes de Araújo

9. Solução Inteligente para Gestão em Terapia Intensiva | 2018 | PESQUISA
O projeto tem por objetivo a criação de soluções capazes de prover informações referentes ao risco do paciente intensivo em tempo real. Além disso, as soluções criadas devem ser capazes de antever trajetórias de risco, auxiliando o intensivista na tomada de decisão
Professores: Adriano Alonso Veloso; Renato Ferreira; Nívio Ziviani; Nazareno Andrade; Saulo Saturnino; Fabio Cappabianco; Everton Gomede

10. Antecipação de Qualidade na Produção de Aço Inoxidável | 2018 | PESQUISA
O projeto tem por objetivo a identificação de fatores causativos de defeitos na produção de aço inoxidável (duplex e 430A), sejam eles fatores químicos ou inerentes ao processo de produção
Professores: Adriano Alonso Veloso; Paulo Sergio de Sairre Balsamo

11. Modelos Probabilísticos para Tratamento de Incerteza em Sistemas de Recomendação | 2018 | PESQUISA
***********Produtividade em Pesquisa (PQ)******************** A quantidade de informação publicada e compartilhada na Web vem crescendo rapidamente e os usuários da rede não querem acesso à qualquer tipo de informação, mas à informação útil e relevante. Nesse contexto aparecem os sistemas de recomendação, que fornecem sugestões de itens baseadas nos interesses dos usuários. O principal objetivo deste projeto é desenvolver modelos capazes de tratar incerteza em sistemas de recomendação. A incerteza nesses sistemas é consequência principalmente da escassez de informação, que é uma característica inerente a sistemas de recomendação por dois motivos principais. Primeiramente, temos o problema de cold-start, i.e., novos usuários e itens sendo inseridos no sistema ao longo do tempo, e para os quais nenhuma informação de preferência está disponível. Além disso, não basta identificar apenas a relevância dos itens para os usuários, precisamos considerar múltiplas métricas de avaliação de forma simultânea. Neste cenário, investigaremos formas de tratar a incerteza nas preferências dos usuários por meio de diferentes métricas de avaliação da qualidade da recomendação, i.e., investigaremos técnicas de recomendação multi-objetivo. Para representar usuários, itens e suas associações iremos propor modelos probabilísticos, que representam um arcabouço matemático robusto e formal para tratamento de incerteza.
Professor: Anisio Mendes Lacerda

12. Execução Eficiente de Estudo de Parâmetros em Aplicações Médicas Usando Ambientes de Alto Desempenho - CNPq PQ 05477/2017-0 | 2018 | PESQUISA
Nesse trabalho, vamos atacar um problema que advém do fato de a maioria das aplicações de análise de imagens serem sensíveis a variações nos parâmetros de entrada. Ou seja, alterações nos valores de seus parâmetros podem causar impactos significativos na qualidade do resultado e, dessa forma, parâmetros que	funcionam bem para determinado grupo de imagens, podem não funcionar para outro. Essas variações, por sua vez, podem criar dúvidas quanto a validade e qualidade de estudos envolvendo a análise automatizada de imagens médicas.

Dessa forma, é importante (i) quantificar o impacto de parâmetros de entradas na saída dessas análises e (ii) ajustar os parâmetros para produzirem resultados mais precisos. Ambos os processos pertencem a uma classe de métodos chamados de estudo de parâmetros. O primeiro deles é denominado análise de sensibilidade (Sensitivity	 Analysis	 - SA) de parâmetros e o segundo de ajuste automático de parâmetros.
Professor: George Luiz Medeiros Teodoro

13. SEGINT - Segurança de Tráfego Interdomínio na Internet | 2018 | PESQUISA
Neste projeto iremos desenvolver mecanismos para melhorar segurança de roteamento intredomínio na Internet, focando na identificação de tráfego com origem falsificada e autenticação de rotas. Iremos utilizar a plataforma PEERING para manipular rotas na Internet e avaliar a eficácia de mecanismos práticos que possam ser utilizados sem alteração da infraestrutura da Internet.
Professores: Italo Fernando Scotá Cunha; Dorgival Guedes

14. Laboratório de Inteligência Artificial | 2017 | PESQUISA
Criação de laboratório com temática relacionada à Inteligência Artificial, mais especificamente Aprendizado de Máquina e Processamento de Linguagem Natural, no Departamento de Ciência da Computação da UFMG.
Professor: Adriano Alonso Veloso

15. Métodos de Inferência Escaláveis para Sistemas de Recomendação baseados em Fatores Latentes | 2017 | PESQUISA
***********Universal FAPEMIG******************** Sistemas de Recomendação são ferramentas computacionais que auxiliam usuários na tarefa de lidar com grandes volumes de informação. O estado-da-arte em sistemas de recomendação e baseado na representação dos usuários e dos itens em um sistema de fatores latentes. Em geral, o espaço de fatores latentes e encontrado utilizando-se métodos baseados em inferência bayesiana. Um dos desafios desses métodos e a escalabilidade da etapa de inferência dos parâmetros dos modelos de recomendação. Este projeto foca no estudo de métodos de inferência capazes de tratar grandes bases de dados estáticas da ordem de milhões de itens.
Professores: Anisio Mendes Lacerda; Flavio L. C. Padua

16. Modelos de Representação de Usuários e Itens em Espaços de Fatores Latentes Dinâmicos para Recomendação de Itens | 2017 | PESQUISA
***********Universal CNPq ******************** A quantidade de informação publicada e compartilhada na Web vem crescendo rapidamente, e o usuário de sistemas Web não quer acesso à qualquer tipo de informação, mas à informação útil e relevante. Nesse contexto aparecem sistemas de recomendação, que fornecem sugestões de itens baseadas nos interesses do usuário. O estado da arte em sistemas de recomendação são os algoritmos baseados em modelos de fatores latentes. A ideia destes modelos é projetar os usuários e os itens em um espaço de dimensões reduzidas (tais dimensões são chamadas de fatores latentes ou tópicos), e então agrupar usuários e itens similares. Este projeto foca na extração de tópicos em bases de dados dinâmicas. Os algoritmos serão testados em bases de dados contendo milhões de usuários e milhares de itens, e comparados com algoritmos estado da arte.
Professores: Anisio Mendes Lacerda; Gisele Lobo Pappa; Flavio L. C. Padua

17. Novos Algoritmos para Geração Automática de Fluxos de tarefas em Aprendizado de Máquina | 2017 | PESQUISA
****************** EDITAL PPM XI FAPEMIG 02/2017 ***************************** Nos últimos anos, o interesse da comunidade científica e da indústria em técnicas de aprendizado de máquina cresceu virtuosamente. Porém, para um leigo na área, utilizar os métodos disponíveis de forma eficaz para extrair conhecimento de bases de dados é um desafio, pois é preciso ter conhecimento de uma variedade de métodos e seus parâmetros. Isso porque, de acordo com o teorema da generalização do aprendizado, não existe algoritmo que seja o melhor para qualquer base de dados. Além de ser uma tarefa difícil, a escolha dos melhores algoritmos e seus parâmetros é massante, pois envolve testar manualmente uma infinidade de combinações possíveis. Esse projeto propõe métodos capazes de gerar automaticamente o que chamamos de fluxos de tarefas para resolver problemas de aprendizado de máquina. Fluxos são definidos como sequências de passos a ser seguidos para resolver com sucesso uma tarefa em uma base de dados específica, como as técnicas de pré-processamento e o algoritmo mais apropriado e seus parâmetros. Iremos modelar dois tipos de algoritmos de programação genética (PG) para gerar automaticamente fluxos de tarefas customizados para uma base de dados específica: PG baseada em gramática e PG semântica. Enquanto a modelagem do primeiro tipo de método é direta, existem muitos desafios na concepção do segundo método. Assim, esse projeto contribuirá também para melhorar o processo de busca de algoritmos de PG semântica. Em particular, trataremos do problema de escalabilidade desses métodos. A escalabilidade é um problema porque esses métodos atuam sobre um espaço semântico, cujo número de dimensões é definido de acordo com o tamanho do conjunto de dados de treinamento. Para resolver esse problema, iremos propor várias formas de realizar uma amostragem do espaço de dados. Como resultados, além dos dois métodos mencionados, geraremos um protótipo de uma ferramenta que permitirá que qualquer usuário leigo seja capaz de gerar o melhor fluxo para sua base de dados de interesse.
Professores: Gisele Lobo Pappa; Alex Alves Freitas; Alex Guimaraes de Sa; Walter J G S Pinto

18. RANGER - Researching Internet Routing Security in the Wild | 2017 | PESQUISA
The project will extend the PEERING research testbed with security-related functionality, including the ability to execute containers on routers, integrating PEERING prefixes with the RPKI (an infrastructure for securing aspects of Internet routing), and making the testbed more reliable. It will also develop algorithms to (1) locate the sources of spoofed attack traffic and to (2) track the adoption of RPKI-based protection against prefix hijacking and identify possible problems in its application. The algorithms will use PEERING?s ability to manipulate routing and its extensions developed in this project to force route changes and observe the impact on the volume of spoofed traffic received from each peer and which vantage points do/do not use routes that violate the RPKI. The algorithms will need to address challenges related to limited visibility of Internet routes, lack of ground truth about routing policies, and lack of control of routing decisions of other networks. The researchers will investigate how the algorithms can systematically change routes in order to narrow the set of feasible explanations to those consistent with all observations, yielding more precise inferences. The project's extensions to the testbed will allow others to conduct novel routing security research, and the algorithms from the project will identify vulnerable networks, a key step forwards in addressing the Internet's lack of authentication for traffic and routing.
Professores: Italo Fernando Scotá Cunha; Ethan Katz-Bassett; Ronaldo Alves Ferreira

19. MMA - Monitoramento e Mitigação de Ataques na Internet | 2017 | PESQUISA
Investigaremos técnicas capazes de rastrear tráfego de ataques até sua origem na Internet, superando dificuldades impostas pela arquitetura distribuída e controle decentralizado. Iremos também caracterizar ataques para melhor entendê-los e propor mecanismos de mitigação implantáveis na prática.
Professores: Italo Fernando Scotá Cunha; Dorgival Guedes

20. Unlocking the Potential of the RIPE Atlas Platform | 2017 | PESQUISA
We propose to address limitations of and to greatly expand the scope of experiments for which RIPE Atlas is suitable, thereby amplifying the platform's impact. First, we will build and operate a DNS-based measurement manager to enable more flexible probing scenarios within the framework that RIPE scalably supports. The manager will hide an experiment's multiple destinations behind a single (or small number of) DNS name(s), allowing the user to specify the desired probing campaign but have it appear to Atlas's measurement scheduler to be recurring measurements to a single target DNS name. Second, we will develop a system that takes rich queries that researchers and operators express (e.g., paths that traverse Cogent in NYC on their way to Comcast), then issues and returns traceroutes that match even if it has never measured a matching path in the past. Third, we will pair RIPE Atlas measurements with the PEERING testbed to couple route control with route measurement, enabling researchers to manipulate route announcements and route selection on the Internet and measure the impact.
Professores: Italo Fernando Scotá Cunha; Ethan Katz-Bassett

21. Performance-Aware Content Distribution | 2017 | PESQUISA
Desenvolvimento e avaliação de (i) mecanismos para balanceamento e engenharia de tráfego em redes de distribuição de conteúdo com vários pontos de presença e alto grau de conectividade; (ii) técnicas escaláveis para inferência de desempenho em tráfego; (iii) técnicas escaláveis para inferência de congestionamento em rotas na Internet. Implementação de um arcabouço de emulação para avaliação de desempenho de conexões TCP em diferentes cenários.
Professor: Italo Fernando Scotá Cunha

22. Plataforma Big-Data para Computação Cognitiva | 2016 | PESQUISA
O projeto tem por objetivo desenvolver e avaliar modelos de representação que são semanticamente ricos, bem como a melhoria de algoritmos de aprendizado de máquina e de processamento de linguagem natural que possam ser incorporados em sistemas de computação cognitiva.
Professores: Adriano Alonso Veloso; Rodrygo Santos

23. #PARTIUDOARSANGUE - UMA PLATAFORMA WEB E MOBILE PARA GESTÃO E OTIMIZAÇÃO DO PROCESSO DE CAPTAÇÃO DE DOADORES DE SANGUE | 2016 | DESENVOLVIMENTO
Nos dias atuais a tecnologia da informação tem importância capital para diversos setores na sociedade. Dentre eles, é possível destacar a saúde, que cada vez mais utiliza da tecnologia da informação e comunicação (TIC) como meio de aperfeiçoamento e otimização dos seus processos. Este projeto de empreendedorismo social aborda o desenvolvimento de uma nova plataforma para minimizar o problema da falta de doação de sangue no Brasil. Para isto foi feita uma entrevista com um profissional de um banco de sangue e pesquisas para identificar a melhor solução para este problema. Assim, foi desenvolvida uma plataforma contendo uma aplicação Web e mobile, que tem como característica principal conectar doadores a quem necessita de doação de sangue. Através desta plataforma foi possível observar uma grande demanda e aceitação por parte da população em ter uma ferramenta para centralizar o cadastro dos doadores e os conectar através de recursos de TIC a quem necessita de doação, além de permitir uma maior divulgação desta causa. A plataforma cumpriu com seu objetivo, uma vez que está tendo um crescimento em sua utilização bastante favorável em um curto espaço de tempo, além de já estar presente em todas as Unidades Federativas do Brasil. Uma prova real de conceito realizada nos meses de junho e julho possibilitou validar o projeto e obter resultados que superaram as metas importantes traçadas, comprovando o sucesso da tecnologia desenvolvida e o seu potencial em salvar vidas e gerar uma economia financeira de montantes incalculáveis para a saúde pública do nosso país! Tudo isso nos entusiasma a empregar mais energia e esforços para que o projeto se amplie, tenha novas funcionalidades e possa contribuir cada vez mais para o seu nobre fim social.
Professores: Adriano Cesar Machado Pereira; Orlando Silva Junior; Thiago Abreu Rodrigues

24. Métodos de seleção e regressão múltipla para previsão de vendas de produtos | 2016 | PESQUISA
A tarefa de recomendação consiste em sugerir uma lista ordenada de itens relevantes para os usuários de um sistema Web. Essa sugestão é feita por uma função de recomendação, que determina a relevância dos items de informação para os usuários do sistema ao longo do tempo. Sistemas de recomendação online funcionam em um ciclo contínuo, onde usuários recebem sugestões de itens e retornam feedback destas recomendações. O sistema pode então utilizar o feedback do usuário para atualizar a função de recomendação. Este ciclo se repete enquanto o usuário interagir com o sistema. Para funcionar de acordo com esse ciclo, grande parte dos sistemas de recomendação online propostos na literatura trabalham com recomendações sequenciais, e são baseados em algoritmos de aprendizado por reforço. Algoritmos de aprendizado por reforço, tais como as abordagens multi-armed bandits, recomendam um item ao usuário de acordo com uma função de recomendação e aguardam seu feedback imediato. Este feedback é então incorporado à função para futuras recomendações. A otimização da função de recomendação é normalmente baseada em uma única medida de sucesso, tal como o número de clicks do usuário no cenário Web. Porém, métodos que otimizam apenas uma métrica não são úteis na prática, pois a satisfação do usuário envolve vários aspectos. Por exemplo, além da lista de itens retornada ser relevante, o usuário espera que os itens sejam diversos entre si.Este projeto tem como principal objetivo propor soluções para esta limitação em sistemas de recomendação online para que elas possam ser facilmente utilizadas em sistemas reais. Assim, iremos considerar a satisfação do usuário utilizando diferentes métricas de sucesso para garantir a melhor experiência no uso do sistema.
Professor: Anisio Mendes Lacerda

25. Suporte a Análise Comparativa de Dados em Larga Escala Utilizando Ambientes Heterogêneos - CNPq PQ 305208/2014-4 | 2016 a 2018 | PESQUISA
O objetivo principal desse projeto é pesquisar, desenvolver e avaliar componentes necessários para suportar a execução eficiente de uma importante classe de aplicações, chamada aqui de “aplicações para análise comparativa de dados”, em ambientes de execução em larga escala (extreme scale). Esses componentes comporão um sistema de execução chamado Diff-stack. Análise comparativa de dados é utilizada no processo de estudo, entendimento e quantificação sobre como um conjunto de bases de dados (ou subconjuntos de uma mesma base de dados) se diferenciam e se correlacionam. Esse tipo de análise tem papel crítico em diversas fases da pesquisa científica, incluindo validação de modelos numéricos, estudo de parâmetros, estimativa de erros, construção de modelos preditivos e estudo de sensitividade de parâmetros.
Professor: George Luiz Medeiros Teodoro

26. On the development of a new method for analyzing multi-source biomedical data using multi-view clustering and pattern mining | 2016 a 2019 | PESQUISA
The ultimate goal of this project is to investigate and develop a new methodology for the analysis of multi-source biomedical data by the combination of multi-view clustering and pattern mining techniques.
Professores: Renato Vimieiro; Francisco de Assis Tenorio de Carvalho; Sergio Ricardo de Melo Queiroz; Amedeo Napoli; Teresa Bernarda Ludermir

27. EUBRA - BIGSEA - Europe Brazil Collaboration of Big Data Scientific Research through Cloud-Centric Applications | 2016 | PESQUISA
EUBRA-BigSea aims at providing an abstract framework for the development of distributed Big Data applications. Multiple data models will be supported (e.g. data streams, multidimensional data, etc.) and efficient mechanisms will ensure privacy and security, on top of a QoS-aware layer for the smart and rapid provisioning of resources in a cloud-based environment
Professores: Wagner Meira Junior; Dorgival Olavo Guedes Neto; Humberto Torres Marques Neto; Renato Antonio Celso Ferreira; Jussara Marques de Almeida; Adriano Cesar Machado Pereira; Gisele Lobo Pappa; Clodoveu Augusto Davis Jr.; Adriano Alonso Veloso; Loic Cerf; Ana Paula C Silva; Italo Cunha

28. Lemonade: Live Exploration and Mining of a Non-trivial Amount of Data from Everywhere | 2016 | DESENVOLVIMENTO
Lemonade é uma plataforma de ciência de dados que se concentra na criação de fluxos de análise, mineração de dados e aprendizado de máquina na nuvem, com garantias de autenticação, autorização e contabilidade (AAA). Utilizando uma interface de programação visual, Lemonade habilita a criação e execução de fluxos encapsulando os detalhes de armazenamento, codificação, segurança e processamento distribuído, permitindo que sejam usados em ambientes de nuvem por especialistas de domínio. A arquitetura do Lemonade consiste em sete componentes individuais, que funcionam como micro-serviços focados em tarefas relacionadas à interface, segurança / privacidade, execução, monitoramento de execução, gerenciamento de dados, algoritmos e visualização de dados. Sua estrutura suporta a escalabilidade dos componentes individualmente, uma vez que podem ser encapsulados em contêiner ou em aplicações autônomas rodando em máquinas físicas. Lemonade suporta as plataformas Spark/MLLib, Python SciKitLearn, Keras/GPU e COMPSS.
Professores: Wagner Meira Junior; George Luiz Medeiros Teodoro; Dorgival Olavo Guedes Neto; Renato Antonio Celso Ferreira; Walter dos Santos Filho; Adriano Cesar Machado Pereira; Gisele Lobo Pappa; Ana Paula C Silva

29. Algoritmos de Aprendizado Profundo Reconhecimento e Identificação de Faces em Tempo Real | 2015 | PESQUISA
O problema de interesse neste projeto é a identificação e reconhecimento de faces em tempo real, baseada em técnicas de aprendizado profundo, em especial redes profundas de convolução.
Professores: Adriano Alonso Veloso; Wagner Meira Jr; Renato Ferreira

30. CNPQ: Bolsa de Produtividade em Pesquisa (nível 2) | 2015 a 2018 | PESQUISA
O projeto visa desenvolver métodos e algoritmos de aprendizado de máquina com supervisão limitada para a modelagem de linguagem natural em textos curtos
Professor: Adriano Alonso Veloso

31. Modelagem, Caracterização e Melhoria da Qualidade de Serviços da Web | 2015 | PESQUISA
A Web é o sistema computacional mais popular, importante e dinâmicos dos últimos tempos. Apesar de seu enorme sucesso, a Web apresenta inúmeros desafios, sendo que esse mesmo sucesso é responsável por uma grande parte deles. As pessoas ou usuários ao acessarem a Web, seja por meio das máquinas de busca ou através de serviços de caráter mais social e colaborativo, ainda encontram dificuldades para alcançar seus objetivos. Isso se deve não apenas à quantidade imensa de informação presente na Web e que vem aumentando consideravelmente, mas também à necessidade constante de entender e melhorar a qualidade dos serviços oferecidos pelas aplicações Web. A principal motivação deste projeto é endereçar essas dificuldades encontradas pelos usuários para uso dos serviços providos pelas aplicações Web. Podemos observar que essas dificuldades estão relacionadas a diferentes aspectos que devem ser investigados para aperfeiçoar as aplicações Web, tais como o desempenho dos serviços providos, a necessidade do usuário de ter acesso mais facilitado à informação que procura, mecanismos para garantir melhor segurança às transações eletrônicas, dentre outros. Para isso torna-se necessário desenvolver linhas de pesquisa que possam modelar e mensurar os serviços da Web sob diferentes perspectivas de análise, investigá-los a fundo para entendê-los melhor e utilizar técnicas computacionais que possam melhorar sua qualidade. Este projeto de pesquisa versa sobre modelagem, caracterização e melhoria da qualidade dos serviços da Web. Cabe ressaltar que a motivação da escolha do tema foi o grau de importância que este tem para a sociedade hoje e a diversidade de desafios e questões de pesquisa que surgem desse tema de investigação no que diz respeito à ciência da computação. A escolha do tema também tem estreita relação com a experiência do candidato em tópicos de pesquisa relacionados ao tema. Melhorar a qualidade dos serviços oferecidos pelas aplicações Web não constitui uma tarefa trivial devido a uma série de desafios de pesquisa que precisam ser endereçados. O projeto aqui apresentado está também em consonância com os Desafios de Pesquisa em Computação 2006-2016, eleitos em evento da Sociedade Brasileira de Computação (SBC).
Professor: Adriano Cesar Machado Pereira

32. AGRO 4.0 - O objetivo deste projeto é desenvolver modelos, algoritmos e ferramentas que permitam modelar, coletar, analisar e apresentar informações sociais em larga escala como, por exemplo, aquelas existentes na Internet, em tempo real. | 2015 | EXTENSÃO
Este é um projeto de pesquisa e desenvolvimento tecnológico na área de ciência da computação, sendo desenvolvido por professores e alunos do DCC/UFMG. Ele congrega de forma combinada ensino (pela formação dos alunos em tema de alta relevância e demanda de mercado), pesquisa (pelo caráter inovador das técnicas e tecnologias sendo desenvolvidas) e extensão (pelo desenvolvimento tecnológico em parceria com a sociedade/mercado e o uso e transferência dessa tecnologia) e por isso acreditamos que esteja em total consonância com os planos de trabalho em questão. O objetivo geral é desenvolver uma plataforma eletrônica (digital) de indicadores de sustentabilidade em agroecossistemas.
Professores: Adriano Cesar Machado Pereira; Evandro Caldeira; Leonardo Barbosa e Oliveira; Eugênio Fonseca

33. IS@ Digital - Plataforma Eletrônica de Indicadores de Sustentabilidade em Agroecossistemas | 2015 | DESENVOLVIMENTO
o projeto tem por objetivo desenvolver uma plataforma eletrônica (digital) de indicadores de sustentabilidade em agroecossistemas. O projeto se baseia no instrumento ISA, que consiste de um conjunto de indicadores que permitem ao produtor tomador de decisões, identificar riscos e oportunidades dos diversos usos e ocupações do solo no estabelecimento rural. Esse sistema foi institucionalizado pelo governo do Estado por meio do Decreto 46.113/2012, tendo sido aplicado no campo, com a participação efetiva dos técnicos da Emater, envolvendo também parcerias com empresas públicas e privadas.
Professores: Adriano Cesar Machado Pereira; Evandro Caldeira; Leonardo Barbosa e Oliveira; Eugênio Fonseca; Antônio Alfredo Loureiro

34. Observatório do Investimento - Uma plataforma computacional para coleta, tratamento, mineração, análise, distribuição e visualização de dados de mídias Web para o mercado de capitais brasileiro | 2015 | PESQUISA
Observatório do Investimento - Uma plataforma computacional para coleta, tratamento, mineração, análise, distribuição e visualização de dados de mídias Web para o mercado de capitais brasileiro.
Professores: Adriano Cesar Machado Pereira; Gisele Pappa; Adriano Veloso; MEIRA JÚNIOR, WAGNER; Zilton Cordeiro Júnior; Leonardo Conegundes; Paulo Gomide; Mateus Lana

35. A Holistic Topic Model for the Reviewer Assignment Problem -- Microsoft Azzure | 2015 a 2016 | PESQUISA
Probabilistic Topic Models have gained popularity for discovering the thematic structure of large collection of documents. In this project, our goal is to extend these models to deal with the Reviewer Assignment Problem, by considering different sources of information and problem-related constraints. We believe that this is a relevant contribution, which represents an advance in the state of the art of both Probabilistic Topic Models and Reviewer Assignment Problem areas.
Professores: Anisio Mendes Lacerda; Eric P. Xing; Pengtao Xie; Willie Neiswanger; Xun Zheng

36. Abordagens Multi-Objetivo para Sistemas de Recomendação Online | 2015 a 2016 | PESQUISA
Sistemas de recomendação auxiliam usuários na tarefa de filtrar informação relevante por meio da sugestão de uma lista de itens. Porém, tais sistemas não devem levar apenas a relevância dos itens no momento de retornar sugestões. Além da relevância, métricas de qualidade da recomendação como novidade e diversidade devem ser consideradas pelo sistema. O objetivo deste projeto é considerar várias métricas de qualidade em sistemas de recomendação online. O grande desafio deste tipo de sistema são que novos itens e novos usuários são inseridos no sistema ao longo do tempo.
Professor: Anisio Mendes Lacerda

37. Sistemas de Recomendação baseados em Conteúdo | 2015 a 2016 | PESQUISA
**** Programa Jovens Talentos para a Ciência -- CAPES 035/15 **** Muitas aplicações reais demandam a ordenação de um conjunto de itens de acordo com sua importância a fim de otimizar um objetivo pré-definido. Por exemplo, em um cenário de varejo em lojas físicas, existe o problema de identificar os produtos mais vendidos para posicioná-los em locais de fácil acesso para os clientes das lojas. O objetivo deste posicionamento é aumentar a quantidade de itens vendidos e, por sua vez, aumentar o volume de vendas da loja. Assim, iremos modelar o problema em três fases distintas e sequenciais. As fases de solução do problema são: (i) aprendizado de ordenações, (ii) previsão de estimativas em subconjuntos de itens e (iii) normalização de estimativas. Do ponto de vista científico, este problema apresenta diversos desafios. Por exemplo, a seleção de um subconjunto de itens é um problema para o qual o custo é combinatorial no número de itens disponíveis. Dado que nos cenários de interesse deste projeto, i.e. seleção de anúncios online e de produtos a serem ofertados, temos vários itens disponíveis, precisamos de técnicas eficientes de seleção de itens promissores. Além deste desafio, nos cenários de aplicação deste projeto o número de variáveis independentes utilizadas para descrever os itens tende a ser muito grande. Por fim, dado que os métodos de regressão estimam os valores de sucesso para cada item individualmente, precisamos normalizar as estimativas levando em consideração os itens e a relação entre eles. O foco inicial deste projeto será a recomendação de items no varejo online. Porém, no decorrer do projeto pretende-se considerar items de outra natureza, por ex, notícias e filmes.
Professor: Anisio Mendes Lacerda

38. Sistemas de Recomendação Online Multi-Objetivo | 2015 a 2016 | PESQUISA
**** Edital Programa Institucional de Iniciação Científica - PIBIC (FAPEMIG) **** A tarefa de recomendação consiste em sugerir uma lista ordenada de itens relevantes para os usuários de um sistema Web. Essa sugestão é feita por uma função de recomendação, que determina a relevância dos items de informação para os usuários do sistema ao longo do tempo. Sistemas de recomendação online funcionam em um ciclo contínuo, onde usuários recebem sugestões de itens e retornam feedback destas recomendações. O sistema pode então utilizar o feedback do usuário para atualizar a função de recomendação. Este ciclo se repete enquanto o usuário interagir com o sistema. Para funcionar de acordo com esse ciclo, grande parte dos sistemas de recomendação online propostos na literatura trabalham com recomendações sequenciais, e são baseados em algoritmos de aprendizado por reforço. Algoritmos de aprendizado por reforço, tais como as abordagens multi-armed bandits, recomendam um item ao usuário de acordo com uma função de recomendação e aguardam seu feedback imediato. Este feedback é então incorporado à função para futuras recomendações. A otimização da função de recomendação é normalmente baseada em uma única medida de sucesso, tal como o número de clicks do usuário no cenário Web. Porém, métodos que otimizam apenas uma métrica não são úteis na prática, pois a satisfação do usuário envolve vários aspectos. Por exemplo, além da lista de itens retornada ser relevante, o usuário espera que os itens sejam diversos entre si.Este projeto tem como principal objetivo propor soluções para esta limitação em sistemas de recomendação online para que elas possam ser facilmente utilizadas em sistemas reais. Assim, iremos considerar a satisfação do usuário utilizando diferentes métricas de sucesso para garantir a melhor experiência no uso do sistema.
Professor: Anisio Mendes Lacerda

39. Sistemas de Recomendação de Imagens baseados em Modelos de Fatores Latentes | 2015 a 2016 | PESQUISA
**** Edital 185/14 PROPESQ - CEFET-MG **** A quantidade de informação publicada e compartilhada na Web vem crescendo rapidamente, e o usuário de sistemas Web não quer acesso à qualquer tipo de informaçã, mas à informação útil e personalizada. Neste contexto aparecem sistemas de recomendação, que fornecem sugestões de itens baseadas no interesse do usuário. Modelos de fatores latentes estão presentes nos algoritmos estado-da-arte em recomendação. Porém, estes modelos tem duas deficiências. Primeiro, eles ignoram a dependência temporal dos fatores latentes dos usuários e itens (i.e., que as preferências dos usuários e o conteúdo dos itens varia com o tempo). Segundo, em sistemas reais com grandes volumes de dados, a escalabilidade desses métodos é comprometida. O principal objetivo deste projeto é desenvolver um novo modelo de recomendação escalável, capaz de adaptar-se às interações entre usuários e itens ao longo do tempo. Para representar usuários e itens dinamicamente por meio de fatores latentes iremos utilizar técnicas não-paramétricas, tais como Processos de Dirichlet Dependentes (PDD). Para tornar esses métodos mais escaláveis, métodos sequenciais para inferência de modelos de fatores latentes, que evitam o modelo completo seja retreinado, serão considerados. Neste projeto, o foco são sistemas de recomendação de imagens capazes de combinar informação textual e visual para sugerir as melhores imagens para os usuários.
Professores: Anisio Mendes Lacerda; Flávio Luis Cardeal Pádua; Giani David Silva; Vera Lucia de Souza e Lima

40. CONVERSE: Busca por Correlações Entre Dados Virtuais e Reais: Aplicações na Área de Saúde | 2015 a 2017 | PESQUISA
*******************Edital Programa Pesquisador Mineiro - PPM IX ******************* O monitoramento de eventos em redes sociais já mostrou o potencial das informações disponíveis nestas redes para prever eventos (i) em um curto espaço de tempo (e.g. eleições) ou (ii) enquanto eles acontecem (e.g. epidemias). Porém, uma questão que ainda não foi respondida é: dado o que conhecemos sobre o indivíduo e o que/como ele se expressa nas redes sociais, seria possível fazer previsões e intervenções de comportamento de mais longo prazo, como em questões relacionadas à saúde? Mais que isso, seria possível utilizar estes dados como um ''espelho'' do mundo real? Existe uma forma de, tendo disponíveis estes dados, correlacioná-los com a realidade? Existem diversos desafios computacionais para migrarmos da análise de eventos bem definidos e com atores bem delineados, como uma eleições ou uma epidemia, para cenários mais amplos. Monitoramento de eventos específicos não necessariamente precisam ter foco em usuários, e podem considerar apenas as mensagens sendo postadas, independente de quem as poste. No contexto da saúde, análises deste tipo também podem ser feitas, mas para fazer correlações com o mundo real, precisamos conhecer os "hábitos" dos usuários e, portanto, os métodos utilizados devem ter a capacidade de identificar estes usuários.
Professor: Gisele Lobo Pappa

41. Escalonamento de Tarefas em Ambientes heterogêneos Distribuídos | 2015 a 2016 | PESQUISA
O objetivo do projeto é o desenvolvimento de estratégias e algoritmos para o escalonamento de tarefas em ambientes heterogêneos.
Professores: Renato Antonio Celso Ferreira; Dorgival O Guedes; Guilherme Neri Andrade; Wilson de Carvalho; Renato Utsch; Alberto Albuquerque; Pedro Henrique Caldeira

42. Desenvolvimento de Sistemas para Adaptabilidade à Carga e Condições de Operação em Data-Centers Corporativos | 2015 a 2017 | PESQUISA
O objetivo do projeto é produzir ferramentas de sistemas de computação que permitam aos servidores computacionais de um data-center genérico se adaptarem à demanda e às condições externas.
Professores: Renato Antonio Celso Ferreira; Wagner Meira Jr; Adriano A Veloso; Mario Fernando Montenegro Campos; Renato Martins Assunção

43. Arquitetura e Algoritmos Big Data para a Análise de Perícias Médicas | 2014 | PESQUISA
Professores: Adriano Alonso Veloso; Wagner Meira Jr; Dorgival Olavo Guedes; Renato Ferreira

44. Cont-Class: Algoritmos de Aprendizado Associativo para Classificação (Quasi-)Contígua | 2014 a 2016 | PESQUISA
Existe, em diversas aplicações de interesse, informação útil e inexplorada na ordem e na proximidade com a qual os atributos ocorrem em um conjunto de dados. Tal informação pode ser usada tanto para obtenção de ganhos em acurácia como para diminuição do custo computacional no processo de classificação, possibilitando a detecção de padrões longos em domínios de alta dimensionalidade.
Professores: Adriano Alonso Veloso; Wagner Meira Jr; Srinivasan Parthasarathy; Mohameed Javeed Zaki; Altigran da Silva; Nívio Ziviani

45. Observatório do Investimento / Observatório Web / CTWeb - https://app.observatoriodoinvestimento.com/ | 2014 | DESENVOLVIMENTO
Observatório do Investimento - Uma plataforma computacional para coleta, tratamento, mineração, análise, distribuição e visualização de dados de mídias Web para o mercado de capitais brasileiro.
Professores: Adriano Cesar Machado Pereira; Wagner Meira Jr; Walter dos Santos Filho; Zilton Cordeiro Júnior; Leonardo Conegundes; Paulo Gomide; Mateus Lana

46. Fapemig/Programa Pesquisador Mineiro: Análise de Dados Massivos em Nuvens | 2014 a 2017 | PESQUISA
Dadas as dimensões das bases de dados que surgem hoje com o avanço da Internet e dos grafos nelas contidos, o processamento paralelo e distribuído das mesmas torna-se essencial. Por outro lado, as vantagens da chamada computação em nuvem têm atraído cada vez mais empresas e grupos de pesquisas aos recursos computacionais providos por grandes datacenters, trazendo consigo o interesse por soluções que aumentem o nível de automação desses sistemas. Soluções eficientes que permitam que se utilize tais sistemas na solução de problemas com os representados por redes complexas de grandes dimensões são ainda um desafio, o que motiva este trabalho. Com isso em mente, este projeto tem por objetivo desenvolver soluções para a construção de aplicações escaláveis e eficientes para processamento de grandes volumes de dados, em particular redes complexas, utilizando recursos de virtualização e computação em nuvem. Aspectos como particionamento eficiente dos dados, distribuição de carga em tempo de execução, primitivas de comunicação e isolamento de tráfego entre diferentes aplicações serão considerados para esse fim. Para isso, este projeto se organiza em duas linhas de ação principais: o desenvolvimento de abstrações e sistemas de suporte para o processamento eficiente de grandes bases de dados, como as criadas por redes complexas, e a criação de soluções para problemas de configuração e gerência de recursos em ambientes em nuvem.
Professor: Dorgival Olavo Guedes Neto

47. Diff-stack: Suporte a Análise Comparativa de Dados em Ambientes Heterogêneos - / MCTI/CNPQ/Universal 14/2014 - CNPq 446297/2014-3 | 2014 a 2017 | PESQUISA
Ambientes de computação de alto desempenho com milhões de núcleos de processamento, tais como máquinas equipadas com aceleradores, disponibilizarão uma capacidade computacional sem precedentes. Esse poder computacional viabilizará simulações por meio de modelos numéricos mais precisos, exploração de grandes bases de dados em diversas áreas e, em termos gerais, acelerará
descobertas científicas. Entretanto, essas possibilidades vêm acompanhadas de desafios significativos em relação ao desenvolvimento de aplicações capazes de utilizar de forma efetiva esse poder computacional, devido a maior complexidade desses novos ambientes de execução. As complexidades adicionais incluem: níveis de concorrência muito maiores, hierarquias de memória mais profundas e novas formas de heterogeneidade. Além disso, desafios referentes a limitações de gastos com energia e necessidade de tolerar falhas introduzirão problemas adicionais na programação e execução de aplicações. Outro componente importante nesse cenário é a larga quantidade de dados processadas/geradas por essas aplicações (Big Data) em execuções utilizando máquinas em larga escala. O objetivo principal desse projeto será pesquisar, desenvolver e avaliar componentes necessários para suportar a execução eficiente de uma importante classe de aplicações, chamada aqui de aplicações para análise comparativa de dados, em ambientes de execução em escala extrema (extreme scale). Esses componentes comporão um sistema de execução chamado Diff-stack. Análise comparativa de dados facilita o processo de estudar, entender e quantificar como um conjunto de bases de dados (ou subconjuntos de uma mesma base de dados) se diferenciam e se correlacionam. Esse tipo de análise tem papel crítico em diversas fases da pesquisa científica, incluindo validação de modelos numéricos, estudo de parâmetros, estimativa de erros, construção de modelos preditivos e estudo de sensitividade de parâmetros.
Professores: George Luiz Medeiros Teodoro; Renato Ferreira; Alba Cristina Magalhães Alves de Melo; Ricardo Jacobbi

48. PUROMALTE: Plataforma Virtualizada em Roteadores Domésticos para Monitoramento, Análise, Localização e Tratamento de Eventos de Rede | 2014 a 2016 | PESQUISA
Neste projeto desenvolveremos PUROMALTE, uma plataforma virtualizada em roteadores de acesso para monitoramento de redes. Usaremos PUROMALTE para monitorar e entender o desempenho observado por clientes de banda larga, bem como desenvolver e avaliar novas tecnologias para localizar e tratar problemas de desempenho em redes. Novas tecnologias desenvolvidas com PUROMALTE poderão melhorar diretamente a experiência e de usuários na Internet e reduzir o custo operacional de provedores de acesso.
Professor: Italo Fernando Scotá Cunha

49. Inferring Interdomain Routing Policies | 2014 a 2017 | PESQUISA
Our focus in this project is to investigate interdomain routing preferences. We use Transit Portal, a platform that allows us to announce IP prefixes to the real Internet from seven different locations, including a major Internet exchange point and in the process of expanding to more exchange points. We use Transit Portal to craft prefix announcements to control available paths and systematically force routing changes at a target AS. These announcements allow us to observe a sequence of chosen routes and infer routing preferences of Internet ASes. We expect to gain better insight on general interdomain routing and build a public database of AS routing preferences. We believe our results can help the academic community better understand real-world BGP usage and help both network and service operators.
Professor: Italo Fernando Scotá Cunha

50. Mineração Eficiente dos Sky-Patterns em Tensores Fuzzy | 2014 a 2015 | PESQUISA
Dada uma relação binária, ou seja, um conjunto de objetos descritos por atributos Booleanos, um itemset associa um subconjunto de objetos com o subconjunto de atributos que todos eles têm. Esse tipo de padrão permite descobrir correlações entre os elementos das duas dimensões do conjunto de dados. Recentemente, nós projetamos um algoritmo que é não somente capaz de minerar todos os itemsets mas também generalizações deles para dados com mais de duas dimensões e para dados fuzzy . Assim, a gama de aplicações possíveis foi bastante estendida. Infelizmente, as duas generalizações também pioram dois problemas que já afetaram a descoberta dos itemsets: 1) a quantidade de padrões válidos (mas raramente relevantes) cresce exponencialmente com o tamanho do conjunto de dados e 2) o tempo necessário para extrair todos eles também cresce de forma exponencial. A solução do primeiro problema é uma filtragem dos melhores padrões. É também uma solução do segundo problema se a filtragem acontecer durante a busca deles, podando subespaços de busca nos quais se pode comprovar que nenhum padrão estaria entre os melhores. Até hoje, os "melhores padrões" são geralmente definidos por meio de restrições: o analista define medidas de pertinência dos padrões e fixa limiares acima dos quais um padrão é aceitável. Porém, fixar a priori esses limiares é, senão impossível, muito difícil. Iniciando a análise de um novo conjunto de dados, frequentemente não se extrai nenhum padrão (limiar alto demais) ou, ao contrário, se extrai milhões de padrões (limiar baixo demais). Vamos, neste projeto, considerar a extração eficiente (poda do espaço de busca) dos padrões que otimizam simultaneamente várias medidas complexas no contexto amplo dos conjuntos de dados fuzzy e n -dimensionais (n ≥ 2). Para isso usaremos o conceito de fronteira de Pareto (também chamada skyline ) que não requer nenhum limiar. A extração de sky-patterns já foi estudada em alguns trabalhos recentes mas somente no contexto restrito das relações binárias e sempre como um pós-processamento de todos os padrões cuja extração é inviável se o conjunto de dados for grande. A projeção do algoritmo a sua implementação já foram realizadas. O aluno será envolvido na avaliação experimental do algoritmo com dados reais e, em colaboração com o professor Adriano Veloso, no estudo das possibilidades que ele oferece no contexto da classificação. Esperamos que o uso de padrões que otimizam simultaneamente várias medidas de discriminação de uma classe levará a uma classificação mais interpretável e mais robusta.
Professor: Loïc Pascal Gilles Cerf

51. UNIVERSAL/CNPq/2014: Watershed: Um ambiente de processamento de streams distribuído. | 2014 a 2016 | PESQUISA
Professores: Renato Antonio Celso Ferreira; Wagner Meira Jr.; Dorgival O Guedes

52. Mineração de padrões discriminativos em grandes volumes de dados biomédicos | 2014 a 2019 | PESQUISA
O projeto de pesquisa proposto nesse documento discute novas abordagens para o descobrimento de padrões discriminativos em grandes volumes de dados biomédicos. Padrões discriminativos são conjuntos de (ou expressões lógicas envolvendo) variáveis em uma base de dados que são muito relacionados (frequentes) em uma classe e pouco relacionados (infrequente) nas demais. Nosso interesse nesse projeto é investigar novas abordagens que possibilitem a identificação de padrões relacionados a doenças. Nossa proposta é desenvolver métodos com o intuito específico de minerar padrões discriminativos em conjuntos de dados de alta dimensionalidade, usando para isso técnicas evolutivas. Propomos ainda a investigação da paralelização desses novos métodos, sobretudo com o uso de novas arquiteturas computacionais como GPUs e MapReduce.
Professores: Renato Vimieiro; Carlos Riveros; Teresa Bernarda Ludermir

53. Modelagem, Caracterização e Melhoria da Qualidade de Serviços da Web | 2013 | PESQUISA
O objetivo geral deste projeto é modelar, caracterizar e melhorar a qualidade dos ser-viços da Web sob uma determinada perspectiva de análise. As questões fundamentais de pesquisa são as seguintes: 1. Como modelar os serviços da Web sob uma determinada perspectiva de aná-lise? 2. Como entender esses serviços? 3. Como melhorar a qualidade desses serviços?
Professores: Adriano Cesar Machado Pereira; Adriano Veloso; Wagner Meira Junior

54. CNPq/Universal ADAMANte: Análise de Dados Massivos em Nuvens | 2013 a 2016 | PESQUISA
Este projeto tem por objetivo desenvolver soluções para a construção de aplicações escaláveis e eficientes para processamento de grandes volumes de dados, em particular redes complexas, utilizando recursos de virtualização e computação em nuvem. Aspectos como particionamento eficiente dos dados, distribuição de carga em tempo de execução, primitivas de comunicação e isolamento de tráfego entre diferentes aplicações serão considerados para esse fim.
Professores: Dorgival Olavo Guedes Neto; Wagner Meira Jr.

55. Métodos Evolucionários em Mineraçăo de Dados: Aprendizado Semi-Supervisionado para Dados Web | 2013 a 2015 | PESQUISA
*****PPM (Programa Pesquisador Mineriro) VII - Edital Fapemig 03/2013 ***** Esse projeto propőe um conjunto de métodos baseados em aprendizado (semi-) supervisionado para resolver diversos problemas envolvendo dados provenientes da Web, embora outras fontes de dados também possam ser utilizadas com pequenas adaptaçőes. O projeto destaca vários outros sub-projetos que tratam de problemas relevantes dentro da parte de mídias sociais, tais como análise de opiniăo, agrupamento e caracterizaçăo de usuários por interesse. Porém, seu prinicpal objetivo é estudar como métodos evolucionários podem auxiliar nessas tarefas, principalmente quando combinados com abordagens semi-supervisionadas.
Professor: Gisele Lobo Pappa

56. Métodos Evolucionários para Geração Automática de Algoritmos de Aprendizado | 2013 a 2016 | PESQUISA
***********Universal CNPq 14/2013******************** O principal objetivo desse projeto é utilizar um algoritmo evolucionário para gerar automaticamente um algoritmo de classificação baseado em Redes Bayesianas. O algoritmo será validado em três contextos: considerando bases de dados específicas, conjuntos de bases com características semelhantes e bases de dados genéricas. Além disso, estudaremos como melhorar a generalização dos algoritmos criados. O objetivo a longo prazo é que possamos criar métodos evolucionários capazes de geral algoritmos de classificação genéricos, capazes de substituir (parcialmente) um design humano.
Professor: Gisele Lobo Pappa

57. PLUME: Plataforma Virtualizada para Monitoramento e Extensão de Redes Domésticas | 2013 a 2015 | PESQUISA
Neste projeto propomos PLUME, uma plataforma virtualizada para monitoramento e extensão de redes domésticas. PLUME abrirá caminho para monitoramento e um melhor entendimento do desempenho observado por clientes de banda larga, bem como desenvolvimento de novas tecnologias para localizar e resolver problemas de desempenho em redes. Novas tecnologias desenvolvidas com PLUME poderão melhorar diretamente a experiência de usuários na Internet e reduzir o custo operacional de provedores de acesso.
Professor: Italo Fernando Scotá Cunha

58. Mineracao Eficiente dos Sky-Patterns em Tensores Fuzzy | 2013 a 2016 | PESQUISA
Dada uma relação binária, ou seja, um conjunto de objetos descritos por atributos Booleanos, um itemset associa um subconjunto de objetos com o subconjunto de atributos que todos eles têm. Esse tipo de padrão permite descobrir correlações entre os elementos das duas dimensões do conjunto de dados. Recentemente, nós projetamos um algoritmo que é não somente capaz de minerar todos os itemsets mas também generalizações deles para dados com mais de duas dimensões e para dados fuzzy. Assim, a gama de aplicações possíveis foi bastante estendida. Infelizmente, as duas generalizações também pioram dois problemas que já afetaram a descoberta dos itemsets: 1) a quantidade de padrões válidos (mas raramente relevantes) cresce exponencialmente com o tamanho do conjunto de dados e 2) o tempo necessário para extrair todos eles também cresce de forma exponencial. A solução do primeiro problema é uma filtragem dos melhores padrões. É também uma solução do segundo problema se a filtragem acontecer durante a busca deles, podando subespaços de busca nos quais se pode comprovar que nenhum padrão estaria entre os melhores. Até hoje, os "melhores padrões" são geralmente definidos por meio de restrições: o analista define medidas de pertinência dos padrões e fixa limiares acima dos quais um padrão é aceitável. Porém, fixar \emph{a priori} limiares acima dos quais essas medidas são consideradas suficientemente boas é, senão impossível, muito difícil. Vamos, neste projeto, implementar a extração eficiente dos padrões que \emph{otimizam} simultaneamente várias medidas de pertinência. O projeto está dividido em três linhas de pesquisa. A primeira visa a integrar a otimização simultânea das medidas à extração dos padrões num tensor fuzzy (poda do espaço de busca). Na segunda linha de pesquisa, estudaremos as possibilidades assim oferecidas nos contextos da classificação associativa e da mineração de padrões relevantes em relações nas quais os elementos são associados a valores numéricos. Enfim, a terceira linha de pesquisa se refere à paralelização do algoritmo para permitir a mineração de conjuntos de dados enormes.
Professores: Loïc Pascal Gilles Cerf; Adriano Veloso; Wagner Meira Jr.

59. Pré-processamento de Relações n-árias Esparsas para uma Descoberta Escalável de Padrões | 2013 a 2014 | PESQUISA
Professor: Loïc Pascal Gilles Cerf

60. Mineração de Padrões que Otimizam Simultaneamente várias Medidas de Qualidade | 2013 a 2014 | PESQUISA
Edital ADRC - 01/2013
Professor: Loïc Pascal Gilles Cerf

61. Um Sistema Genérico para a Mineração de Padrões Expressivos | 2013 a 2015 | PESQUISA
Quando mais específico é um tipo de padrão a ser descoberto de forma completa (i.e., quando todos os padrões verificando a definição são extraídos dos dados), mais rapidamente a mineração ocorre. Isso não implica que as abordagens escaláveis são necessariamente específicas. Desenvolvemos princípios de enumeração (i.e., como caminhar no espaço dos padrões) genéricos que permitem ao analista escolher, em uma grande classe, restrições de relevância que podem ser eficientemente impostas aos padrões do tipo itemset. Mostramos também que essa enumeração é aplicável a conjuntos dados mais gerais do que as relações binárias em que os itemsets são tradicionalmente definidos. Porém a aplicabilidade dos nossos princípios de enumeração ainda tem limites. A comunidade internacional mostrou recentemente dois deles e, neste projeto, estenderemos nosso algoritmo a dados fuzzy e/ou muito esparsos. Além disso, destacaremos a grande expressividade da nossa classe de restrição mostrando como podemos, com a nossa solução genérica, descobrir eficientemente padrões que são a base de vários classificadores associativos. Finalmente, a última linha de pesquisa se refere a tolerância a ruído que afeta qualquer conjunto de dados reais.
Professores: Loïc Pascal Gilles Cerf; Adriano Veloso; Wagner Meira Jr.

62. PerCEBa - Pensamento Computacional no Ensino Básico | 2013 | PESQUISA
A inclusão de conceitos de Pensamento Computacional na Escola Brasileira é uma ação concreta na busca do desenvolvimento de TICs no Brasil. O objetivo geral deste projeto é produzir os recursos didáticos necessárias para a oferta de conteúdo voltado para o ensino médio acerca da área de Pensamento Computacional. O material a ser produzido consta de material didático para ser utilizado pelo professor em sala de aula junto com aluno, formado por material impresso, arquivos de software de apresentação, sites no Moodle com amplo material gráfico, vídeos e áudio conforme o caso específico. Edital FAPEMIG 13/2012: Pesquisa em Educação Básica Acordo CAPES-FAPEMIG.
Professores: Marcio Luiz Bunte de Carvalho; Luiz Chaimowicz; Mirella Moura Moro

63. CNPQ: Bolsa de Produtividade em Pesquisa (nível 2) | 2012 a 2015 | PESQUISA
Construção de classificadores a partir de dados discretos, incertos, dinâmicos e de alta-dimensionalidade
Professor: Adriano Alonso Veloso

64. UOL: Bolsa Pesquisa (edital 2012) | 2012 a 2013 | PESQUISA
Técnicas de aprendizado de máquina para coleta automática de dados e detecção de eventos através de análise de conteúdo
Professores: Adriano Alonso Veloso; Alexandre Davis; Luis Matoso

65. Métodos Bio-inspirados para Aprendizado Semi-supervisionado | 2012 a 2013 | PESQUISA
*** Edital MCT/CNPq No.14/2011- Universal***** O principal objetivo desse projeto e projetar e desenvolver novos metodos bioinspirados para resolver problemas de aprendizado utilizando uma abordagem de classicação semi-supervisionada, com foco em algoritmos de programação genética e colônias de formigas.
Professor: Gisele Lobo Pappa

66. TRAIN: Mapeamento Topológico e Resolução de Anormalidades na Internet | 2012 a 2015 | PESQUISA
A Internet é usada por mais de 2 bilhões de pessoas para atividades que incluem entretenimento, educação e comércio. Falhas e problemas de desempenho na Internet causam prejuízos significativos e frustram milhões de usuários. Investir no desenvolvimento de algoritmos, protocolos e mecanismos para reduzir o impacto de problemas na Internet reduz prejuízos, melhora a qualidade de serviço e propicia a implantação de novas aplicações de missão crítica. O objetivo deste projeto é desenvolver técnicas para ajudar usuários e operadores de rede a identificar a localização e reduzir o impacto de problemas de desempenho na Internet.
Professor: Italo Fernando Scotá Cunha

67. Descoberta de Padrões Discriminantes por um Sistema Genérico | 2012 a 2013 | PESQUISA
Professor: Loïc Pascal Gilles Cerf

68. UOL: Bolsa Pesquisa (edital 2011) | 2011 a 2012 | PESQUISA
Classificação associativa sob-demanda em tempo-real e perante dados incertos
Professor: Adriano Alonso Veloso

69. Fapemig/FIAT: Comunicação e Relacionamento Empresa-Cliente (edital 2010) | 2011 a 2012 | PESQUISA
Análise espaço-temporal de opiniões acerca de modelos automotivos
Professor: Adriano Alonso Veloso

70. Fapemig: Universal (edital 2011) | 2011 a 2013 | PESQUISA
Algoritmos pata análise de sentimentos em fluxos de dados
Professores: Adriano Alonso Veloso; Wagner Meira Jr; Giselle Pappa

71. Agrupamento e Caracterização de Usuários em Redes Sociais | 2011 a 2013 | PESQUISA
*****Edital FIAT/FAPEMIG***** O Objetivo desse projeto é Identificar grupos de consumidores de carros da FIAT, bem como de carros de empresas concorrentes, utilizando dados do Twitter. Várias dimensões poderão ser utilizadas nesse processo, incluindo faixa etária, sexo, classe social, etc. Os grupos identificados serão então caracterizados a partir de seu comportamento no Twitter, como sendo simples consumidores ou geradores ativos de informação.
Professor: Gisele Lobo Pappa

72. Métodos Evolucionários em Mineração de Dados: Classificação e Agrupamento de Dados Web | 2011 a 2013 | PESQUISA
Programa Pesquisador Mineiro Edital EDITAL FAPEMIG 03/2011
Professor: Gisele Lobo Pappa

73. UOL/PESQUISA: Análise de fluxos de sentimento utilizando técnicas de classificação adaptativas. | 2011 a 2012 | PESQUISA
O objetivo deste projeto é de estudar técnicas para análise de sentimentos em fluxos de dados sujeitos a "Concept Drift".
Professores: Renato Antonio Celso Ferreira; Ismael Santana

74. A clinical trial to determine value of hormone and bone mineral density therapy in patients receiving radiotherapy in early stage prostate cancer | 2011 a 2011 | PESQUISA
Prostate cancer depends for its growth on the male hormone, testosterone, which circulates in the blood. As a result treatment which reduces testosterone level ('androgen deprivation'[AD] therapy) can produce clinically important shrinkage of prostate cancer. Each year approximately 4000 men in Australia and New Zealand develop prostate cancer which has not spread widely and which is amenable to attempted cure by surgery or radiation. Results from recent trials, including a large trial run in Australia and New Zealand by the Trans-Tasman Radiation Oncology Group (TROG) between 1996 and 2000, suggest that 6 months AD will benefit many of these men if administered in conjunction with radiotherapy.The aim of this project is to run a further trial to find out whether 12 months of AD, after radiotherapy will prevent the need for further treatment and prolong more lives than only 6 months AD. Bisphosphonate treatment also offers important benefits to prostate cancer patients because it can increase bony stregth by increasing its density and can also arrest cancerous growth in bones. A further aim of the trial therefore is to determine whether 18 months of bisphosphonate therapy (BP) will prevent bone loss (osteoporosis) caused by AD, and also further reduce the risk of secondary bone cancer developing. This trial will involve recruitment of 1000 men across Australia and New Zealand over a 5 year period. When complete the trial will determine whether further treatment can be delayed and life prolonged in up to half of all men in whom treatment presently fails. This grant will support collection of patient data and the necessary quality checks to ensure that reliable conclusions can be drawn.
Professores: Renato Vimieiro; Pablo Moscato; David Joseph; James Denham; Michael Nowitz; Gillian Duchesne; Nigel Spry; David Lamb; John Matthews; Sandra Turner; Chris Atkinson; Keen-Hun Tai; Nirdosh Gogna; Lizbeth Kenny; Terry Diamond; Richard Smart; David Rowan; Kevin Lynch; Brett Delahunt; Judy Murray; Cate D'Este; Patrick McElduff; Allison Steigler; Allison Kautto; Jean Ball

75. CNPQ: Universal (edital 2010) | 2010 a 2012 | PESQUISA
Algoritmos de aprendizado ativo para ordenação de documentos
Professor: Adriano Alonso Veloso

76. PRPQ-UFMG: Bolsas de iniciação científica (edital 2010) | 2010 a 2011 | PESQUISA
Professor: Adriano Alonso Veloso

77. Projeto e Desenvolvimento de um Portal de de Tecnologia Industrial Básica para o CEFET-MG | 2010 a 2011 | PESQUISA
A Construção de um Portal de Tecnologia Industrial Básica no CEFET MG - Portal TIB_CEFET MG integra um conjunto de projetos independentes, mas articulados em um projeto denominado Portal de Tecnologia Industrial Básica CEFET MG ? TIB_CEFETMG, que foi pensado e articulado para ser desenvolvido dentro do Programa institucional de Bolsas FAPEMIG/ INMETRO de iniciação em TECNOLOGIA INDUSTRIAL BÁSICA. O Projeto Portal de Tecnologia Industrial Básica CEFET MG tem por objetivo mapear e disponibilizar informações sobre a infra-estrutura de serviços laboratoriais no CEFET MG e consiste em: a) mapear a demanda potencial por serviços laboratoriais de ensaios e calibração nos grupos de pesquisa dos departamentos do CEFET MG; b) mapear o parque laboratorial do CEFET MG através da identificação da capacidade de oferta de serviços laboratoriais de ensaios e calibração, incluindo especificação dos ensaios, grandezas, faixas de medição e incertezas de medição inerentes; c) Construção de uma base de dados de Serviços Laboratoriais disponíveis no CEFET MG para consulta de professores e pesquisadores.
Professores: Adriano Cesar Machado Pereira; Weverton Oliveira; Túlio Oliveira; Laura Gomes França

78. Credibilidade em Serviços da Web | 2010 | PESQUISA
Este projeto de pesquisa versa sobre a credibilidade em serviços da Web. O objetivo geral do projeto é investigar a credibilidade em serviço da Web, considerando os três níveis da Web considerados (interação, serviços e infra-estrutura) e as relações presentes entre eles. Essa investigação visa promover mais credibilidade aos sistemas Web, através de modelos, algoritmos e novas tecnologias. A contextualização do tema em torno da Web foi realizada para delimitar melhor o escopo da pesquisa, bem como explorar um tipo de sistema computacional que é um dos mais importantes e dinâmicos nos últimos anos. A interatividade e dinamismo dos serviços da Web é o que torna cada vez mais necessário investigar e prover credibilidade aos mesmos.
Professor: Adriano Cesar Machado Pereira

79. Fapemig/Programa Pesquisador Mineiro: Suporte de Sistemas a Aplicações Escaláveis | 2010 a 2012 | PESQUISA
Este projeto pretende abordar o problema de oferecer a aplicações distribuídas um ambiente de execução que não se transforme em um impecilho na busca do melhor desempenho possível. Para atingir esse objetivo pretendemos focar os problemas de desenvolvimento de frameworks que simplifiquem o trabalho de desenvolvimento de aplicações paralelas não regulares, a análise e implementação de protocolos que não se tornem gargalos para o desempenho das aplicações e a criação de abstrações que simplifiquem o trabalho de programação de aplicações distribuídas irregulares em larga escala, sem entretanto criar grandes barreiras para uma implementação eficiente.
Professor: Dorgival Olavo Guedes Neto

80. CNPq/Universal: Suporte de Sistemas a Aplicações Escaláveis | 2010 a 2012 | PESQUISA
No contexto de aplicações distribuídas de grande porte, desenvolver soluções a nível de sistemas operacionais e redes de computadores que propiciem a criação de um ambiente de desenvolvimento e execução de aplicações distribuídas em larga escala e com alto desempenho é hoje um desafio para a comunidade de sistemas distribuídos. Com base na nessa experiência nessa área, o objetivo deste projeto é desenvolver algoritmos, ferramentas e tecnologias de implementação que simplifiquem o desenvolvimento de aplicações de alto desempenho e altamente distibuídas. Sempre que possível, esse trabalho utilizará o ambiente Anthill, desenvolvido no DCC-UFMG pelo nosso grupo de pesquisa, que já vem sendo aplicado em nossas pesquisas.
Professores: Dorgival Olavo Guedes Neto; Wagner Meira Jr.; Tiago Macambira; Hélio Marcos Paz de Almeida; Renato A. C. Ferreira

81. InCrivel - Incorporando Credibilidade a Algoritmos de Mineração de Dados | 2010 a 2011 | PESQUISA
*****Edital Universal CNPq***** O principal objetivo desse projeto é estimar a credibilidade de exemplos presentes em um conjunto de treinamento, determinando o quanto cada exemplo deve contribuir para criação de um modelo de classificação. Programação genética está sendo utilizada para gerar funções de credibilidade baseadas em um conjunto de fatores que definem se um exemplo é confiável ou não.
Professor: Gisele Lobo Pappa

82. SENERGY Sistemas de Medição | 2010 a 2011 | PESQUISA
Cooperação Técnica para o Desenvolvimento do Projeto de Pesquisa e Desenvolvimento Tecnológico D217 - Sistema de Proteção da Receita baseado em Redes Neurais Artificiais - Interface com WGOI
Professores: Renato Antonio Celso Ferreira; Gisele Lobo Pappa

83. UNIVERSAL/CNPq/2010: HOPPER: Suporte à execução eficiente de aplicações de fluxo de dados em Hardware Heterogêneo | 2010 a 2012 | PESQUISA
Nesse projeto propomos desenvolver ferramentas de suporte a execução que facilitem o uso sinergístico desses diversos dispositivos na realização de computações dentro do modelo de fluxo de dados.
Professores: Renato Antonio Celso Ferreira; Wagner Meira Jr.; Dorgival Guedes

84. Using data mining for mapping public opinion on textual media content | 2010 a 2014 | PESQUISA
Projeto piloto conduzido de forma independente pelos pesquisadores envolvidos. O objetivo desse projeto foi o desenvolvimento de novos métodos para análise de enquadramentos em grandes conjuntos de conteúdo midiático usando técnicas de mineração de dados.
Professores: Renato Vimieiro; Ana Carolina Soares Costa Vimieiro

85. MATIS - Modelos e Algoritmos para Tratamento de Informações Sociais em Tempo Real | 2010 a 2013 | PESQUISA
O objetivo deste projeto é desenvolver modelos, algoritmos e ferramentas que permitam modelar, coletar, analisar e apresentar informações sociais em larga escala como, por exemplo, aquelas existentes na Internet, em tempo real.
Professores: Wagner Meira Junior; Dorgival Olavo Guedes Neto; Renato Antonio Celso Ferreira; Adriano Cesar Machado Pereira; Gisele Lobo Pappa; Adriano Alonso Veloso

86. Credibilidade em Serviços da Web | 2009 a 2010 | PESQUISA
Este projeto de pesquisa versa sobre a credibilidade em serviços da Web. Cabe ressaltar que o que motivou a escolha do tema foi o grau de importância que este tem para a sociedade hoje e a vastidão de desafios e questões de pesquisa que surgem desse tema de investigação. Também é importante explicar que a escolha do tema tem relação com a experiência do candidato em questões de pesquisa de tópicos relacionados e com as linhas de pesquisa que o candidato tem trabalhado em seu projeto de pós-doutorado. A contextualização do tema em torno da Web foi realizada para delimitar melhor o escopo da pesquisa, bem como explorar um tipo de sistema computacional que é um dos mais importantes e dinâmicos nos últimos anos. A interatividade e dinamismo dos serviços da Web é o que torna cada vez mais necessário investigar e prover credibilidade aos mesmos. O objetivo geral do projeto é investigar a credibilidade em serviço da Web, considerando os três níveis da Web considerados (interação, serviços e infra-estrutura) e as relações presentes entre eles. Essa investigação visa promover mais credibilidade aos sistemas Web, através de modelos, algoritmos e novas tecnologias.
Professores: Adriano Cesar Machado Pereira; Wagner Meira Jr; Fernando Mourao; Leonardo Chaves Dutra Rocha; Arlei Silva; Diego de Moura Duarte; Sara Guimarães

87. EMCHi: Evolução de Modelos de Classificação Hierárquica | 2009 a 2011 | PESQUISA
*****Edital PPP - Programas Primeiro Projetos***** Esse projeto tem como principal objetivo desenvolver modelos de classificação hierárquica baseados em algoritmos evolucionários. Além disso, ele também investigará métricas eficazes para avaliação de métodos hierárquicos.
Professor: Gisele Lobo Pappa

88. Incorporando Modelos de Conhecimento a Algoritmos de Mineração de Dados Escaláveis | 2009 a 2011 | PESQUISA
O objetivo geral desse projeto é melhorar algoritmos de mineração de dados, em particular mineração de textos e grafos por meio da exploração de modelos de conhecimento para aumentar sua efetividade e paralelização, de tal que forma que eles possam escalar melhor.
Professores: Wagner Meira Junior; Dorgival Olavo Guedes Neto; Renato Antonio Celso Ferreira; Marcos Andre Goncalves; Leonardo Chaves Dutra da Rocha; Gisele Lobo Pappa; Clodoveu Augusto Davis Jr.; Jugurta Lisboa Filho

89. Eficiência em Mercados Eletrônicos: Caracterização, Suporte à Participação e Novos Modelos de Negócio. | 2008 a 2010 | PESQUISA
O objetivo central deste projeto se resume a aperfeiçoar a eficiência dos mercados eletrônicos, que diz respeito a torná-lo interessante (atrativo) e mais popular para os atores envolvidos na negociação eletrônica (compradores, vendedores, provedores de serviços e soluções tecnológicas). Para alcançar esse objetivo, a estratégia básica é pesquisar e desenvolver metodologias de análise de mercados eletrônicos (marketmakers). A partir dessas metodologias será possível adquirir conhecimentos e aplicá-los na criação de modelos que aperfeiçoem e agreguem valor aos mercados eletrônicos, como, por exemplo, em aplicações como a automação de atividades, suporte à participação em negociações eletrônicas, e proposta de novos modelos de negócio.
Professor: Adriano Cesar Machado Pereira

90. Fapemig/Programa Pesquisador Mineiro: Suporte de Sistemas a Aplicações Distribuídas de Alto Desempenho | 2008 a 2010 | PESQUISA
Este projeto aborda o problema de oferecer a aplicações distribuídas um ambiente de execução que lhes permita atingir o melhor desempenho possível. Para isso pretende-se utilizar uma abordagem sistêmica que não ignore as interações entre sistemas de E/S, escalonadores, protocolos de rede, interfaces de programação e sistemas de memória, sabendo explorar a interação entre as partes de forma positiva. Esse trabalho pode ser dividido basicamente em três áreas principais: implementação de protocolos, com uma ênfase em identificar soluções que gerem sistemas de comunicação onde o sistema operacional se adapte da melhor forma para servir as necessidades das aplicações; distribuição de tarefas em sistemas paralelos de diversas escalas, analisando como mudanças na forma de distribuir tarefas e recursos na rede afetam o padrão de comunicação e o desempenho, tanto em clusters quanto em sistemas distribuídos em larga escala, como redes peer-to-peer e, finalmente, desenvolvimento de aplicações, onde as demandas de cada aplicação são analisadas em detalhe em busca de implementações e abstrações que permitam exprimir de forma mais eficiente o paralelismo inerente a cada problema.
Professor: Dorgival Olavo Guedes Neto

91. PROBIC/Fapemig: SAD: Suporte de sistemas a aplicações amplamente distribuídas | 2008 a 2009 | PESQUISA
O objetivo do trabalho é desenvolver, no aluno bolsista, habilidades necessárias para compreender o problema de organização autônoma de sistemas distribuídos complexos. Ao aplicar técnicas de monitoração e análise de dados, para construir modelos eficazes de sistemas complexos e realizar a avaliação de soluções propostas no ambiente alvo, em termos de aplicabilidade e desempenho, o aluno deverá utilizar metodologia científica adequada.
Professores: Dorgival Olavo Guedes Neto; Everthon Valadão; Assahaf Geçary

92. Algoritmos Evolucionários para Criação de Novos modelos de Classificação Hierárquica | 2008 a 2009 | PESQUISA
Edital PRPQ
Professor: Gisele Lobo Pappa

93. INCT - Instituto Nacional de Pesquisa da Web | 2008 a 2010 | PESQUISA
O INCT para Web é uma rede integrada de pesquisadores de quatro instituições, coordenada pelo prof. Virgilio Almeida, do Departamento de Ciência da Computação da UFMG. A Web é o maior sistema de informação e comunicação já construído, e interfere de forma significativa nas atividades humanas. O INCT Web foi criado para projetar e desenvolver sistemas, tecnologias e aplicações que permitam explorar as possibilidades de uso da Web no futuro de forma benéfica para a sociedade. O INCT Web visa estudar e entender os fundamentos científicos e tecnológicos da Web, bem como suas repercussões sociais, para propor e desenvolver sistemas e tecnologias que poderão compor a Web do futuro. O INCT para Web envolve pesquisadores e alunos da UFMG, CEFET-MG, UFAM e UFRGS.
Professor: Virgilio Augusto Fernandes Almeida

94. Mineração de dados de aplicações internet e sua paralelização. | 2008 a 2010 | PESQUISA
Este projeto tem por objetivo desenvolver técnicas de mineração de dados para suporte ao entendimento e aperfeiçoamento de duas aplicações de alta relevância e impacto no contexto da Internet: bibliotecas digitais e detecção de spams. Considerando a demanda computacional e o crescente volume de dados a ser minerado, o projeto também propõe a construção de um novo ambiente de execução que suporte a paralelização dessas aplicações buscando a escalabilidade e a eficiência, além de exploração de paralelismo em vários níveis do sistema computacional.
Professor: Wagner Meira Junior

95. E2P2 - Escalabilidade e Eficiência no Pareamento Probabilístico de Bases do SUS | 2008 a 2011 | PESQUISA
Este projeto tem por objetivo desenvolver técnicas escaláveis e eficientes para o pareamento de bases do SUS, tanto em termos do pareamento em si, quanto da sua paralelização.
Professores: Wagner Meira Junior; Dorgival Olavo Guedes Neto; Renato Antonio Celso Ferreira; Walter dos Santos Filho; Carla Jorge Machado; Altigran Soares da Silva; Mariângela Leal Cherchiglia; Augusto Afonso Guerra Júnior; Eli Iola Gurgel Andrade; Francisco de Assis Acúrcio; Odilon Vanni de Queiroz; Daniele Campos Araújo Szuster

96. Escalabilidade e Eficiência em Sistemas de Computação: Mineração de dados de aplicações Internet | 2008 a 2010 | PESQUISA
Este projeto de pesquisa versa sobre a construção de sistemas de mineração de dados escaláveis e eficientes. A escolha da aplicação mineração de dados (e ferramentas de inteligência em geral). Em particular, o projeto ataca três grupos de desafios de pesquisa em Ciência da Computação: extração automatizada de conhecimento de dados oriundos aplicações Internet, mineração de padrões complexos e escalabilidade e eficiência das técnicas de mineração.
Professores: Wagner Meira Junior; Mohammed Javeed Zaki; Dorgival Olavo Guedes Neto; Renato Antonio Celso Ferreira; Marcos Andre Goncalves

97. ANTHILL: Ferramentas de suporte para aplicações irregulares em ambientes distribuídos. | 2007 a 2009 | PESQUISA
Professor: Renato Antonio Celso Ferreira

98. RCSLA - Rede Colaborativa de Software Livre e Aberto da América Latina e Caribe | 2007 | EXTENSÃO
O objetivo da rede é apoiar iniciativas na área de software livre e aberto e estimular o desenvolvimento de micro e pequenas empresas na área. Sua atuação se dará através do mapeamento, avaliação e divulgação tanto das necessidades governamentais, da iniciativa privada e da sociedade civil, como das ofertas de SLA na região. Com base nos levantamentos e estudos realizados, será estabelecida uma rede que permitirá a clientes localizarem possíveis soluções para seus problemas, assim como a fornecedores identificarem demandas para as quais podem direcionar seus esforços, com apoio da mediação da rede.
Professores: Wagner Meira Junior; Márcio Luiz Bunte de Carvalho; Dorgival Olavo Guedes Neto; Renato Antonio Celso Ferreira; Adriano Cesar Machado Pereira

99. Fapemig/Universal 2006: ASDLE - Autonomia em Sistemas Distribuídos em Larga Escala | 2006 a 2008 | PESQUISA
Este projeto visa desenvolver técnicas baseadas em teoria dos jogos, algoritmos epidêmicos e princípios relacionados para configuração autônoma de sistemas distribuídos em escala planetária.
Professor: Dorgival Olavo Guedes Neto

100. UOL: Bolsa Pesquisa (edital 2005) | 2005 a 2009 | PESQUISA
Classificação associativa sob-demanda
Professor: Adriano Alonso Veloso

101. CNPq RHAE 070.05 - Plataforma de Mineração de Dados para detecção de padrão de compras e otimização de regras de precificação - Coordenação de Projeto - Projeto número 551039/2005-2 | 2005 a 2007 | DESENVOLVIMENTO
Plataforma de Mineração de Dados para detecção de padrão de compras e otimização de regras de precificação. O objetivo do nosso projeto foi compor tecnologias para construir uma plataforma de Mineração de Dados para detecção de padrões de compra e otimização de regras de precificação. Através da solução proposta, é possível auxiliar as empresas a entender o comportamento de seus consumidores e auxiliar na determinação da melhor política de preços a ser praticada, baseada no perfil de compras dos seus clientes. Além disso, a ferramenta auxiliará na detecção da ruptura de estoques e análise de comportamento dos clientes diante de promoções. A idéia é levar a plataforma ainda mais além, abordando Gestão do Estoque, Gestão de Promoções, Análise de Sazonalidade, Segmentação por perfil do cliente, Otimização dos preços, entre outras características. Além do desenvolvimento do projeto, este contribuiu também para a formação de profissionais na área de Mineração de Dados, área de pesquisa visivelmente carente de mão-de-obra qualificada e extremamente importante para o desenvolvimento de novas tecnologias no país.
Professores: Adriano Cesar Machado Pereira; Adriano Veloso; Gustavo Siqueira

102. Minas Telecárdio - implantação e avaliação da efetividade de um Sistema de Telecardiologia em Minas Gerais | 2005 a 2007 | PESQUISA
O presente projeto tem o objetivo de aferir a efetividade e o custo de implantação e de utilização do sistema de telemedicina no atendimento a doenças cardiovasculares no Estado de Minas Gerais, visando contribuir para a melhoria no planejamento das políticas públicas de saúde do estado.
Professores: Marcio Luiz Bunte de Carvalho; HUMBERTO JOSE ALVES; ALANEIR DE FÁTIMA DOS SANTOS

103. PARAMD: Paralelização de algoritmos de mineração de dados | 2005 a 2007 | PESQUISA
Este projeto tem por objetivo desenvolver algoritmos de mineração de dados escaláveis e eficientes para execução em agregados de máquinas, também conhecidos como clusters. O projeto foca em três classes de algoritmos: associações, agrupamentos e classificadores.
Professores: Wagner Meira Junior; Dorgival Olavo Guedes Neto; Renato Antonio Celso Ferreira

104. UFMG/PRPq - Escalabilidade e eficiência em servidores internet paralelizados | 2004 a 2005 | PESQUISA
O principal objetivo do projeto era o estudo de técnicas que viabilizem a paralelização de serviços Internet de forma escalável.
Professores: Dorgival Olavo Guedes Neto; Wagner Meira Jr.

105. AntHill: Plataforma de Execução de Alto Desempenho em Grids | 2004 a 2008 | PESQUISA
O ambiente AntHill tem por objetivo prover suporte para a paralelização escalável e eficiente de algoritmos paralelos. Esta escalabilidade e eficiência resultam da possibilidade de se explorar três tipos de paralelismo: tarefas, dados e assincronia. O ambiente está operacional e tem sido usado para paralelizar diversos tipos de aplicações.
Professores: Wagner Meira Junior; Dorgival Olavo Guedes Neto; Renato Antonio Celso Ferreira

106. Projeto Tamanduá | 2004 a 2007 | PESQUISA
O Projeto Tamanduá tem por objetivo projetar e implementar uma plataforma escalável e eficiente de serviços de mineração de dados. Essas propriedades são atingidas pela utilização de novos algoritmos paralelos construídos sobre a plataforma Formigueiro (Anthill), onde é possível explorar três dimensões de paralelismo: dados, tarefas e assincronia. A plataforma resultante do Projeto Tamanduá vem sendo utilizada por diversos órgãos de governo para atividades como caracterização de perfil de compras governamentais e detecção de fraudes.
Professores: Wagner Meira Junior; Dorgival Olavo Guedes Neto; Renato Antonio Celso Ferreira

107. I3RAMP - O Impacto da Interatividade e Infra-Estrutura de Redes para Atendimento a Grandes Massas Populacionais | 2003 | PESQUISA
Dada a grande popularidade e aplicabilidade de mídia contínua na internet, faz-se necessário o desenvolvimento de métodos de transmissão, armazenamento, replicação, localização de servidores e roteamento de conteúdo que sejam eficientes, escaláveis com o número de clientes, e que resultem em uma boa relação custo-benefício para o provedor de conteúdo e para o usuário. Tais métodos devem levar em consideração o comportamento típico dos clientes e de cada aplicação e suas características de interatividade. Portanto, é extremamente importante uma caracterização mais completa de várias cargas de trabalho de servidores, sintetizadas em modelos que reflitam os vários padrões de acesso e que possam ser posteriormente utilizados pra avaliação do desempenho dos métodos alternativos mais eficientes.
Professores: Virgilio Augusto Fernandes Almeida; Wagner Meira Júnior; Berthier Ribeiro Neto; Jussara Marques de Almeida

108. Caracterização e Modelagem de Sistemas Distribuídos em Larga Escala | 2003 | PESQUISA
O objetivo do projeto é avançar em direção a modelos que ofereçam uma visão ampla da Web. O foco deste projeto é um estudo quantitativo, tanto do ponto de vista experimental quanto teórico, de sistemas distribuídos em larga escala, como a internet/web, usando uma visão oferecida pela estrutura de grafos ADF. O viés experimental do projeto faz uso de dados de tráfego e acesso coletados em diversos pontos-chaves da internet, logs de acesso de servidores proxy cache e dados obtidos através de instrumentação adequada de sistemas operacionais e servidores HTTP. A outra vertente chave do projeto é teórica. A partir das observações experimentais do comportamento de tráfego de requisições, carga em proxy e servidores são buscadas propriedades para modelagem analítica de fenômenos de desempenho na internet/web. Estes modelos tem a finalidade de analisar o desempenho dos sistemas atuais, como também explorar novas políticas de alocação e gerência de recursos em sistemas distribuídos em larga escala.
Professor: Virgilio Augusto Fernandes Almeida

109. PTACS - Tecnologias Avançadas de Computação em Segurança Pública | 2003 | PESQUISA
Neste projeto pretende-se avançar o estado da arte da área de avaliação de políticas de segurança pública, no sentido de criar ferramentas capazes de prever os efeitos obtidos pela implementação de políticas e ações específicas de combate ao crime.
Professores: Virgilio Augusto Fernandes Almeida; Wagner Meira Júnior; Jussara Marques de Almeida; Dorgival Olavo Guedes; Alberto Henrique Frade Laender; Cláudio Chaves Beato Filho; Lúcia Maria de Assumpção Drummond; Renato Antônio Celso Ferreira; Tassni Eunice Lopes Cançado; Valmir Carneiro Barbosa

110. Free-Commerce: Tecnologias da Informação e Comunicações | 2003 | PESQUISA
Este projeto tem como objetivo principal criar um ambiente web para realização de suas compras. Espera-se ao final do projeto que possa ser oferecido a Comunidade um sistema de compras eletrônicas totalmente adequado às organizações e caracterizado por apresentar tecnologia no estado da arte, facilmente expansível, com alta escalabilidade e confiabilidade, além de uma documentação completa referente à utilização, manutenção, gerência e expansão da solução definitiva.
Professores: Virgilio Augusto Fernandes Almeida; Adriano César Machado Pereira

111. Infra-estrutura de telecentros do projeto Cidadão.NET | 2003 | EXTENSÃO
Este projeto teve por objetivo projetar, implementar, dar suporte à implantação e avaliar o uso de plataformas baseadas em software livre para os telecentros do projeto Cidadão.NET. Além da distribuição do software em si, a plataforma desenvolvida permite o acompanhamento remoto, e avaliação do impacto das políticas públicas de fomento.
Professores: Wagner Meira Junior; Dorgival Olavo Guedes Neto; Regina Helena Alves da Silva; Caroline Queiroz

112. LibertasBR: Uma plataforma para desenvolvimento colaborativo de Software Livre | 2002 a 2004 | DESENVOLVIMENTO
O projeto LibertasBR teve por objetivo desenvolver uma plataforma para personalização de distribuições de Software Livre. Essas distribuições vêm sendo usadas por diversas instituições para projetos de inclusão digital.
Professor: Wagner Meira Junior

113. Diferenciação de Serviços, Eficiência e Escalabilidade em Servidores de Comércio Eletrônico Distribuídos | 2001 a 2006 | PESQUISA
Esta projeto enfoca o projeto e implementação de servidores de comércio eletrônico baseados em clusters de servidores que sejam eficientes, escaláveis e capazes de diferenciar os serviços executados entre os seus clientes. Para atingir estas propriedades, nossos servidores vão ser capazes de adaptar a sua qualidade de serviço, atender qualquer tipo de requisição de acordo com o perfil do cliente, não empregar estratégias centralizadas, e replicar conteúdo estático e dinâmico pertinente. Os grandes desafios na determinação de um conjunto de políticas e mecanismos que devem ser usados na diferenciação dos serviços providos e para implementar políticas que sejam efetivamente eficientes e escaláveis para processamento de requisições.
Professores: Wagner Meira Junior; Ricardo Bianchini; Dorgival Olavo Guedes Neto

114. Utilizando a Biblioteca JPDA para construcao de Depuradores Java | 2000 a 2000 | PESQUISA
Professor: Gisele Lobo Pappa