sábado, 28 de maio de 2011

Agile Brasil 2011

A Conferência Brasileira sobre Métodos Ágeis de Desenvolvimento de Software – Agile Brazil 2011 – é uma conferência nacional sem fins lucrativos organizada por representantes das principais comunidades ágeis brasileiras. O evento tem como objetivo promover a comunicação e a colaboração entre seus integrantes visando à disseminação coordenada da cultura Ágil por todo o país.
O evento acontecerá em Fortaleza, no fim de Junho. Contará com cursos, apresentação de trabalhos e relatos de experiência provenientes de várias regiões do país.


A Agile Brazil 2011 trará diversas atividades para enriquecer o conteúdo do evento. Os primeiros dois dias serão dedicados a cursos com preços bastante acessíveis. Os outros três dias contarão com uma programação diversificada de palestras, tutoriais, workshops e lightning talks selecionados dentre as melhores submissões feitas pela comunidade, além de alguns convidados especiais. O prazo para submissão de propostas já se encerrou, porém ainda é possível ler as propostas e deixar comentários através do sistema de submissões.

Na quarta-feira ocorrerá também o segundo Workshop Brasileiro de Métodos Ágeis (WBMA), no qual serão apresentados trabalhos acadêmicos de qualidade a respeito de métodos ágeis. Caso tenha interesse em submeter um artigo acadêmico ao Workshop, confira a chamada de trabalhos do WBMA, que está aberta e encerra dia 18/04.

Como keynotes, teremos a oportunidade de ouvir Jim Highsmith, consultor executivo para a ThoughtWorks, Inc., Vinícius Teles, desenvolvedor de software e fundador da Improve It, e Joshua Kerievsky, empresário, autor, programador e globalmente reconhecido especialista em Programação Extrema e Desenvolvimento Lean. Saiba mais sobre os convidados e os temas que eles irão abordar.



Fonte: http://www.agilebrazil.com/2011/pt/index.php

terça-feira, 24 de maio de 2011

Proposta de Workflow para Alocação de Máquinas Virtuais Utilizando Características de Processamento

O seguinte artigo foi aceito no WCGA 2011 ( Workshop em Clouds, Grids e Aplicações), que ocorrerá em Campo Grande, Mato Grosso do Sul, de 30 de maio a 3 de junho.


Proposta de Workflow para Alocação de Máquinas Virtuais Utilizando Características de Processamento

Paulo Antônio Leal Rego
Emanuel Ferreira Coutinho
José Neuman de Souza

Grupo de Redes de Computadores, Engenharia de Software e Sistemas (GREat)
Mestrado e Doutorado em Ciˆencia da Computac¸ ˜ao (MDCC)
Instituto UFC Virtual Universidade Federal do Ceará
Fortaleza – CE – Brasil

Abstract. This paper describes a proposal for a workflow to handle the allocation of computing resources, specifically the processing power in heterogeneous
environments, where there is a wide variety of processors on the machines of the
infrastructure. The contribution aims to standardize the representation of the
processing capacity in terms of what we call Processing Unit (PU), combined
with the limiting of the CPU usage to provide performance isolation and maintaining the processing capability independent of the Physical Machine (PM) in
what the Virtual Machine (VM) has been allocated. This work presents experiments with a focus on defining and managing the PU, which aim to assess the
initial activities of the proposed workflow.

Resumo. Esse artigo descreve uma proposta de workflow para tratar alocacação de recursos computacionais, especificamente poder de processamento, em ambientes heterogêneos, onde existe uma grande variedade de processadores nas máquinas da infraestrutura. A contribuiçãoo visa padronizar a representação da capacidade de processamento, em termos do que chamamos de Unidade de Processamento (UP), aliado à limitação do uso da CPU para prover isolamento de desempenho e manter a capacidade de processamento independente
da Máquina Física (MF) em que a Máquina Virtual (MV) foi alocada. O trabalho apresenta experimentos com foco na definição e gerenciamento da UP, que visam avaliar as atividades iniciais do workflow proposto

Resenha: CloudCmp: Comparing Public-Cloud Providers

Referência: Ang Li; Xiaowei Yang; Kandula, S.; Ming Zhang;, “CloudCmp: Comparing Public-Cloud Providers" Internet Computing, IEEE , vol.15, no.2, pp.50-53, March-April 2011, doi: 10.1109/MIC.2011.36

1 - Legibilidade, organização e apresentação: este artigo é fácil de entender? É organizado? A apresentação é adequada? 1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom
A contextualização do problema foi bem descrita na introdução, deixando claro que o objetivo é a comparação de provedores de serviços de computação em nuvem. As metas a serem atingidas com a utilização da aplicação são bem descritas no início: opção ao cliente de escolha do provedor, auxílio aos provedores, comparação justa, medidas de custo e cobertura. Além da descrição detalhada das métricas, houve um estudo mais teórico das métricas, com experimentos mais controlados, e um estudo de caso aplicado. Porém a organização das seções e subseções é um pouco confusa.

2 – Referência a trabalhos relacionados: Considerando a literatura geral sobre o tema deste trabalho, como você avalia a qualidade das referências deste artigo? (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
Os trabalhos relacionados foram bem elaborados, com algumas comparações com o artigo em revisão, e descrevendo o que há de diferente.

3 – Conteúdo técnico. (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
Muito bom, pois descreve com detalhes cada operação: metas do aplicativo, serviços comuns dos provedores, métricas de desempenho selecionadas e forma de utilização

4 – Originalidade e contribuição: Julgue este artigo em termos de quanto ele é original em relação ao estado da arte assim como sua contribuição para a pesquisa científica. (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
Alguns trabalhos fazem experimentos sobre provedores de serviço em computação em nuvem, e geralmente da AWS. O artigo foi original no ponto em que descreveu experimentos em quatro provedores, com a estratégia de experimentos para aprofundamento e experimentos aplicados, o que deixa o artigo completo.

5 – Recomendação geral do artigo. (1: Forte rejeição - 2: Fraca rejeição - 3: Artigo intermediário - 4: Fraca aceitação - 5: Forte aceitação)
Pontuaria este artigo como “5”. A justificativa seria devido a sua originalidade e qualidade dos experimentos, baseados na comparação entre quatro provedores de serviços.

6 – Quais são os principais pontos fortes deste artigo?
A seleção de quatro provedores diferentes deixa o estudo mais completo. A descrição das métricas de desempenho e custo utilizadas nos provedores foi bem detalhada. A forma de obtenção das métricas foi bem explicada. Houve uma explicação e análise dos resultados dos experimentos detalhada. A estratégia de explicar o experimento de maneira individual para cada métrica, para aprofundar o conhecimento sobre ela, e depois com três estudos de caso aplicados elevou muito a qualidade do trabalho. A discussão final sobre os resultados é uma fonte de trabalhos futuros.

7 – Quais são as grandes deficiências deste artigo?
Na seção sobre métricas de desempenho, o item sobre redes não teve a mesma qualidade na descrição das métricas como nos outros. Foram definidos 4 serviços comuns, mas na implementação dois deles foram fundidos (rede), o que não fica claro no texto. O termo “sand boxed” não é definido (mecanismo de segurança para separação de programas em execução). Não foi informado como os valores de CPU, memória, I/O e custo foram normalizados. Para o item do experimento sobre latência foi informado que três dos provedores foram citados, mas não informou quais. Por fim, a aplicação Blast foi utilizada no estudo de caso de computação científica, mas não foi referenciada.

8 – Comentários aos autores que justifiquem sua pontuação e recomendação geral:
O artigo foi bem elaborado e escrito. Poderia ter tido uma breve descrição de cada um dos quatro provedores de serviço. Apesar da organização ter sido um pouco confusa, a qualidade dos experimentos compensou.

Resenha: Understanding Performance Interference of I/O Workload in Virtualized Cloud Environments

Referência: Xing Pu; Ling Liu; Yiduo Mei; Sivathanu, S.; Younggyun Koh; Pu, C.; "Understanding Performance Interference of I/O Workload in Virtualized Cloud Environments" Cloud Computing (CLOUD), 2010 IEEE 3rd International Conference on , vol., no., pp.51-58, 5-10 July 2010

1 - Legibilidade, organização e apresentação: este artigo é fácil de entender? É organizado? A apresentação é adequada? 1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom
O artigo possui 8 páginas, 5 figuras e 2 tabelas. Suas seções foram bem divididas. O resumo ficou muito longo (33 linhas). Ao se ler a introdução, identifica-se claramente que o foco do artigo é analisar a interferência de operações de I/O em um ambiente virtualizado. Várias métricas foram coletadas, mas não foi informado como nem com quais ferramentas. A análise dos gráficos é profunda, porém muitas referências às figuras anteriores deixa o leitor confuso.

2 – Referência a trabalhos relacionados: Considerando a literatura geral sobre o tema deste trabalho, como você avalia a qualidade das referências deste artigo? (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
Os trabalhos relacionados citados foram poucos. Mesmo assim, foram comparados com o artigo e tiveram pontos não tratados comentados. Os trabalhos focaram em acesso e I/O, porém deveriam tratar mais de interferência de I/O e cargas de trabalho.

3 – Conteúdo técnico. (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
O objetivo do artigo é claro, porém muitos termos técnicos foram utilizados. Detalhes da arquitetura do Xen e do testbed foram bem descritos. Há um modelo matemático para calcular uma pontuação para comparação de métricas. Os resultados foram relacionados entre si, demonstrando a integração dos experimentos e seus impactos.

4 – Originalidade e contribuição: Julgue este artigo em termos de quanto ele é original em relação ao estado da arte assim como sua contribuição para a pesquisa científica. (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
Vários trabalhos analisam o efeito de cargas de trabalho sobre ambientes de computação em nuvem. O diferencial do artigo é a análise do efeito de operações de I/O sobre ambientes de computação em nuvem, e como aplicações interferm nas demais máquinas virtuais, sendo um tema não tão comum.

5 – Recomendação geral do artigo. (1: Forte rejeição - 2: Fraca rejeição - 3: Artigo intermediário - 4: Fraca aceitação - 5: Forte aceitação)
Pontuaria este artigo como “4”. A justificativa seria devido a sua organização, objetivos claramente definidos e atingidos, com foco na análise da interferência de operações de I/O, condução dos experimentos do throughput e I/O, necessitando apenas organizar melhor as ideias.

6 – Quais são os principais pontos fortes deste artigo?
Ao se ler a introdução, identifica-se claramente que o foco é a análise da interferência de operações de I/O em ambientes de computação em nuvem. A arquitetura do Xen foi bem detalhada, assim como o testbed, contendo informações de hardware e software. Os experimentos foram bem detalhados, relacionando todos os resultados entre si, principalmente na análise do throughput e I/O. Foi descrito ao término dos experimentos uma conclusão sobre os resultados, que resumem bem o experimento

7 – Quais são as grandes deficiências deste artigo?
O resumo é muito longo e é praticamente igual à conclusão. Muitos termos técnicos, principalmente da arquitetura do Xen, são utilizados ao longo do texto, dificultando o entendimento para um leitor mais leigo. O modelo matemático utilizado não é bem explicado, apesar da fórmula e termos descritos. Apesar de ter sido citado que as ferramentas utilizadas foram do hypervisor Xen, não foi informado quais foram, nem como foram utilizadas, o que prejudica a reprodução dos resultados. Como no texto há muita comparação entre os resultados, muitas referências às figuras e tabelas ocorrem ao longo da leitura, deixando o leitor confuso. Os trabalhos relacionados citados foram poucos.

8 – Comentários aos autores que justifiquem sua pontuação e recomendação geral:
Como a conclusão é praticamente igual ao resumo, seria interessante que nela fossem citados os pontos fortes, fracos e trabalhos futuros. Os trabalhos relacionados poderiam ser mais orientados à interferência de operações de I/O em máquinas virtuais. O artigo requer um conhecimento técnico do hypervisor Xen, já que existem muitos termos técnicos ao longo do texto. Já que foi utilizado o Xen, provavelmente para a coleta de métricas foram utilizados o Xenmon e o Xentop. Essas ferramentas poderiam ter sido citadas, ou uma equivalente utilizada. O algoritmo de escalonamento Credit scheduler é citado no texto como um fator que influencia no desempenho, mas não entra em detalhes, dando a entender que se fosse utilizado outro algoritmo, os resultados seriam diferentes. 

Resenha: Performance Measurements and Analysis of Network I/O Applications in Virtualized Cloud

Referência: Yiduo Mei; Ling Liu; Xing Pu; Sivathanu, S.; "Performance Measurements and Analysis of Network I/O Applications in Virtualized Cloud," Cloud Computing (CLOUD), 2010 IEEE 3rd International Conference on , vol., no., pp.59-66, 5-10 July 2010

1 - Legibilidade, organização e apresentação: este artigo é fácil de entender? É organizado? A apresentação é adequada? 1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom
O artigo possui 16 páginas, 17 figuras e 1 tabela. Suas seções foram bem divididas, porém a quantidade de figuras prejudicou a organização do texto, assim como a visualização delas e a respectiva localização no texto de sua referência. Ao se ler a introdução, identifica-se claramente que o foco do artigo é a medida e análise de desempenho em operações de I/O. A apresentação das coletas em vários tipos de gráficos permite uma análise profunda e detalhada dos experimentos. A forma como as análises foram conduzidas deixam o leitor confuso. Talvez fosse melhor reduzir a quantidade de figuras para que a organização e visualização delas ficasse melhor.

2 – Referência a trabalhos relacionados: Considerando a literatura geral sobre o tema deste trabalho, como você avalia a qualidade das referências deste artigo? (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
Os trabalhos relacionados foram poucos, e somente no nível de citação. Os trabalhos focaram em virtualização, configurações de algoritmos de escalonamento e pouco em I/O, que deveria ser o foco principal. Além disso, o artigo foi realizado utilizando o Xen, e dá a entender que também foi utilizado o Xen nos trabalhos relacionados, não relacionando nem citando trabalhos com outros hypervisors.

3 – Conteúdo técnico. (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
O conteúdo do artigo é bastante técnico. Possui muitos detalhes do ambiente, das medições e análises, todas explicadas com gráficos. Os autores possuem conhecimento no assunto, demonstrado pelos experimentos variados e comparação de resultados.

4 – Originalidade e contribuição: Julgue este artigo em termos de quanto ele é original em relação ao estado da arte assim como sua contribuição para a pesquisa científica. (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
Já existe uma quantidade razoável de trabalhos que medem desempenho em ambientes de computação em nuvem, não havendo originalidade neste aspecto. O artigo focou em operações de I/O, o que é o diferencial dele, pois a maioria dos artigos foca em CPU e memória.

5 – Recomendação geral do artigo. (1: Forte rejeição - 2: Fraca rejeição - 3: Artigo intermediário - 4: Fraca aceitação - 5: Forte aceitação)
Pontuaria este artigo como “4”. A justificativa seria devido ao alto nível das análises, com foco em operações de I/O, precisando apenas organizar melhor as ideias e a apresentação das análises.

6 – Quais são os principais pontos fortes deste artigo?
Ao se ler a introdução, identifica-se claramente que o foco é a medida e análise de desempenho em operações de I/O. O ambiente experimental disponibilizou detalhes das configurações das máquinas virtuais, o que não é comum. Houve uma boa descrição das métricas e ferramentas utilizadas para coleta: o Xenmon e o Xentop. A análise profunda e detalhada dos dois experimentos, com muitos detalhes técnicos, permite uma reprodução e comparação de resultados.

7 – Quais são as grandes deficiências deste artigo?
Os trabalhos relacionados foram apenas citados, e não foram comparados. As análises ficaram muito longas e detalhadas, e consequentemente confusas. Os gráficos não são fáceis de se interpretar, nem tão visíveis. A grande quantidade de figuras (17) prejudicou a organização do texto. Algumas figuras tiveram claramente o objetivo descrito da sua realização no texto, porém a maioria não. Alguns valores, como throughput, utilização da CPU e I/O aparecem normalizados, mas não foi descrito como. A forma como o algoritmo de escalonamento foi tratada não clara o suficiente.

8 – Comentários aos autores que justifiquem sua pontuação e recomendação geral:
O artigo requer um conhecimento técnico do hypervisor Xen, o que dificulta o entendimento. Seria interessante que os trabalhos relacionados a I/O fossem comentados e comparados. A forma como o algoritmo de escalonamento foi trabalhada no artigo poderia ser melhor explicada, deixando mais clara a sua utilização. Quanto ao formato, talvez fosse melhor reduzir a quantidade de figuras para que a organização e visualização delas ficasse melhor. Os objetivos de cada figura poderiam ter sido escritos de maneira mais clara. Seria interessante descrever pontos os fortes e fracos do artigo, já que não foram comentados.

terça-feira, 3 de maio de 2011

Resenha: Cloudstone: Multi-platform, multi-language benchmark and measurement tools for web 2.0

Segue a resenha de outro artigo que li. Deixo claro que é apenas minha opinião!


Identificação (título, autores, veículo e data de publicação)
Cloudstone: Multi-platform, multi-language benchmark and measurement tools for web 2.0
Sobel, W.; Subramanyam, S.; Sucharitakul, A.; Nguyen, J.; Wong, H.; Klepchukov, A.; Patil, S.; Fox, O. & Patterson, D.
Cloud Computing and Its Applications (CCA), 2008
Problema
Comparar aplicações da WEB 2.0. Aplicações WEB 2.0 possuem características multimídia, ricas, com influência da ação do usuário, preferências do usuário. Um exemplo são redes sociais.
Trabalhos relacionados
Aplicações semelhantes: AB, HTTPERF e SPECWeb são benchmarks.
Na pesquisa:
D. Krishnamurthy et al., A Synthetic Workload Generation Technique for Stress Testing Session-Based Systems, IEEE Trans. on Software Eng. 32(11), Nov. 2006 – Trabalha técnicas para geradores de carga de dados para sistemas.
Daniel Menascé. Load Testing of Web Sites. IEEE Internet Computing 6(4), July/August 2002 – exibe abordagens de testes de carga na web
W. Sobel et al. Scaling Ruby on Rails in a Cloud Computing Environment. UC Berkeley Technical Report EECS-2008-130 (in preparation) – descreve cenários de testes de ambientes.
Solução proposta (metodologia e resultados)
O CloudStone é um benchmark composto por ferramentas de simulação de redes sociais (OLIO), geradores de carga (FABAN) e medidas de desempenho. Seu objetivo é medir o desempenho de aplicações WEB 2.0. Ele propõe uma métrica relacionada a custos: dólares / usuário por mês.
Conclusão
Criação de um benchmark para avaliar aplicações WEB 2.0, situações como a do experimento podem ser mais fáceis de se prever o comportamento, o banco de dados requer mais instâncias do ambiente, e operações de log, se desligadas, aumentam o throughput em cerca de 20%.
Pontos fortes
Utilização de ferramentas livre para geração do ambiente e carga, e a estratégia da metodologia em responder duas perguntas: quantos usuários em paralelo podem ser servidos por um custo fixo em dólar por mês na Amazon EC2, e quantos usuários podem ser suportados sem a replicação da base de dados?
Pontos fracos
Não foi descrito o motivo pelo qual foi utilizado o Olio e o Faban, pelo Rails e PHP, e por que foi utilizado como ambiente de experimentação o Amazon EC2.
Poderia ter figuras representando a arquitetura, e não uma descrição só em texto.
Poderia ter trabalhado mais métricas.
Poderia ter mais trabalhos futuros.
Poucas referências foram utilizadas.
Trabalhos futuros
Explorar geradores de carga dinâmicos

Resenha: CloudGauge: A Dynamic Cloud and Virtualization Benchmarking Suite

Segue a resenha de outro artigo que li. Deixo claro que é apenas minha opinião!


Identificação (título, autores, veículo e data de publicação)
CloudGauge: A Dynamic Cloud and Virtualization Benchmarking Suite
El-Refaey, M. & Rizkaa, M.
Enabling Technologies: Infrastructures for Collaborative Enterprises (WETICE), 2010 19th IEEE International Workshop on, 2010, 66 -75
Problema
Necessidade de aplicação de benchmarks e análise de desempenho para ambientes virtualizados, que possuem uma dinâmica diferente de ambientes que não utilizam virtualização
Trabalhos relacionados
Casazza, J.P., Greenfield, M., Shi, K.: Redefining server performance characterization for virtualization benchmarking. Intel Technology Journal 10(3) (2006)243–251 – descreve requisitos que um benchmark para máquinas virtuais deve atender, como o vConsolidate
Paul Barham, Boris Dragovic, Keir Fraser, Steven Hand, Tim Harris, Alex Ho, Rolf Neugebauer†, Ian Pratt, Andrew Warfield: Xen and the art of virtualization. In: SOSP ’03: Proceedings of the 19th ACM Symposium on Operating Systems Principles, New York, NY, USA, ACM (2003) 164–177 – um estudo sobre o impacto do overhead de máquinas virtuais em uma variedade de cargas
Muli Ben-Yehuda, Amit Shah, Balaji Rao, Todd Deshane, Zachary Shepherd,Jeanna N. Matthews: Quantitative comparison of Xen and KVM. In: Xen Summit 2008 – um estudo sobre o impacto do overhead de máquinas virtuais em uma variedade de cargas
Hai Jin, Wenzhi Cao, Pingpeng Yuan, Xia Xie.:VSCBenchmark: benchmark for dynamic server performance of virtualization technology . In: Proceedings of the 1st international forum on Next-generation multicore/manycore technologies (2008), Cairo, Egypt – apresenta o benchmark VSCBenchmark que analisa o desempenho de servidores e máquinas virtuais com cargas variadas
VMmark: A Scalable Benchmark for Virtualized Systems.Technical Report VMware-TR-2006-002 September 25, 2006 http://www.vmware.com/pdf/vmmark_intro.pdf - apresenta o benchmark VMark, que executa várias cargas de trabalho simultaneamente em máquinas virtuais
Solução proposta (metodologia e resultados)
Cloudgauge – benchmark customizável e configurável para auxiliar na avaliação de desempenho no contexto de ambientes de computação em nuvem
Instalação e configuração do benchmark, utilização de diferentes ferramentas para povoar a base de dados e coletar métricas. Foram realizados testes em três configurações: nativa, virtualizada e host com máquina virtual.
Conclusão
CloudGauge provê um mecanismo de medição um ambiente virtualizado. Foram coletadas informações de utilização da CPU, carga média e utilização da memória. Os sistemas. Pelos resultados é possível investigar como customizar um ambiente virtualizado para uma aplicação.
Pontos fortes
Requisitos para benchmarks para VM
Trabalhos relacionados
Há resultados variados visualizados em gráficos
Uma boa revisão bibliográfica sobre benchmarks
Descrição detalhada da arquitetura
Composto por bibliotecas e frameworks livres.
Pontos fracos
Não foi descrito o testbed para todas as configurações
Não há nenhuma imagem do benchmark, ou dos resultados na forma de relatório
Há referências a figuras que não existem e figuras sem referência
Os resultados das medidas não foram bem explicados, nem comparados
Trabalhos futuros
Medir outros hypervisors (camada que é fornecida para a virtualização de plataforma) e sistemas baseados em computação em nuvem. Aplicar em testbeds de alta escala como OpenCirrus, PlanetLab e Emulab, ou em ambientes de produção. Integrar com o Faban como um gerador de carga.

Resenha: Malstone: towards a benchmark for analytics on large data clouds

Segue a resenha de um artigo que li. Deixo claro que é apenas minha opinião!

Identificação (título, autores, veículo e data de publicação)
Malstone: towards a benchmark for analytics on large data clouds
Bennett, C.; Grossman, R. L.; Locke, D.; Seidman, J. & Vejcik, S.
Proceedings of the 16th ACM SIGKDD international conference on Knowledge discovery and data mining, ACM, 2010, 145-152
Problema
Benchmarks projetados para medir o desempenho de aplicações de mineração de dados em ambientes de computação em nuvens, avaliar a escalabilidade de diferentes arquiteturas de banco de dados e volume de dados
Trabalhos relacionados
J. Gray. Sort benchmark home page. http://research.microsoft.com/barc/SortBenchmark/, 2008. – Apresenta o benchmark TeraSort, que utiliza 10 bilhões de registros de 100 bytes para as operações.
W. Sobel, S. Subramanyam, A. Sucharitakul, J. Nguyen, H. Wong, A. Klepchukov, S. Patil, A. Fox, and D. Patterson. Cloudstone: Multi-platform, multi-language benchmark and measurement tools for web 2.0. In Proceedings of Cloud Computing and its Applications 2008, 2008. – apresenta o benchmark CloudStone, que analisa aplicações da web 2.0
C.-T. Chu, S. K. Kim, Y.-A. Lin, Y. Yu, G. Bradski, A. Y. Ng, and K. Olukotun. Map-Reduce for machine learning on multicore. In NIPS, volume 19, 2007. – realize um estudo de mineração de dados com computação em nuvem e computação intensiva de dados
J. Dean and S. Ghemawat. MapReduce: Simplifed data processing on large clusters. Communications of the ACM, 51(1):107{113, 2008. – Apresenta um estudo sobre operações de MapReduce
N. Provos, D. McNamee, P. Mavrommatis, K. Wang, and N. Modadugu. The ghost in the browser: Analysis of web-based malware. In HotBot '07, 2007. – descreve um sistema que utiliza MapReduce para detecção de malwares
Solução proposta (metodologia e resultados)
O benchmark Malstone e o gerador de carga Malgen, que em conjunto calculam métricas e cargas sobre um ambiente
Malstone – computa a métrica SPM (proporção de marcações) como sendo a quantidade de entidades marcadas dividido pela quantidade de entidades.
Malgen – gerador de logs para todos os nós do cluster, utilizando leis de distribuição, em larga escala
Conclusão
Não há benchmarks para medir desempenho em CC que suporte mineração de dados em grandes conjuntos de dados, e existem poucos geradores de dados. Para isso foi construído o MalStone e o MalGen. Nos experimentos foi identificado que há muita diferença entre middlewares de CC projetados para suportar mineração de dados em grandes conjuntos de dados.
Pontos fortes
A utilização de um exemplo motivacional, disponíveis na internet e bom para quem for trabalhar com BD em CC
Pontos fracos
Figuras e tabelas desorganizadas. Há referências muito longe da figura ou tabela. Além disso poderiam ter um visual melhor. Modelo um pouco confuso de se entender
Trabalhos futuros
Não há.

XXVI SBBD (Simpósio Brasileiro de Banco de Dados)

Ocorrerá em Florianópolis, Santa Catarina, o XXVI SBBD (Simpósio Brasileiro de Banco de Dados), de 3 a 6 de outubro de 2011.

Promovido anualmente pela Comissão Especial de Banco de Dados da Sociedade Brasileira de Computação (SBC), o Simpósio Brasileiro de Banco de Dados (SBBD) reúne pesquisadores, estudantes e profissionais do Brasil e do exterior, que apresentam e discutem temas relacionados aos últimos avanços da área. Tradicionalmente, o SBBD tem reunido em torno de 500 participantes e é o maior evento na América Latina para a apresentação e discussão de resultados de pesquisa relacionados à área de banco de dados. Em edições passadas foi organizado em cooperação com o ACM SIGMOD e parcialmente patrocinado pelo VLDB Endownment.

Além de sessões técnicas e tutoriais, o simpósio também inclui tutoriais e palestras convidadas apresentadas por pesquisadores de renome da comunidade nacional e internacional. As edições anteriores se destacam pela excelência dos artigos apresentados, workshops realizados, palestras e tutoriais proferidos por pesquisadores de renome internacional.

Desde a 25th edição, em 2010, o SBBD traz uma novidade: a publicação de artigos completos foi integrada à publicação do JIDM (Journal of Information and Data Management), o novo periódico da SBC. Especificamente, todos os artigos completos foram publicados na edição de Outubro de 2010 do JIDM e o processo de revisão do SBBD foi integrado ao processo de revisão do periódico.

Neste ano, em sua 26th edição, o SBBD traz mais uma novidade: artigos resumidos, aceitos para apresentação, serão convidados a uma nova submissão, em uma versão estendida em Inglês, com uma nova revisão e serão publicados em uma edição especial de Fevereiro de 2012 do JIDM.

Overview
SBBD is the official database event of the Brazilian Computer Society (SBC). It is the largest venue in Latin America for presenting and discussing of research results in the database domain as well in other related areas such as information retrieval, digital libraries, knowledge discovery and data mining. In its 26th edition, the symposium will be held in the city of Florianópolis, Santa Catarina, on October 03-06, 2011. SBBD aggregates researchers, students and practitioners, from Brazil and abroad, for presenting and discussing recent research results related to the main topics in modern database technologies.

Traditionally, SBBD gathers nearly 500 attendees. Besides the technical sessions, the symposium also includes invited talks and tutorials given by distinguished speakers from the international research community.  Additionally, SBBD comprises a Thesis Workshop, a Demos Session, a Poster Session and several workshops co-organized with other co-located events. This year, the co-located event will be 17th Brazilian Symposium on Multimedia and the Web - WebMedia.

Topics of Interest

SBBD 2011 will be organized into four tracks. The topics of interest for each track are listed below, but the submissions are not strictly limited to them.

(1) Core Database Foundations and Technology

Track coordinator: Vanessa Braganholo - UFF

Active Databases
Access methods and indexing
Authorization, Privacy and Security
Concurrency Control and Recovery
Database Design
Mobile Data
Multidimensional and Temporal Databases
Multimedia Databases
Peer to peer, Parallel and Distributed Databases
Performance and Benchmarking
Query Languages and User Interfaces
Query Processing and Optimization
Scientific and Statistical Databases
Self-managed and Autonomic Databases
Spatial Databases and Geographical Information Systems
Stream-based processing and Sensor Databases
Workflow applications and databases
Applications and experiences using database technology

(2) Knowledge Modeling and Management

Track coordinator: Giancalo Gizzardi - UFES

Knowledge bases
Information Integration and Interoperability
Data semantics
Knowledge modeling
Ontologies
Object orientation and databases
Data management platforms and mediators
Business processes

(3) Information and Data Management

Track coordinator: Marcos Gonçalves - UFMG

Semi-structured data and XML
Textual data
Web data
Digital libraries
Collecting, extracting, and indexing
Information retrieval models and techniques
Data services for the Web
Applications in digital libraries and document management, among others

(4) Knowledge Discovery in Databases

Track coordinator: Alexandre Plastino - UFF

Foundations of data mining
Algorithms and techniques for data mining
Parallel and distributed algorithms for data mining
Complexity, efficiency and scalability of data mining algorithms
Pre and post processing of data and mined patterns
Privacy and security in data mining algorithms
Applications of data mining
Data warehousing
Data visualization

domingo, 1 de maio de 2011

Máquina de "Reciclar" Podas de Árvores

Não tem muito a ver com o blog, mas achei interessante destacar.
Estava eu no meu apartamento quando comecei a ouvir um barulho estranho vindo da rua.
Fui olhar e me admirei com a origem do barulho: um caminhão da Coelce (companhia de distribuição de energia elétrica no Ceará) podando árvores da rua.
Mas o que tem de interessante nisso??
Aí é que está o cerne da questão: o caminhão possuía uma espécie de caçamba com uma trituradora.
Os funcionários cortavam as árvores, seja folhas, seja galhos, e jogavam dentro dessa trituradora e saía do outro lado tudo "mastigado".
Achei superinteressante, pois para quem já solicitou um serviço de poda de árvores, ou mesmo para cortar uma árvore com cupim, sabe que é problema seu limpar tudo.
Outro lado interessante é o fato que o material triturado é totalmente reciclável! Serve como adubo, serragem, serve para contruir àquelas placas para proteger e delimitar construções. Ou seja, uma forma de "reciclar" o que seria simplesmente jogado fora.
Enfim, uma atitude boa e que se todos imaginarem, muitas coisas que fazemos poderiam ser realizadas de uma maneira sustentável.

O site da Coelce é: https://www.coelce.com.br/