sábado, 17 de dezembro de 2011

Artigo aceito no CCSA - Melbourne - Austrália

Foi apresentado o artigo "FairCPU: Architecture for Allocation of Virtual Machines Using Processing Features" no CCSA 2011: 1st International Workshop on Cloud Computing and Scientific Applications (http://www.cloudbus.org/ucc2011/ccsa/ccsa2011.html
).
O evento ocorreu em Dezembro 2011, em Melbourne, Austrália.


Abstract:


This paper proposes an architecture to handle the allocation of virtual machines based on the processing power for heterogeneous Clouds, where there is a wide variety of CPU types. Our major contribution is a novel representation of the processing capacity in terms of the Processing Unit (PU) and the CPU usage limitation in order to isolate the processing capability from the Physical Machine (PM) where the Virtual Machine (VM) is allocated. The efficiency of the proposed architecture is validated by extensive replications of five experiments using a real private cloud. The results show that it is possible to use the proposed idea to define a PU, supported by the CPU usage limitation, to enable the VM's processing power remain at the same level regardless of the PM.

Criando no Windows um pendrive para instalação do LINUX

No Windows baixe o programa UNetbootin (http://unetbootin.sourceforge.net/).
Ele é um executável direto, ou seja, não precisa de instalação.

Baixe a ISO de alguma distribuição LINUX. Eu baixei a do UBUNTU 11.04.

Selecione a opção de utilizar uma ISO (DISKIMAGE) e informe o caminho.

Selecione o pendrive, que deve ter pelo menos 1GB e formatado.

Dê OK e espere.

Após o término, se você quiser instalar o LINUX ou só testar, reinicialize seu computador e altere a opção de boot no setup para que o primeiro dispositivo seja o pendrive.
Assim, se tudo der certo, aparecerá uma tela com opções para executar o LINUX a partir do pendrive ou para instalar.

Instalando o JAVA no UBUNTU

Uso o UBUNTU 11.04.

Em uma tela do terminal siga os passos abaixo.

Baixar o java: jdk-7u2-linux-i586.tar.gz
Descompactar em alguma pasta: tar -zxvf jdk-7u2-linux-i586.tar.gz
É criada a pasta jdk1.7.0_02

Descubra o caminho completo do diretório do java: pwd
No meu caso aparece: /home/emanuel/jdk1.7.0_02

Ajustando as variáveis:

editar o /etc/bash.bashrc
sudo /etc/bash.bashrc
Adiciona no final:

PATH=$PATH:/home/emanuel/jdk1.7.0_02/bin
export
JAVA_HOME=/home/emanuel/jdk1.7.0_02
export JAVA_HOME

Saia do terminal (exit) e abra um novo. Para testar as variáveis, os diretórios devem aparecer quando você digitar $PATH e $JAVA_HOME
Para testar o java, basta digitar qualquer comando do java, como java ou javac, e as opções devem surgir na tela.

terça-feira, 15 de novembro de 2011

Instâncias da Amazon EC2 (no dia 15/11/2011)

A Amazon EC2 em 15/11/2011 possui as seguintes instâncias disponíveis:

Fonte: http://aws.amazon.com/ec2/instance-types/


Standard Instances



Instances of this family are well suited for most applications.
Small Instance – default*
1.7 GB memory
1 EC2 Compute Unit (1 virtual core with 1 EC2 Compute Unit)
160 GB instance storage
32-bit platform
I/O Performance: Moderate
API name: m1.small
Large Instance
7.5 GB memory
4 EC2 Compute Units (2 virtual cores with 2 EC2 Compute Units each)
850 GB instance storage
64-bit platform
I/O Performance: High
API name: m1.large
Extra Large Instance
15 GB memory
8 EC2 Compute Units (4 virtual cores with 2 EC2 Compute Units each)
1,690 GB instance storage
64-bit platform
I/O Performance: High
API name: m1.xlarge

Micro Instances

Instances of this family provide a small amount of consistent CPU resources and allow you to burst CPU capacity when additional cycles are available. They are well suited for lower throughput applications and web sites that consume significant compute cycles periodically.
Micro Instance
613 MB memory
Up to 2 EC2 Compute Units (for short periodic bursts)
EBS storage only
32-bit or 64-bit platform
I/O Performance: Low
API name: t1.micro

High-Memory Instances>



Instances of this family offer large memory sizes for high throughput applications, including database and memory caching applications.
High-Memory Extra Large Instance
17.1 GB of memory
6.5 EC2 Compute Units (2 virtual cores with 3.25 EC2 Compute Units each)
420 GB of instance storage
64-bit platform
I/O Performance: Moderate
API name: m2.xlarge
High-Memory Double Extra Large Instance
34.2 GB of memory
13 EC2 Compute Units (4 virtual cores with 3.25 EC2 Compute Units each)
850 GB of instance storage
64-bit platform
I/O Performance: High
API name: m2.2xlarge
High-Memory Quadruple Extra Large Instance
68.4 GB of memory
26 EC2 Compute Units (8 virtual cores with 3.25 EC2 Compute Units each)
1690 GB of instance storage
64-bit platform
I/O Performance: High
API name: m2.4xlarge

High-CPU Instances

Instances of this family have proportionally more CPU resources than memory (RAM) and are well suited for compute-intensive applications.
High-CPU Medium Instance
1.7 GB of memory
5 EC2 Compute Units (2 virtual cores with 2.5 EC2 Compute Units each)
350 GB of instance storage
32-bit platform
I/O Performance: Moderate
API name: c1.medium
High-CPU Extra Large Instance
7 GB of memory
20 EC2 Compute Units (8 virtual cores with 2.5 EC2 Compute Units each)
1690 GB of instance storage
64-bit platform
I/O Performance: High
API name: c1.xlarge

Cluster Compute Instances

Instances of this family provide proportionally high CPU resources with increased network performance and are well suited for High Performance Compute (HPC) applications and other demanding network-bound applications. Learn more about use of this instance type for HPC applications.
Cluster Compute Quadruple Extra Large Instance
23 GB of memory
33.5 EC2 Compute Units (2 x Intel Xeon X5570, quad-core “Nehalem” architecture)
1690 GB of instance storage
64-bit platform
I/O Performance: Very High (10 Gigabit Ethernet)
API name: cc1.4xlarge
Cluster Compute Eight Extra Large Instance
62 GB of memory
88 EC2 Compute Units (eight-core 2 x Intel Xeon)
3370 GB of instance storage
64-bit platform
I/O Performance: Very High (10 Gigabit Ethernet)
API name: cc2.8xlarge

Cluster GPU Instances

Instances of this family provide general-purpose graphics processing units (GPUs) with proportionally high CPU and increased network performance for applications benefitting from highly parallelized processing, including HPC, rendering and media processing applications. While Cluster Compute Instances provide the ability to create clusters of instances connected by a low latency, high throughput network, Cluster GPU Instances provide an additional option for applications that can benefit from the efficiency gains of the parallel computing power of GPUs over what can be achieved with traditional processors. Learn more about use of this instance type for HPC applications.
Cluster GPU Quadruple Extra Large Instance
22 GB of memory
33.5 EC2 Compute Units (2 x Intel Xeon X5570, quad-core “Nehalem” architecture)
2 x NVIDIA Tesla “Fermi” M2050 GPUs
1690 GB of instance storage
64-bit platform
I/O Performance: Very High (10 Gigabit Ethernet)
API name: cg1.4xlarge

domingo, 18 de setembro de 2011

Revisões de Literatura

Estou pagando uma disciplina de Análise de Desempenho e acabei de começar umas revisões de literatura. Os artigos selecionados foram:


Performance Analysis of Cloud Computing Services for Many-Tasks Scientific Computing

Alexandru Iosup, Simon Ostermann, M. Nezih Yigitbasi, Radu Prodan, Thomas Fahringer, and Dick H.J. Epema

Abstract—Cloud computing is an emerging commercial infrastructure paradigm that promises to eliminate the need for maintaining
expensive computing facilities by companies and institutes alike. Through the use of virtualization and resource time sharing, clouds
serve with a single set of physical resources a large user base with different needs. Thus, clouds have the potential to provide to their
owners the benefits of an economy of scale and, at the same time, become an alternative for scientists to clusters, grids, and parallel
production environments. However, the current commercial clouds have been built to support web and small database workloads,
which are very different from typical scientific computing workloads. Moreover, the use of virtualization and resource time sharing may
introduce significant performance penalties for the demanding scientific computing workloads. In this work, we analyze the
performance of cloud computing services for scientific computing workloads. We quantify the presence in real scientific computing
workloads of Many-Task Computing (MTC) users, that is, of users who employ loosely coupled applications comprising many tasks to
achieve their scientific goals. Then, we perform an empirical evaluation of the performance of four commercial cloud computing
services including Amazon EC2, which is currently the largest commercial cloud. Last, we compare through trace-based simulation the
performance characteristics and cost models of clouds and other scientific computing platforms, for general and MTC-based scientific
computing workloads. Our results indicate that the current clouds need an order of magnitude in performance improvement to be
useful to the scientific community, and show which improvements should be considered first to address this discrepancy between offer
and demand.
Index Terms—Distributed systems, distributed applications, performance evaluation, metrics/measurement, performance measures


The Impact of Virtualization on Network Performance of Amazon EC2 Data Center
Guohui Wang T. S. Eugene Ng

Abstract —Cloud computing services allow users to lease computing resources from large scale data centers operated by service
providers. Using cloud services, users can deploy a wide variety of applications dynamically and on-demand. Most cloud service
providers use machine virtualization to provide flexible and cost effective resource sharing. However, few studies have investigated
the impact of machine virtualization in the cloud on networking
performance. In this paper, we present a measurement study to characterize the impact of virtualization on the networking performance of the
Amazon Elastic Cloud Computing (EC2) data center. We measure the processor sharing, packet delay, TCP/UDP throughput and
packet loss among Amazon EC2 virtual machines. Our results show that even though the data center network is lightly utilized,
virtualization can still cause significant throughput instability and abnormal delay variations. We discuss the implications of our
findings on several classes of applications.

Index Terms —Measurement, cloud service, virtualization, networking performance

Weka 3: Data Mining Software in Java

Weka is a collection of machine learning algorithms for data mining tasks. The algorithms can either be applied directly to a dataset or called from your own Java code. Weka contains tools for data pre-processing, classification, regression, clustering, association rules, and visualization. It is also well-suited for developing new machine learning schemes.


http://www.cs.waikato.ac.nz/ml/weka/

Maximizando a tela do UBUNTU no VirtualBox

Um problema que sempre tenho é como maximizar a tela do UBUNTU quando utilizando o VirtualBox (pra ficar com a tela toda preenchida, sem os ícones lá de cima).

Pesquisando pela internet achei isso, que resolveu o meu problema:


1 ) No Virtual Box, quando estiver com uma máquina virtual iniciada, clica-se no menu "Dispositivos", no item "Instalar adicionais de convidados".
2 ) Já no UBUNTU, abra um terminal e digite: /media/VBOXADDITIONS_4.1.2_73507, ou algo parecido em /media.
3 ) sudo ./VBoxLinuxAdditions-x86.run

sexta-feira, 16 de setembro de 2011

MINIPLOP 2011 - Requisitos de Qualidade: Um Padrão para Identificação de Requisitos Não Funcionais Conflitantes

Em 24/09/2011 (domingo mesmo!) estarei em São Paulo no MINIPLOP 2011 (http://www.miniplop.ita.br/TheIntroduction.htm) apresentando o artigo "Requisitos de Qualidade: Um Padrão para Identificação de Requisitos Não Funcionais Conflitantes".


Resumo. O desenvolvimento de software é uma atividade que trabalha diversos aspectos da Engenharia de Software. Um deles é a elicitação de requisitos e sua escrita em uma notação de fácil entendimento para os desenvolvedores de software. Requisitos Não Funcionais são aqueles que estão associados aos aspectos qualitativos de um software, como desempenho, segurança e usabilidade. Normalmente a identificação dos requisitos não funcionais é realizada de maneira ad hoc, e desenvolvidas tardiamente. Neste artigo é proposto um padrão para a identificação e seleção de requisitos não funcionais para aplicações comerciais nos estágios iniciais de seu desenvolvimento, que não estejam conflitantes entre si, e que estejam mais aderentes às necessidades dos clientes.

Palavras-chave: Requisitos Não Funcionais, Padrões de Software, Qualidade de Software, Engenharia de Requisitos.





quarta-feira, 31 de agosto de 2011

Provedores de IaaS

O site http://cloud-computing.findthebest.com/saved_search/Best-IaaS-Cloud-Computing-Providers possui uma lista com vários provedores de IaaS.
Além disso, ele permite que você realize uma consulta dinâmica com vários parâmetros, como catgeoria, licenciamento, tipo de subscrição, interface de controle, suporte, sistema operacional e precificação, e comparar provedores:





Função Freqüência no MS Excel

Estava apanhando no Excel para fazer a contagem da frequencia dos elementos em um conjunto de dados, quando encontrei o site do Professor Paul Fisher, da UFRGS - http://chasqueweb.ufrgs.br/~paul.fisher/apostilas/ms_excel/func_freq/

Nele ele faz um passo a passo de como calcular a freqüência dos dados, de uma maneira simples:
Copiei o trecho do site dele (citado acima) que ensina a calcular com as figuras.
Parabéns pelo passo a passo!!!

Passo 1 - Vamos calcular a freqüência dos dados (número de ocorrências de cada valor distinta) que se encontram na figura a direta. O rotulo se encontra na célula A1 e os dados nas células A1:A10. Podemos ver que há 1 ocorrência do valor 1, 2 ocorrências do valor 2, 3 ocorrências do valor 3, 2 ocorrências do valor 4 e 1 ocorrência do valor 5. O que nos queremos, ao final, é uma tablela:

valorfreqüência
11
22
33
42
51


Passo 2 - A função freqüência precisa de dois variaveis de entrada: uma matiz de dados e uma matriz de bins. A matriz de bins serve para indicar as categorias a ser usadas na execução da função. Então, precisamos criar uma matriz de categorias que aparece na figura a direta. O conteúdo da célula C2 servirá para contar as ocorrências dos valores <=1 (menor que ou igual a 1). O conteúdo da célula C3 servirá para contar as ocorrências dos valores <=2 (menor que ou igual a 2) e >1 (maior que 1). O conteúdo da célula C6 servirá para contar as ocorrências dos valores <=6 e >5.
Passo 3 - A função "FREQÜÊNCIA" é uma função matriz. Isso significa que o destino do resultado da execução da função precisa ser uma matiriz de células e não uma célula só. Precisamos selecionar a matriz de células em qual será colocado os resulatdos antes "chamar" a função freqüência. Sendo que nossos categorias se encontram em C2:C6, digitaremos o rótulo "freqüência" na célula D1 e selcionaremos as células D2:D6 para receber os resultados.

Passo 4 - Com as células D2:D6 selecionadas, clicaremos em "inserir" no menu principal e "função" no sub-menu. Do diálogo que aparece selcionaremos a função "freqüência" se encontra na categoria "estatística" e, finalmente em OK.

Passo 5 - Um diálago aparece pedindo preenchimento da matriz dos dados e a matriz dos bins. Isso pode ser feito digitando diretamente nos respetivos campos OU, com o cursor no respetivo campo, selecionando a extensão de células com os dados e os bins usando o mouse.
IMPORTANTE! Não clique em OK


Passo 6 - Em vez de cliquar em OK, manteremos apertados as botões "Ctrl" e "Shift" enquanto clicamos o botõe "Enter". As freqüências aparecem ao lado das categorias, neste caso, ou em qualquer conjunto de células (matriz) inicialmente selcionado para receber o resultado.Porque ter um botão OK se não serve para executar a função? Não sei ... bobagem da Microsoft. Todas as funções matriz em Excel funcionam assim.

Fonte: site do Professor Paul Fisher, da UFRGS.
(http://chasqueweb.ufrgs.br/~paul.fisher/apostilas/ms_excel/func_freq/)

Cloud Computing and Scientific Applications (CCSA 2011)


1st International Workshop on
Cloud Computing and Scientific Applications (CCSA 2011)
http://www.cloudbus.org/ucc2011/ccsa/ccsa2011.html

In conjunction with the 4th IEEE International
Conference on Utility and Cloud Computing (UCC 2011) December 5-7,
Melbourne, Australia http://www.cloudbus.org/ucc2011

***IBM R&D Australia is sponsoring "Best Student Paper Award"
among the papers accepted for presentation at the workshop***
--Selection and final decision resides at the PC members discretion

CCSA workshop has been formed to promote research and development
activities focused on enabling and scaling scientific applications using
distributed computing paradigms, such as cluster, Grid, and Cloud
Computing. With the rapid emergence of software systems and their
applicability, the volume of users are growing exponentially. User
requirements are getting more and more complex. Existing computing
infrastructure, software system designs, and use cases will have to take
into account the enormity in volume of requests, size of data, computing
load, locality and type of users, and so forth.

Cloud computing promises reliable services delivered through
next-generation data centers that are built on compute and storage
virtualization technologies. Users will be able to access applications
and data from a ÒCloudÓ anywhere in the world on demand. In other words,
the Cloud appears to be a single point of access for all the computing
needs of users. The users are assured that the Cloud infrastructure is
robust and will always be available at any time.

CCSA brings together researchers and practitioners from around the world
to share their experiences on modeling, executing, and monitoring
scientific applications on Clouds.

In this workshop, we are interested in receiving innovative work on
enabling and scaling computing systems to support the execution of
scientific applications. The target audience include researchers and
industry practitioners who are interested in distributed systems,
particularly focusing on scaling of applications using Cloud computing.



TOPICS OF INTEREST
-------------------

Topics of interest include (but are not limited to):

- Enabling applications using distributed systems
- Architectural Models for scaling of applications
- Novel applications for cloud computing, including games and social networks
- Novel cloud programming models
- Innovative cloud service models
- Support for scalable and elastic cloud services
- Cloud support for mobile applications and Content Delivery Networks
- Reliability of applications and services running on the cloud
- Performance monitoring for cloud applications
- Cloud use case studies
- Scientific computing in the cloud
- Business computing in the cloud
- Social computing in the cloud


IMPORTANT DATES
---------------

Paper Submission Deadline: September 13, 2011 (Extended due to Author Requests)
Author Notification: September 25, 2011
Camera Ready Submission: September 30, 2011


PROGRAM CHAIRS
---------------

Suraj Pandey
The Commonwealth Scientific and Industrial Research Organisation (CSIRO)

Andrew Melatos
School of Physics, The University of Melbourne


INTERNATIONAL PROGRAM COMMITTEE
--------------------------------
Albert Zomaya, University of Sydney, Australia
Alberto Sanchez, Universidad Rey Juan Carlos, Spain
Craig Lee, Open Grid Forum, USA
Pavan Balaji, Argonne National Laboratory, USA
Ivona Brandic, Vienna University of Technology, Austria
Klaus-Dieter Schewe, Software Competence Center, Austria
Bahman Javadi, University of Melbourne, Australia
Bart Pindor, University of Melbourne, Australia
Richard O. Sinnott, e-Research at University of Melbourne, Australia
James Sankar, AARNet Pty Ltd, Australia
Christian Simone Vecchiola, IBM Research and Development Australia
Surya Nepal, CSIRO, Australia
Bruno Schulze, National Laboratory for Sci. Computing, Brazil
Manish Parashar, Rutgers, The State University of New Jersey, USA


PAPER SUBMISSION GUIDELINES
----------------------------

All papers must be submitted electronically and in PDF format through easychair.

https://www.easychair.org/conferences/?conf=ccsa2011

The material presented should be original and not published or under
submission elsewhere. Authors should submit full papers of up to 6
pages, strictly following the IEEE Computer Society Proceedings
Manuscript style (available at
http://www.computer.org/portal/web/cscps/formatting),
using two-column, single-space format, with 10-point font size.
Figures and references must be included in the 6 pages. Oversized
papers will be automatically rejected by the committee. At least
one of the authors of each accepted paper must register early to
attend the conference, in order for the paper to appear in the
conference proceedings.

Submitted papers must represent original unpublished research
that is not currently under review for any other conference
or journal. Papers not following these guidelines will be
rejected without review and further action may be taken,
including (but not limited to) notifications sent to the
heads of the institutions of the authors and sponsors of the
conference. Submissions received after the due date,
exceeding length limit, or not appropriately structured may
also not be considered. The proceedings will be published and
will be made online through the IEEE Xplore.

JOURNAL SPECIAL ISSUE
---------------------
All papers, after presentation at the conference, will be invited to
submit their revised version to a special issue of the IJCSE -
International Journal of Computational Science and Engineering
(published by Inderscience). IJCSE is a refereed international journal
providing an international forum to report, discuss and exchange
experimental results, novel designs, work-in-progress, experience, case
studies, and trend-setting ideas in the area of computational science
and engineering. It is abstracted and indexed in ACM Guide to Computing
Literature, Computer and Information Systems, Computer Database, EI
Compendex, Engineered Materials Abstracts, Google Scholar, Pascal,
Scirus , and Scopus. For additional information about IJCSE, please
visit

http://www.inderscience.com/browse/index.php?journalCODE=ijcse

sábado, 13 de agosto de 2011

9th International Workshop on Middleware for grids, Clouds and e-Science MGC 2011


9th International Workshop on Middleware for grids, Clouds and e-Science 
MGC 2011
in conjunction with ACM/IFIP/USENIX 12th International Middleware 
Conference 2011 
Lisbon, Portugal – December 12-16, 2011
http://mgc2011.lncc.br

The MGC workshop series started with the Middleware Conference in 2003, in 
Rio (Brazil), followed by MGC 2004 in Toronto (Canada), MGC 2005 in 
Grenoble (France), MGC 2006 in Melbourne (Australia), MGC 2007 in 
California (USA), MGC 2008 in Leuven (BE), MGC 2009 in Urbana-Champaign 
(US), and MGC 2010 in Bangalore(IN). Following each workshop, thoroughly 
revised selected papers were invited to Special Issues of Concurrency and 
Computation: Practice and Experience Journal (CPE) Journal.

For the MGC 2011 workshop, researchers are encouraged to submit and 
present original work related to Grid, Cloud, and e-Science middleware to be 
considered for publication. Within this overall scope, MGC 2011 will 
emphasize issues of scalability in terms of cloud mechanisms for computation 
and data scaling as well as adaptive and semantic mechanisms for scaling 
capabilities across disciplines and over time. 
Overall topics of interest include but are not limited to:

Cloud Computing Middleware
Core Infrastructure
SaaS/PaaS/IaaS
Utility computing
Virtualization Middleware
Service Level AgreementsStrategies and Protocols to Support QoS
Managing Large Data Centers
Dependability and Fault Tolerance
Performance Evaluation and Modeling
Metadata and Schemas
Programming Models and Tools
Resource Management and Scheduling
Management of Scientific Models and Workflows
Energy Management and Green Computing
Security
Information Services
Portals and Containers
Adaptive/Autonomic Middleware
Application Testbeds

Paper Submission: The MGC 2011 Workshop invites authors to submit original 
and unpublished work.
Papers should not exceed 6 pages ACM style (single-spaced 2-column of text 
using 09-point size type on A4 paper). Authors should submit a PostScript 
(level 2) or PDF file that will print on a PostScript printer.
Electronic only submission (via submission server).
Submission requires the willingness of at least one of the authors to register 
and present the paper.
All selected papers for this workshop are peer-reviewed and will be published 
with ACM.
Selected (extended) papers will be invited to a special issue of Concurrency 
and Computation: Practice
and Experience Journal to appear.

Important Dates:
Submissions:                    August 15, 2011
Notification:                     September 29, 2011
Camera-ready:                 October 10, 2011
Workshop date:                December 12, 2011

4th IEEE International Conference on Utility and Cloud Computing (UCC 2011)

4th IEEE International Conference on Utility and Cloud Computing (UCC 2011)
          December 5-8, Melbourne, Australia

             http://www.cloudbus.org/ucc2011/

                   Sponsored by:
            IEEE Computer Society, USA
      Association for Computing Machinery (ACM), USA



Introduction:
-------------

Computing is being transformed to a model consisting of
services that are commoditized and delivered in a manner
similar to traditional utilities such as water, electricity,
gas, and telephony. In such a model, users access services
based on their requirements without regard to where the
services are hosted or how they are delivered. Several
computing paradigms have promised to deliver this utility
computing vision and these include Grid computing, and more
recently Cloud computing.

Cloud computing has recently emerged as one of the buzzwords
in the ICT industry.  Several IT vendors are promising to
offer storage, application and computation hosting services,
and provide coverage in several continents, offering
Service-Level Agreements (SLA) backed performance and uptime
promises for their services. While these "clouds" are the
natural evolution of traditional clusters and data centres,
they are distinguished by following a "utility" pricing model
where customers are charged based on their utilisation of
computational resources, storage and transfer of data.
These emerging services have reduced the cost of computation,
application hosting and content storage and delivery by
several orders of magnitude, however there is significant
complexity involved in ensuring applications, services and
data can scale when needed to ensure consistent and reliable
operation under peak loads.

To provide a dedicated forum for sharing recent R&D advances
and industrial innovations in "Utility Computing" area, we
have initiated this new conference series "International
Conference on Utility and Cloud Computing". This conference
series has emerged out of previous successful Cloud computing
events (Cloud 2009 held in Shanghai, China; Cloud 2010 held
in Melbourne, Australia; and UCC 2010 held in Chennai,
India).  UCC 2011, as 4th event in the series, focuses on
principles, paradigms, and applications of "Utility
computing" and its practical realisation in industry
especially in the form of Cloud Computing.

Conference Scope:
-----------------

Topics of interest include (but are not limited to):
- Principles of Utility Computing
- Architectural Models for Utility Computing
- *aaS: Infrastructure, Platform, Software, Storage as a Service
- Novel architectural models for cloud computing
- Novel applications of cloud computing, including games and social networks
- Novel cloud programming models
- Innovative cloud pricing models
- Innovative cloud service models
- Support for scalable and elastic cloud services
- New parallel / concurrent programming models for cloud computing
- Cloud support for mobile applications and Content Delivery Networks
- Data Security, Privacy, and Jurisdiction in the Cloud
- Portability of applications and data between different cloud providers
- Cloud-related virtualization issues
- Deployment, maintenance, and management of cloud resources and services
- (Multi-)Cloud resource brokering and scheduling
- (Multi-)Cloud capacity planning
- Reliability of applications and services running on the cloud
- Interoperability between different Utility Computing Platforms
including Grids, and Clouds
- Performance monitoring for cloud applications
- Cloud use case studies
- Scientific computing in the cloud
- Business computing in the cloud
- Social computing in the cloud


Ferramenta Cathy

Meio fora do tema, mas para mim é de extrema utilidade!

O Cathy é uma ferramenta de apenas um arquivo, que permite catalogar tipos de mídias (CD, DVD, Pendrive, HD, etc).
Ele lê o rótulo, diretórios e arquivos, e armazena para uma posterior consulta, sem precisar da mídia, podendo ser levado para qualquer lugar.

Para baixar: http://cathy.en.softonic.com/

terça-feira, 28 de junho de 2011

Fazendo documentos Latex no Windows

Também é possivel trabalhar com arquivos Latex no Windows. Para isso é necessário que alguns softwares sejam instalados.

Os editores abaixo são apenas front-ends (interfaces para a utilização), e não contém as funcionalidades do Latex. Então você também precisa de uma distribuição do Latex.

TexXnicCenter (http://www.texniccenter.org/) - editor. +- 5MB a instalação.

TexMaker (http://www.xm1math.net/texmaker/) - editor. +- 20MB a instalação.

Miktex (http://miktex.org/) - distribuição do Latex. +- 140 MB a instalação.

GSView (http://pages.cs.wisc.edu/~ghost/) - para gerar post script (.PS). +- 12MB a instalação.

JabRef (http://jabref.sourceforge.net/) - gerenciador de referências bibliográficas. +- 7 MB a instalação.

sábado, 28 de maio de 2011

Agile Brasil 2011

A Conferência Brasileira sobre Métodos Ágeis de Desenvolvimento de Software – Agile Brazil 2011 – é uma conferência nacional sem fins lucrativos organizada por representantes das principais comunidades ágeis brasileiras. O evento tem como objetivo promover a comunicação e a colaboração entre seus integrantes visando à disseminação coordenada da cultura Ágil por todo o país.
O evento acontecerá em Fortaleza, no fim de Junho. Contará com cursos, apresentação de trabalhos e relatos de experiência provenientes de várias regiões do país.


A Agile Brazil 2011 trará diversas atividades para enriquecer o conteúdo do evento. Os primeiros dois dias serão dedicados a cursos com preços bastante acessíveis. Os outros três dias contarão com uma programação diversificada de palestras, tutoriais, workshops e lightning talks selecionados dentre as melhores submissões feitas pela comunidade, além de alguns convidados especiais. O prazo para submissão de propostas já se encerrou, porém ainda é possível ler as propostas e deixar comentários através do sistema de submissões.

Na quarta-feira ocorrerá também o segundo Workshop Brasileiro de Métodos Ágeis (WBMA), no qual serão apresentados trabalhos acadêmicos de qualidade a respeito de métodos ágeis. Caso tenha interesse em submeter um artigo acadêmico ao Workshop, confira a chamada de trabalhos do WBMA, que está aberta e encerra dia 18/04.

Como keynotes, teremos a oportunidade de ouvir Jim Highsmith, consultor executivo para a ThoughtWorks, Inc., Vinícius Teles, desenvolvedor de software e fundador da Improve It, e Joshua Kerievsky, empresário, autor, programador e globalmente reconhecido especialista em Programação Extrema e Desenvolvimento Lean. Saiba mais sobre os convidados e os temas que eles irão abordar.



Fonte: http://www.agilebrazil.com/2011/pt/index.php

terça-feira, 24 de maio de 2011

Proposta de Workflow para Alocação de Máquinas Virtuais Utilizando Características de Processamento

O seguinte artigo foi aceito no WCGA 2011 ( Workshop em Clouds, Grids e Aplicações), que ocorrerá em Campo Grande, Mato Grosso do Sul, de 30 de maio a 3 de junho.


Proposta de Workflow para Alocação de Máquinas Virtuais Utilizando Características de Processamento

Paulo Antônio Leal Rego
Emanuel Ferreira Coutinho
José Neuman de Souza

Grupo de Redes de Computadores, Engenharia de Software e Sistemas (GREat)
Mestrado e Doutorado em Ciˆencia da Computac¸ ˜ao (MDCC)
Instituto UFC Virtual Universidade Federal do Ceará
Fortaleza – CE – Brasil

Abstract. This paper describes a proposal for a workflow to handle the allocation of computing resources, specifically the processing power in heterogeneous
environments, where there is a wide variety of processors on the machines of the
infrastructure. The contribution aims to standardize the representation of the
processing capacity in terms of what we call Processing Unit (PU), combined
with the limiting of the CPU usage to provide performance isolation and maintaining the processing capability independent of the Physical Machine (PM) in
what the Virtual Machine (VM) has been allocated. This work presents experiments with a focus on defining and managing the PU, which aim to assess the
initial activities of the proposed workflow.

Resumo. Esse artigo descreve uma proposta de workflow para tratar alocacação de recursos computacionais, especificamente poder de processamento, em ambientes heterogêneos, onde existe uma grande variedade de processadores nas máquinas da infraestrutura. A contribuiçãoo visa padronizar a representação da capacidade de processamento, em termos do que chamamos de Unidade de Processamento (UP), aliado à limitação do uso da CPU para prover isolamento de desempenho e manter a capacidade de processamento independente
da Máquina Física (MF) em que a Máquina Virtual (MV) foi alocada. O trabalho apresenta experimentos com foco na definição e gerenciamento da UP, que visam avaliar as atividades iniciais do workflow proposto

Resenha: CloudCmp: Comparing Public-Cloud Providers

Referência: Ang Li; Xiaowei Yang; Kandula, S.; Ming Zhang;, “CloudCmp: Comparing Public-Cloud Providers" Internet Computing, IEEE , vol.15, no.2, pp.50-53, March-April 2011, doi: 10.1109/MIC.2011.36

1 - Legibilidade, organização e apresentação: este artigo é fácil de entender? É organizado? A apresentação é adequada? 1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom
A contextualização do problema foi bem descrita na introdução, deixando claro que o objetivo é a comparação de provedores de serviços de computação em nuvem. As metas a serem atingidas com a utilização da aplicação são bem descritas no início: opção ao cliente de escolha do provedor, auxílio aos provedores, comparação justa, medidas de custo e cobertura. Além da descrição detalhada das métricas, houve um estudo mais teórico das métricas, com experimentos mais controlados, e um estudo de caso aplicado. Porém a organização das seções e subseções é um pouco confusa.

2 – Referência a trabalhos relacionados: Considerando a literatura geral sobre o tema deste trabalho, como você avalia a qualidade das referências deste artigo? (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
Os trabalhos relacionados foram bem elaborados, com algumas comparações com o artigo em revisão, e descrevendo o que há de diferente.

3 – Conteúdo técnico. (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
Muito bom, pois descreve com detalhes cada operação: metas do aplicativo, serviços comuns dos provedores, métricas de desempenho selecionadas e forma de utilização

4 – Originalidade e contribuição: Julgue este artigo em termos de quanto ele é original em relação ao estado da arte assim como sua contribuição para a pesquisa científica. (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
Alguns trabalhos fazem experimentos sobre provedores de serviço em computação em nuvem, e geralmente da AWS. O artigo foi original no ponto em que descreveu experimentos em quatro provedores, com a estratégia de experimentos para aprofundamento e experimentos aplicados, o que deixa o artigo completo.

5 – Recomendação geral do artigo. (1: Forte rejeição - 2: Fraca rejeição - 3: Artigo intermediário - 4: Fraca aceitação - 5: Forte aceitação)
Pontuaria este artigo como “5”. A justificativa seria devido a sua originalidade e qualidade dos experimentos, baseados na comparação entre quatro provedores de serviços.

6 – Quais são os principais pontos fortes deste artigo?
A seleção de quatro provedores diferentes deixa o estudo mais completo. A descrição das métricas de desempenho e custo utilizadas nos provedores foi bem detalhada. A forma de obtenção das métricas foi bem explicada. Houve uma explicação e análise dos resultados dos experimentos detalhada. A estratégia de explicar o experimento de maneira individual para cada métrica, para aprofundar o conhecimento sobre ela, e depois com três estudos de caso aplicados elevou muito a qualidade do trabalho. A discussão final sobre os resultados é uma fonte de trabalhos futuros.

7 – Quais são as grandes deficiências deste artigo?
Na seção sobre métricas de desempenho, o item sobre redes não teve a mesma qualidade na descrição das métricas como nos outros. Foram definidos 4 serviços comuns, mas na implementação dois deles foram fundidos (rede), o que não fica claro no texto. O termo “sand boxed” não é definido (mecanismo de segurança para separação de programas em execução). Não foi informado como os valores de CPU, memória, I/O e custo foram normalizados. Para o item do experimento sobre latência foi informado que três dos provedores foram citados, mas não informou quais. Por fim, a aplicação Blast foi utilizada no estudo de caso de computação científica, mas não foi referenciada.

8 – Comentários aos autores que justifiquem sua pontuação e recomendação geral:
O artigo foi bem elaborado e escrito. Poderia ter tido uma breve descrição de cada um dos quatro provedores de serviço. Apesar da organização ter sido um pouco confusa, a qualidade dos experimentos compensou.

Resenha: Understanding Performance Interference of I/O Workload in Virtualized Cloud Environments

Referência: Xing Pu; Ling Liu; Yiduo Mei; Sivathanu, S.; Younggyun Koh; Pu, C.; "Understanding Performance Interference of I/O Workload in Virtualized Cloud Environments" Cloud Computing (CLOUD), 2010 IEEE 3rd International Conference on , vol., no., pp.51-58, 5-10 July 2010

1 - Legibilidade, organização e apresentação: este artigo é fácil de entender? É organizado? A apresentação é adequada? 1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom
O artigo possui 8 páginas, 5 figuras e 2 tabelas. Suas seções foram bem divididas. O resumo ficou muito longo (33 linhas). Ao se ler a introdução, identifica-se claramente que o foco do artigo é analisar a interferência de operações de I/O em um ambiente virtualizado. Várias métricas foram coletadas, mas não foi informado como nem com quais ferramentas. A análise dos gráficos é profunda, porém muitas referências às figuras anteriores deixa o leitor confuso.

2 – Referência a trabalhos relacionados: Considerando a literatura geral sobre o tema deste trabalho, como você avalia a qualidade das referências deste artigo? (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
Os trabalhos relacionados citados foram poucos. Mesmo assim, foram comparados com o artigo e tiveram pontos não tratados comentados. Os trabalhos focaram em acesso e I/O, porém deveriam tratar mais de interferência de I/O e cargas de trabalho.

3 – Conteúdo técnico. (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
O objetivo do artigo é claro, porém muitos termos técnicos foram utilizados. Detalhes da arquitetura do Xen e do testbed foram bem descritos. Há um modelo matemático para calcular uma pontuação para comparação de métricas. Os resultados foram relacionados entre si, demonstrando a integração dos experimentos e seus impactos.

4 – Originalidade e contribuição: Julgue este artigo em termos de quanto ele é original em relação ao estado da arte assim como sua contribuição para a pesquisa científica. (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
Vários trabalhos analisam o efeito de cargas de trabalho sobre ambientes de computação em nuvem. O diferencial do artigo é a análise do efeito de operações de I/O sobre ambientes de computação em nuvem, e como aplicações interferm nas demais máquinas virtuais, sendo um tema não tão comum.

5 – Recomendação geral do artigo. (1: Forte rejeição - 2: Fraca rejeição - 3: Artigo intermediário - 4: Fraca aceitação - 5: Forte aceitação)
Pontuaria este artigo como “4”. A justificativa seria devido a sua organização, objetivos claramente definidos e atingidos, com foco na análise da interferência de operações de I/O, condução dos experimentos do throughput e I/O, necessitando apenas organizar melhor as ideias.

6 – Quais são os principais pontos fortes deste artigo?
Ao se ler a introdução, identifica-se claramente que o foco é a análise da interferência de operações de I/O em ambientes de computação em nuvem. A arquitetura do Xen foi bem detalhada, assim como o testbed, contendo informações de hardware e software. Os experimentos foram bem detalhados, relacionando todos os resultados entre si, principalmente na análise do throughput e I/O. Foi descrito ao término dos experimentos uma conclusão sobre os resultados, que resumem bem o experimento

7 – Quais são as grandes deficiências deste artigo?
O resumo é muito longo e é praticamente igual à conclusão. Muitos termos técnicos, principalmente da arquitetura do Xen, são utilizados ao longo do texto, dificultando o entendimento para um leitor mais leigo. O modelo matemático utilizado não é bem explicado, apesar da fórmula e termos descritos. Apesar de ter sido citado que as ferramentas utilizadas foram do hypervisor Xen, não foi informado quais foram, nem como foram utilizadas, o que prejudica a reprodução dos resultados. Como no texto há muita comparação entre os resultados, muitas referências às figuras e tabelas ocorrem ao longo da leitura, deixando o leitor confuso. Os trabalhos relacionados citados foram poucos.

8 – Comentários aos autores que justifiquem sua pontuação e recomendação geral:
Como a conclusão é praticamente igual ao resumo, seria interessante que nela fossem citados os pontos fortes, fracos e trabalhos futuros. Os trabalhos relacionados poderiam ser mais orientados à interferência de operações de I/O em máquinas virtuais. O artigo requer um conhecimento técnico do hypervisor Xen, já que existem muitos termos técnicos ao longo do texto. Já que foi utilizado o Xen, provavelmente para a coleta de métricas foram utilizados o Xenmon e o Xentop. Essas ferramentas poderiam ter sido citadas, ou uma equivalente utilizada. O algoritmo de escalonamento Credit scheduler é citado no texto como um fator que influencia no desempenho, mas não entra em detalhes, dando a entender que se fosse utilizado outro algoritmo, os resultados seriam diferentes. 

Resenha: Performance Measurements and Analysis of Network I/O Applications in Virtualized Cloud

Referência: Yiduo Mei; Ling Liu; Xing Pu; Sivathanu, S.; "Performance Measurements and Analysis of Network I/O Applications in Virtualized Cloud," Cloud Computing (CLOUD), 2010 IEEE 3rd International Conference on , vol., no., pp.59-66, 5-10 July 2010

1 - Legibilidade, organização e apresentação: este artigo é fácil de entender? É organizado? A apresentação é adequada? 1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom
O artigo possui 16 páginas, 17 figuras e 1 tabela. Suas seções foram bem divididas, porém a quantidade de figuras prejudicou a organização do texto, assim como a visualização delas e a respectiva localização no texto de sua referência. Ao se ler a introdução, identifica-se claramente que o foco do artigo é a medida e análise de desempenho em operações de I/O. A apresentação das coletas em vários tipos de gráficos permite uma análise profunda e detalhada dos experimentos. A forma como as análises foram conduzidas deixam o leitor confuso. Talvez fosse melhor reduzir a quantidade de figuras para que a organização e visualização delas ficasse melhor.

2 – Referência a trabalhos relacionados: Considerando a literatura geral sobre o tema deste trabalho, como você avalia a qualidade das referências deste artigo? (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
Os trabalhos relacionados foram poucos, e somente no nível de citação. Os trabalhos focaram em virtualização, configurações de algoritmos de escalonamento e pouco em I/O, que deveria ser o foco principal. Além disso, o artigo foi realizado utilizando o Xen, e dá a entender que também foi utilizado o Xen nos trabalhos relacionados, não relacionando nem citando trabalhos com outros hypervisors.

3 – Conteúdo técnico. (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
O conteúdo do artigo é bastante técnico. Possui muitos detalhes do ambiente, das medições e análises, todas explicadas com gráficos. Os autores possuem conhecimento no assunto, demonstrado pelos experimentos variados e comparação de resultados.

4 – Originalidade e contribuição: Julgue este artigo em termos de quanto ele é original em relação ao estado da arte assim como sua contribuição para a pesquisa científica. (1: Pobre - 2: Fraco - 3: Médio - 4: Bom - 5: Muito bom)
Já existe uma quantidade razoável de trabalhos que medem desempenho em ambientes de computação em nuvem, não havendo originalidade neste aspecto. O artigo focou em operações de I/O, o que é o diferencial dele, pois a maioria dos artigos foca em CPU e memória.

5 – Recomendação geral do artigo. (1: Forte rejeição - 2: Fraca rejeição - 3: Artigo intermediário - 4: Fraca aceitação - 5: Forte aceitação)
Pontuaria este artigo como “4”. A justificativa seria devido ao alto nível das análises, com foco em operações de I/O, precisando apenas organizar melhor as ideias e a apresentação das análises.

6 – Quais são os principais pontos fortes deste artigo?
Ao se ler a introdução, identifica-se claramente que o foco é a medida e análise de desempenho em operações de I/O. O ambiente experimental disponibilizou detalhes das configurações das máquinas virtuais, o que não é comum. Houve uma boa descrição das métricas e ferramentas utilizadas para coleta: o Xenmon e o Xentop. A análise profunda e detalhada dos dois experimentos, com muitos detalhes técnicos, permite uma reprodução e comparação de resultados.

7 – Quais são as grandes deficiências deste artigo?
Os trabalhos relacionados foram apenas citados, e não foram comparados. As análises ficaram muito longas e detalhadas, e consequentemente confusas. Os gráficos não são fáceis de se interpretar, nem tão visíveis. A grande quantidade de figuras (17) prejudicou a organização do texto. Algumas figuras tiveram claramente o objetivo descrito da sua realização no texto, porém a maioria não. Alguns valores, como throughput, utilização da CPU e I/O aparecem normalizados, mas não foi descrito como. A forma como o algoritmo de escalonamento foi tratada não clara o suficiente.

8 – Comentários aos autores que justifiquem sua pontuação e recomendação geral:
O artigo requer um conhecimento técnico do hypervisor Xen, o que dificulta o entendimento. Seria interessante que os trabalhos relacionados a I/O fossem comentados e comparados. A forma como o algoritmo de escalonamento foi trabalhada no artigo poderia ser melhor explicada, deixando mais clara a sua utilização. Quanto ao formato, talvez fosse melhor reduzir a quantidade de figuras para que a organização e visualização delas ficasse melhor. Os objetivos de cada figura poderiam ter sido escritos de maneira mais clara. Seria interessante descrever pontos os fortes e fracos do artigo, já que não foram comentados.

terça-feira, 3 de maio de 2011

Resenha: Cloudstone: Multi-platform, multi-language benchmark and measurement tools for web 2.0

Segue a resenha de outro artigo que li. Deixo claro que é apenas minha opinião!


Identificação (título, autores, veículo e data de publicação)
Cloudstone: Multi-platform, multi-language benchmark and measurement tools for web 2.0
Sobel, W.; Subramanyam, S.; Sucharitakul, A.; Nguyen, J.; Wong, H.; Klepchukov, A.; Patil, S.; Fox, O. & Patterson, D.
Cloud Computing and Its Applications (CCA), 2008
Problema
Comparar aplicações da WEB 2.0. Aplicações WEB 2.0 possuem características multimídia, ricas, com influência da ação do usuário, preferências do usuário. Um exemplo são redes sociais.
Trabalhos relacionados
Aplicações semelhantes: AB, HTTPERF e SPECWeb são benchmarks.
Na pesquisa:
D. Krishnamurthy et al., A Synthetic Workload Generation Technique for Stress Testing Session-Based Systems, IEEE Trans. on Software Eng. 32(11), Nov. 2006 – Trabalha técnicas para geradores de carga de dados para sistemas.
Daniel Menascé. Load Testing of Web Sites. IEEE Internet Computing 6(4), July/August 2002 – exibe abordagens de testes de carga na web
W. Sobel et al. Scaling Ruby on Rails in a Cloud Computing Environment. UC Berkeley Technical Report EECS-2008-130 (in preparation) – descreve cenários de testes de ambientes.
Solução proposta (metodologia e resultados)
O CloudStone é um benchmark composto por ferramentas de simulação de redes sociais (OLIO), geradores de carga (FABAN) e medidas de desempenho. Seu objetivo é medir o desempenho de aplicações WEB 2.0. Ele propõe uma métrica relacionada a custos: dólares / usuário por mês.
Conclusão
Criação de um benchmark para avaliar aplicações WEB 2.0, situações como a do experimento podem ser mais fáceis de se prever o comportamento, o banco de dados requer mais instâncias do ambiente, e operações de log, se desligadas, aumentam o throughput em cerca de 20%.
Pontos fortes
Utilização de ferramentas livre para geração do ambiente e carga, e a estratégia da metodologia em responder duas perguntas: quantos usuários em paralelo podem ser servidos por um custo fixo em dólar por mês na Amazon EC2, e quantos usuários podem ser suportados sem a replicação da base de dados?
Pontos fracos
Não foi descrito o motivo pelo qual foi utilizado o Olio e o Faban, pelo Rails e PHP, e por que foi utilizado como ambiente de experimentação o Amazon EC2.
Poderia ter figuras representando a arquitetura, e não uma descrição só em texto.
Poderia ter trabalhado mais métricas.
Poderia ter mais trabalhos futuros.
Poucas referências foram utilizadas.
Trabalhos futuros
Explorar geradores de carga dinâmicos

Resenha: CloudGauge: A Dynamic Cloud and Virtualization Benchmarking Suite

Segue a resenha de outro artigo que li. Deixo claro que é apenas minha opinião!


Identificação (título, autores, veículo e data de publicação)
CloudGauge: A Dynamic Cloud and Virtualization Benchmarking Suite
El-Refaey, M. & Rizkaa, M.
Enabling Technologies: Infrastructures for Collaborative Enterprises (WETICE), 2010 19th IEEE International Workshop on, 2010, 66 -75
Problema
Necessidade de aplicação de benchmarks e análise de desempenho para ambientes virtualizados, que possuem uma dinâmica diferente de ambientes que não utilizam virtualização
Trabalhos relacionados
Casazza, J.P., Greenfield, M., Shi, K.: Redefining server performance characterization for virtualization benchmarking. Intel Technology Journal 10(3) (2006)243–251 – descreve requisitos que um benchmark para máquinas virtuais deve atender, como o vConsolidate
Paul Barham, Boris Dragovic, Keir Fraser, Steven Hand, Tim Harris, Alex Ho, Rolf Neugebauer†, Ian Pratt, Andrew Warfield: Xen and the art of virtualization. In: SOSP ’03: Proceedings of the 19th ACM Symposium on Operating Systems Principles, New York, NY, USA, ACM (2003) 164–177 – um estudo sobre o impacto do overhead de máquinas virtuais em uma variedade de cargas
Muli Ben-Yehuda, Amit Shah, Balaji Rao, Todd Deshane, Zachary Shepherd,Jeanna N. Matthews: Quantitative comparison of Xen and KVM. In: Xen Summit 2008 – um estudo sobre o impacto do overhead de máquinas virtuais em uma variedade de cargas
Hai Jin, Wenzhi Cao, Pingpeng Yuan, Xia Xie.:VSCBenchmark: benchmark for dynamic server performance of virtualization technology . In: Proceedings of the 1st international forum on Next-generation multicore/manycore technologies (2008), Cairo, Egypt – apresenta o benchmark VSCBenchmark que analisa o desempenho de servidores e máquinas virtuais com cargas variadas
VMmark: A Scalable Benchmark for Virtualized Systems.Technical Report VMware-TR-2006-002 September 25, 2006 http://www.vmware.com/pdf/vmmark_intro.pdf - apresenta o benchmark VMark, que executa várias cargas de trabalho simultaneamente em máquinas virtuais
Solução proposta (metodologia e resultados)
Cloudgauge – benchmark customizável e configurável para auxiliar na avaliação de desempenho no contexto de ambientes de computação em nuvem
Instalação e configuração do benchmark, utilização de diferentes ferramentas para povoar a base de dados e coletar métricas. Foram realizados testes em três configurações: nativa, virtualizada e host com máquina virtual.
Conclusão
CloudGauge provê um mecanismo de medição um ambiente virtualizado. Foram coletadas informações de utilização da CPU, carga média e utilização da memória. Os sistemas. Pelos resultados é possível investigar como customizar um ambiente virtualizado para uma aplicação.
Pontos fortes
Requisitos para benchmarks para VM
Trabalhos relacionados
Há resultados variados visualizados em gráficos
Uma boa revisão bibliográfica sobre benchmarks
Descrição detalhada da arquitetura
Composto por bibliotecas e frameworks livres.
Pontos fracos
Não foi descrito o testbed para todas as configurações
Não há nenhuma imagem do benchmark, ou dos resultados na forma de relatório
Há referências a figuras que não existem e figuras sem referência
Os resultados das medidas não foram bem explicados, nem comparados
Trabalhos futuros
Medir outros hypervisors (camada que é fornecida para a virtualização de plataforma) e sistemas baseados em computação em nuvem. Aplicar em testbeds de alta escala como OpenCirrus, PlanetLab e Emulab, ou em ambientes de produção. Integrar com o Faban como um gerador de carga.