quinta-feira, 28 de abril de 2011

XVI Workshop de Gerência e Operação de Redes e Serviços (WGRS 2011)

XVI Workshop de Gerência e Operação de Redes e Serviços (WGRS 2011)

30 de maio de 2011, Campo Grande, Mato Grosso do Sul

Em conjunto com o XXIX  Simpósio Brasileiro de Redes Computadores e Sistemas Distribuídos (SBRC 2011)

Objetivos
O Workshop de Gerência e Operação de Redes e Serviços (WGRS) é um evento promovido pela Sociedade Brasileira de Computação (SBC) e tem como objetivo prover um espaço para a apresentação de pesquisas e atividades relevantes na área de gerenciamento e operação de redes e serviços. Dessa forma, o evento contribui para a integração da comunidade brasileira de pesquisadores e profissionais atuantes nessa área. Além disso, o WGRS também atua como um fórum para a apresentação e discussão de soluções utilizadas por provedores e usuários de sistemas de gerenciamento de redes.

O XVI Workshop de Gerência e Operação de Redes e Serviços (WGRS 2011) será realizado durante o XXIX Simpósio Brasileiro de Redes de Computadores (SBRC 2011), o qual ocorrerá na semana de 30 de maio a 03 de junho de 2011 em Campo Grande, MS.

Tópicos de Interesse

Os autores são convidados a submeter trabalhos de pesquisa, resultados experimentais e desenvolvimentos que incluam tópicos da lista a seguir, a qual não é exaustiva:
  • Aprovisionamento de redes e planejamento de capacidade
  • Arquiteturas de gerenciamento
  • Auto-gerenciamento e auto-configuração
  • Contabilização e bilhetagem
  • Desempenho e qualidade de serviço
  • Gerenciamento autônomo de redes e serviços
  • Gerenciamento baseado em políticas
  • Gerenciamento baseado em web services e peer-to-peer
  • Gerenciamento de computação na nuvem e grades computacionais
  • Gerenciamento de mobilidade
  • Gerenciamento de redes móveis, sem fio e de sensores
  • Gerenciamento de redes ópticas
  • Gerenciamento de serviços e aplicações
  • Gerenciamento distribuído
  • Gerenciamento de infra-estrutura de TI
  • Modelagem de informação de gerenciamento
  • Monitoração e métodos baseados em metrologia de redes
  • Plataformas de gerenciamento
  • Virtualização, redes sobrepostas e topologias virtuais
  • Segurança, privacidade e isolamento
  • Tratamento de eventos e falhas

I Workshop on Autonomic Distributed Systems (WoSIDA 2011)

May 30th, Campo Grande, Mato Grosso do Sul

Co-located with the 29th Brazilian Symposium on Computer Networks and Distributed Systems (SBRC 2011)

Overview

Advances in network and computing technologies are resulting in increasingly complex distributed systems and applications that are hard to manage, especially when the related services are required to be scalable, secure, and continuously available. Adapting at run time is required to cope with challenges such as resource variability, changing user requirements, and system intrusions or faults. As a consequence, these systems need the ability to be self-manageable, continually reconfiguring and tuning themselves to attain certain goals while keeping its complexity hidden from the users. Therefore, the study of such self-managing systems has received a great deal of attention in many computing areas, among others, robotics, software engineering, network management, automation and control systems, fault-tolerant and dependable computing, and biological computing. Among the efforts to study and understand self-manageable systems, the autonomic computing paradigm, inspired by the human autonomic nervous system, is being adopted by many for the design of systems and applications that must work in accordance with high-level guidance from humans, and are characterized by the so-called self-* properties (such as self-configuration, self-healing, self-optimization, self-protection, etc.). This workshop aims at bringing together researchers and practitioners from the distributed systems community to discuss the fundamental principles, state of the art, and critical challenges of self-managing or autonomic distributed systems. The workshop not only focuses on distributed system models and algorithms, but also on the related software engineering aspects, tools, and technologies, that can be used to support self-managing behavior in distributed systems.

Topics of Interest

The topics of interest include, but are not limited to:
  • distributed system models and algorithms for autonomic distributed systems;
  • programming, design, middleware and language support for autonomic distributed systems;
  • modeling and analysis of autonomic distributed systems;
  • verification and validation of autonomic distributed systems;
  • dependability aspects of autonomic distributed systems;
  • self-organizing aspects as a support to autonomic behavior in Grids, P2P systems, and sensor networks;
  • bio-inspired algorithms and techniques for autonomic distributed systems; and
  • autonomic networking. 

Nuvem do Google

RIO - Num mundo conectado, as empresas precisam levar seus negócios para dentro da rede o mais rápido possível. E a Google está mais do que concentrada nesse assunto. Tanto que Amit Singh, vice-presidente mundial de vendas e desenvolvimento de negócios da gigante das buscas, disse ao GLOBO nesta quarta-feira, no Rio, que em breve a empresa vai lançar oficialmente seu notebook com o sistema Chrome OS. Ele reúne os programas do Google Apps num esquema baseado no desenho do browser Chrome e está num programa-piloto.
- Ainda não temos uma data, mas será muito em breve. E chegará para os usuários também. Vários clientes já estão testando o aparelho - disse Singh. - Já são 30 milhões de empresas usando o Google Apps, e a "nuvem" da internet é parte fundamental para baratear o custo dos negócios, enquanto assegura forte capacidade de processamento para aplicativos complexos.
Questionado sobre possíveis riscos de segurança com os aplicativos todos inseridos na nuvem - veja-se a rede do PlayStation fora do ar -, Singh explica que a nuvem do Google é diferente.
- Nossa segurança é maior, porque, em vez de botar os aplicativos em servidores, nós os picotamos em mil pedacinhos, numa espécie de sistema criptográfico - explica. - O aplicativo ou arquivo só fica disponível na hora em que o usuário o solicita. Assim, fica bem mais difícil violar os dados. E a rede é global, então eles podem ser reunidos a partir de qualquer lugar, caso haja algum problema.
A própria Google combina sua nuvem com o sistema móvel Android para alimentar aplicativos com algoritmos complicados como a busca na internet acionada por voz.
No evento Global Convergence Forum, da Accenture, uma demo do aplicativo reconheceu automaticamente uma imagem do Copacabana Palace capturada de um recorte de papel e exibiu informações sobre o hotel. Em seguida, capturou de um jornal um jogo de sudoku e o resolveu automaticamente.
Sob nova direção: o estilo de Larry Page como CEO
Singh também comentou que Larry Page, cofundador do Google que reassumiu a empresa no lugar de Eric Schmidt, está imprimindo um novo estilo à empresa.
- Schmidt veio do mundo corporativo, e trouxe sua expertise nesse sentido. Já Larry é extremamente concentrado no usuário, e quer ver um Google mais social e mais veloz nas mudanças - diz Singh. - E temos mesmo que ir muito mais rápido. A ideia é que recuperemos o ímpeto empreendedor de uma startup. Não por acaso, estamos sempre experimentando novas formas de lidar com dados.
Um computador no trabalho hoje engole US$ 5 mil por ano em manutenção, com atualizações, segurança wireless, pessoal extra, patches. A nuvem acaba com isso
O executivo - cuja app Google favorita é o Docs, devido à possibilidade de colaboração on-line - diz que a nuvem reduz dramaticamente os custos de manutenção de hardware para as empresas.
- Com um recurso como a App Engine, que permite criar aplicativos para a internet, as companhias podem se centrar no que fazem melhor. Um computador no trabalho hoje engole US$ 5 mil por ano em manutenção, com atualizações, segurança wireless, pessoal extra, patches... A nuvem acaba com isso - diz.
E a mobilidade é parte fundamental dessa equação, pois, segundo Singh, nove em cada dez buscas num smartphone resultam numa ação concreta por parte do usuário final. E a nuvem precisa estar por trás disso para que não se percam oportunidades.

© 1996 - 2011. Todos os direitos reservados a Infoglobo Comunicação e Participações S.A. 

quarta-feira, 20 de abril de 2011

Super PI

O SuperPi é um utilitário que existe tanto para Windows e Linux. Ele calcula o valor do PI e suas casas decimais.
A versão Linux pode ser baixada de ftp://pi.super-computing.org/Linux/super_pi.tar.gz, e a Windows de http://www.techpowerup.com/downloads/126/mirrors.php.

A versão Linux exibe algo parecido:

Start of PI calculation up to 1048576 decimal digits
 End of initialization. Time=       0.789 Sec.
 I= 1 L=       0        Time=       2.541 Sec.
 I= 2 L=       0        Time=       2.947 Sec.
 I= 3 L=       1        Time=       2.984 Sec.
 I= 4 L=       2        Time=       2.940 Sec.
 I= 5 L=       5        Time=       2.924 Sec.
 I= 6 L=      10        Time=       2.971 Sec.
 I= 7 L=      21        Time=       2.941 Sec.
 I= 8 L=      43        Time=       2.927 Sec.
 I= 9 L=      87        Time=       2.936 Sec.
 I=10 L=     174        Time=       2.978 Sec.
 I=11 L=     349        Time=       2.959 Sec.
 I=12 L=     698        Time=       2.985 Sec.
 I=13 L=    1396        Time=       2.981 Sec.
 I=14 L=    2794        Time=       2.979 Sec.
 I=15 L=    5588        Time=       2.974 Sec.
 I=16 L=   11176        Time=       2.957 Sec.
 I=17 L=   22353        Time=       2.944 Sec.
 I=18 L=   44707        Time=       2.862 Sec.
 I=19 L=   89415        Time=       2.640 Sec.
 End of main loop
 End of calculation.    Time=      58.543 Sec.
 End of data output.    Time=       0.200 Sec.
 Total calculation(I/O) time=      58.743(       2.027) Sec.
 ------ Ended super_pi run : Sat Aug 27 16:05:23 PHT 2005

Já a versão Windows é uma aplicação desktop que exibe no final o tempo gasto para o cálculo de 16K a 32M casas decimais, e salva um arquivo txt com o resultado.

PI=3.

1415926535 8979323846 2643383279 5028841971 6939937510
5820974944 5923078164 0628620899 8628034825 3421170679
8214808651 3282306647 0938446095 5058223172 5359408128
4811174502 8410270193 8521105559 6446229489 5493038196
4428810975 6659334461 2847564823 3786783165 2712019091
4564856692 3460348610 4543266482 1339360726 0249141273
7245870066 0631558817 4881520920 9628292540 9171536436
7892590360 0113305305 4882046652 1384146951 9415116094
3305727036 5759591953 0921861173 8193261179 3105118548
0744623799 6274956735 1885752724 8912279381 8301194912
9833673362 4406566430 8602139494 6395224737 1907021798
6094370277 0539217176 2931767523 8467481846 7669405132
0005681271 4526356082 7785771342 7577896091 7363717872
1468440901 2249534301 4654958537 1050792279 6892589235
4201995611 2129021960 8640344181 5981362977 4771309960
5187072113 4999999837 2978049951 0597317328 1609631859
5024459455 3469083026 4252230825 3344685035 2619311881
7101000313 7838752886 5875332083 8142061717 7669147303
5982534904 2875546873 1159562863 8823537875 9375195778
1857780532 1712268066 1300192787 6611195909 2164201989

Benchmarks para CPU, memória e I/O

Como eu pesquiso benchmarks, encontrei um artigo que comenta sobre três benchmarks para propósitos diferentes.
O artigo é o XXXX.

Os três benchmarks são:

  • UBench - CPU e memória
  • Bonnie++: acesso a disco (I/O)
  • IPerf: largura de banda

Fiz testes com os três no UBUNTU.

O UBench eu baixei de http://www.phystech.com/download/ubench.html e tive que compilar.
Ao compilar ocorreram alguns erros.
Nos arquivos cpubench.c e membench.c troque CLK_TCK por sysconf(_SC_CLK_TCK), e compile.
Digite ./configure para criar o Makefile, digite make para compilar, e ./ubench para executar.
Como resultado aparece algo do tipo:


Unix Benchmark Utility v.0.3
Copyright (C) July, 1999 PhysTech, Inc.
Author: Sergei Viznyuk <sv@phystech.com>
http://www.phystech.com/download/ubench.html
Linux 2.6.32-30-generic #59-Ubuntu SMP Tue Mar 1 21:30:21 UTC 2011 i686
Ubench CPU:   579181
Ubench MEM:   372648
--------------------
Ubench AVG:   475914


O Bonnie++ já vem com o UBUNTU, bastando instalar: sudo apt-get install bonnie++
Como resultado aparece algo do tipo:


Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
SALAPROF11       2G   281  99 63381  10 29097   4  1718  86 68368   4 148.6   4
Latency             34655us     924ms    1144ms     108ms     177ms    1078ms
Version  1.96       ------Sequential Create------ --------Random Create--------
SALAPROF11          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16 +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++
Latency               352us     977us     962us     180us     142us     138us
1.96,1.96,SALAPROF11,1,1303311806,2G,,281,99,63381,10,29097,4,1718,86,68368,4,148.6,4,16,,,,,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,34655us,924ms,1144ms,108ms,177ms,1078ms,352us,977us,962us,180us,142us,138us


O IPerf já vem com o UBUNTU, bastando instalar: sudo apt-get install iperf


É necessário duas máquinas, onde uma será o servidor e outra o cliente.

Como resultado aparece algo do tipo:


  root@jaccon:~# iperf -c 192.168.0.1
  ------------------------------------------------------------
  Client connecting to 192.168.0.1, TCP port 5001
  TCP window size:   128 KByte (default)
  ------------------------------------------------------------
  5 local 192.168.0.1 port 32926 connected with 192.168.0.1 port 5001
  5  0.0-10.0 sec  1.86 GBytes  1.59 Gbits/sec

4th International SOA Symposium and the 3rd International Cloud Symposium

Ocorrerá em Brasília, no final de abril:
 
4th International SOA Symposium and the 3rd International Cloud Symposium



domingo, 10 de abril de 2011

IX Workshop em Clouds, Grids e Aplicações (WCGA 2011)

Ocorrerá em paralelo ao SBRC 2011 em Campo Grande, Mato Grosso do Sul.




Apresentação

A série WCGA tem por objetivo atuar como um fórum para apresentações técnicas de pesquisas em andamento e atividades relevantes nas áreas de infra-estrutura e infra-estrutura virtualizada, serviços e aplicações em áreas diversas, congregando pesquisadores e profissionais que atuam ativamente nessas áreas. O workshop também busca estabelecer redes colaborativas multi-institucionais e grupos de competência técnico-científica, bem como fortalecer atividades em andamento.

O IX Workshop em Clouds, Grids e Aplicações (WCGA 11) será realizado durante o  XXIX Simpósio Brasileiro de Redes de Computadores e Sistemas Distribuídos (SBRC 2011), em Campo Grande, MS.

Tópicos de interesse

Para a edição deste ano, autores são particularmente encorajados a submeter trabalhos originais em tópicos relacionados a clouds, grades, bem como aplicações. Os tópicos de interesse incluem (mas não estão limitados a):
  • Avaliação de Desempenho
  • Balanceameto de Carga
  • Gerência de Políticas
  • Tolerância a Falhas
  • Provisão de QoS
  • Infraestrutura Virtualizada
  • Portais
  • IaaS, Paas, Saas, NaaS
  • APIs e Controle de uso
  • Integração Ótica de Rede Sem-fio
  • Gerenciamento de Energia
  • Orquestração e Coreografia d e Serviços
  • Gerência e Escalonamento de Recursos
  • Ferramentas e Modelos de Programação
  • Ferramentas de Gerencia de Infraestrutura Virtualizada
  • Segurança em Infraestrutura Virtualizada
  • Gerenciamento de Recursos Virtualizados
  • Gerenciamaneto de DataCenters
  • Computacao e Comunicacao Verdes
  • Modelos de Contabilidade e Economia
  • Gerencia de Metadados, Schemas e Ontologias
  • Aplicações e Serviços habilitados pela Infraestrutura Virtualizada
  • Aplicações, Comunidades e Testbeds


Fontes: http://sbrc2011.facom.ufms.br/workshops/view/id/7 e http://wcga11.lncc.br/

sábado, 9 de abril de 2011

CloudBees

Já ouviram falar no CloudBees?

The CloudBees platform is the first Platform as a Service that lets companies build, test and deploy Java web applications in the cloud. With CloudBees, Software teams can move their development and production activities instantly to the cloud, without restrictions or infrastructure costs.





quinta-feira, 7 de abril de 2011

Jeliot

Para quem quiser ensinar ou trabalhar na sala de aula Programação Orientada a Objetos, com java, a ferramenta Jeliot (http://cs.joensuu.fi/jeliot/index.php) é uma boa atividade.
Basicamente é uma arquivo que ao ser executado permite ao usuário escrever classes java, e ela mostra graficamente como funciona desde a criação da classe, chamada de métodos e instanciação de objetos, através de uma animação.
O Jeliot foi escrito em Java, logo é uma IDE multiplaforma que pode ser instalada em qualquer sistema operacional. Ainda assim, existe uma versão Java Web Start que dispensa instalação.

Fonte: http://www.antoniopassos.pro.br/blog/?p=507

sexta-feira, 1 de abril de 2011

Byte-unixbench

O Byte-benchmark é um benchmark que avalia o desempenho em sistemas UNIX.
Exemplos do seu uso podem ser encontrados em: http://www.hermit.org/Linux/Benchmarking/

------------------------------


UnixBench is the original BYTE UNIX benchmark suite, updated and revised by many people over the years.
The purpose of UnixBench is to provide a basic indicator of the performance of a Unix-like system; hence, multiple tests are used to test various aspects of the system's performance. These test results are then compared to the scores from a baseline system to produce an index value, which is generally easier to handle than the raw scores. The entire set of index values is then combined to make an overall index for the system.
Some very simple graphics tests are included to measure the 2D and 3D graphics performance of the system.
Multi-CPU systems are handled. If your system has multiple CPUs, the default behaviour is to run the selected tests twice -- once with one copy of each test program running at a time, and once with N copies, where N is the number of CPUs. This is designed to allow you to assess:
  • the performance of your system when running a single task
  • the performance of your system when running multiple tasks
  • the gain from your system's implementation of parallel processing
Do be aware that this is a system benchmark, not a CPU, RAM or disk benchmark. The results will depend not only on your hardware, but on your operating system, libraries, and even compiler.


Fonte: http://code.google.com/p/byte-unixbench/