O Projeto DIEM (Dynamic Images and Eye Movements) pode revolucionar a indústria do entretenimento, mostrando para os criadores de conteúdo para onde, afinal, a atenção do espectador está voltada.
Utilizando um software chamado CARPE (Computational and Algorithmic Representation and Processing of Eye-movements), que inclusive você pode baixar, o projeto captura o ponto para onde a visão está direcionada, procurando entender como enxergamos filmes, TV e mesmo eventos na vida real.
Montage of 4 Wimbledon Visualizations from TheDIEMProject on Vimeo.
Fonte: http://thediemproject.wordpress.com/
É o blog do Emanuel!!!
Aqui serão postados assuntos diversos: viagens, informática e tecnologia de uma forma geral.
Como sou professor e trabalho com Computação em Nuvens (Cloud Computing), muitas vezes os posts serão sobre assuntos relacionados ao mundo acadêmico, como congressos. Mas tem de tudo um pouco!
sexta-feira, 25 de fevereiro de 2011
quarta-feira, 23 de fevereiro de 2011
The Ice Book
Vídeo bem legal onde um jogo de projeções é realizado!
The Ice Book (HD) from Davy and Kristin McGuire on Vimeo.
Fonte: http://www.theicebook.com/Home.html
The Ice Book (HD) from Davy and Kristin McGuire on Vimeo.
Fonte: http://www.theicebook.com/Home.html
sábado, 19 de fevereiro de 2011
Projeto Ganglia
Ganglia (http://ganglia.sourceforge.net/) é um sistema de monitoramento distribuído escalável para sistemas de computação de alto desempenho, como clusters e grades. É baseado em um projeto hierárquico orientado para federações de clusters. Ele aproveita amplamente tecnologias como XML para representação de dados e RRDtool para armazenamento de dados e visualização.
Ele usa cuidadosamente estruturas de dados e algoritmos para alcançar baixo overhead por nó e alta concorrência. A aplicação é robusta, tendo sido portada para um extenso conjunto de sistemas operacionais e arquiteturas de processador, e está atualmente em uso em milhares de clusters ao redor do mundo. Tem sido usada para ligar clusters em universidades em todo o mundo e pode evoluir para lidar com clusters com 2000 nós.
Ele usa cuidadosamente estruturas de dados e algoritmos para alcançar baixo overhead por nó e alta concorrência. A aplicação é robusta, tendo sido portada para um extenso conjunto de sistemas operacionais e arquiteturas de processador, e está atualmente em uso em milhares de clusters ao redor do mundo. Tem sido usada para ligar clusters em universidades em todo o mundo e pode evoluir para lidar com clusters com 2000 nós.
Quer ver funcionando ?
OpenNebula 2.2
Mais uma nova versão do OpenNebula será lançada. Dessa vez ela veio com tudo, pois agregou algumas funcionalidades gráficas para administração e monitoramento.
Novas funcionalidade para tolerância a falhas e gerenciamento de máquinas virtuais no datacenter.
Além disso, uma integração com o Ganglia (http://ganglia.sourceforge.net/).
Além disso, ele traz a primeira versão do OpenNebula Sunstone, um novo centro de operações da nuvem que vai simplificar a gestão de operações típicas em nuvens privadas e infra-estruturas híbridas.
Fonte: http://blog.opennebula.org/
Novas funcionalidade para tolerância a falhas e gerenciamento de máquinas virtuais no datacenter.
Além disso, uma integração com o Ganglia (http://ganglia.sourceforge.net/).
Além disso, ele traz a primeira versão do OpenNebula Sunstone, um novo centro de operações da nuvem que vai simplificar a gestão de operações típicas em nuvens privadas e infra-estruturas híbridas.
Fonte: http://blog.opennebula.org/
Certificação PMP (Project Management Professional)
Finalmente renovei minha certificação PMP (Project Management Professional)
Tive que desembolsar alguns dólares, mas ela está valendo por mais 3 anos.
Para quem não sabe, a certificação PMP é emitida por um instituto, o PMI (Project Management Institute - http://www.pmi.org/).
Segundo a wikipedia:
A Certificação Project Management Professional (PMP - Profissional de Gerência de Projetos) é um documento emitido pelo Project Management Institute (PMI) que atesta profundos conhecimentos nas boas práticas de gerenciamento de projetos, responsabilidade social e ética
É provavelmente a mais reconhecida pelo mercado entre as oferecidas pelo programa de Certificações Profissionais do Instituto e também a de maior destaque mundial no que tange à Gerência de Projetos.
O seu objetivo é dar reconhecimento público de que o profissional certificado tem excelentes conhecimentos e grande experiência na Gerência de Projetos na forma preconizada pelo PMI na norma PMBOK.
Para obtê-la é necessário ao profissional, além de ser aprovado no Exame de Certificação PMP que inclui 200 perguntas de múltipla escolha, aderir ao Código de Conduta Profissional e cumprir uma série de requisitos quanto à educação formal em Gerência de Projetos e à experiência na área.
Tive que desembolsar alguns dólares, mas ela está valendo por mais 3 anos.
Para quem não sabe, a certificação PMP é emitida por um instituto, o PMI (Project Management Institute - http://www.pmi.org/).
Segundo a wikipedia:
A Certificação Project Management Professional (PMP - Profissional de Gerência de Projetos) é um documento emitido pelo Project Management Institute (PMI) que atesta profundos conhecimentos nas boas práticas de gerenciamento de projetos, responsabilidade social e ética
É provavelmente a mais reconhecida pelo mercado entre as oferecidas pelo programa de Certificações Profissionais do Instituto e também a de maior destaque mundial no que tange à Gerência de Projetos.
O seu objetivo é dar reconhecimento público de que o profissional certificado tem excelentes conhecimentos e grande experiência na Gerência de Projetos na forma preconizada pelo PMI na norma PMBOK.
Para obtê-la é necessário ao profissional, além de ser aprovado no Exame de Certificação PMP que inclui 200 perguntas de múltipla escolha, aderir ao Código de Conduta Profissional e cumprir uma série de requisitos quanto à educação formal em Gerência de Projetos e à experiência na área.
Mini-cursos para o X SBQS
Mini-cursos confirmados para os SBQS 2011, que ocorrerá em Curitiba, PR (6 a 10 de junho):
MC1 - Análise Causal de Defeitos de Software
MC2 - Linhas de Processo de Software: Conceitos, Técnicas e Ferramentas
MC3 - Engenharia de Requisitos Orientada a Metas
MC4 - Experimentação em Engenharia de Software: Fundamentos e Conceitos
MC5 - Ontologias: Teoria e Aplicações em Qualidade de Software
MC6 - Pesquisa em Qualidade de Software: da Concepção ao Relato
MC7 - Avaliação de Qualidade de Linha de Produto de Software baseada em Arquitetura e Métricas
Se eu fosse, tentaria participar do MC4 e o MC5
MC4 - EXPERIMENTAÇÃO EM ENGENHARIA DE SOFTWARE: FUNDAMENTOS E CONCEITOS
Um dos grandes interesses nos estudos experimentais é a crescente visão popular de que a Engenharia de Software deve ter fortes fundamentos de uma disciplina científica de engenharia, e que as técnicas para melhorar o desenvolvimento de software, sistemas e para a evolução dos processos deva estar disponível aos profissionais.
Neste sentido, este mini-curso visa apresentar algumas possibilidades de utilização do método científico (experimentação)e seus diferentes tipos de estudos primários no contexto da Engenharia de Software para a geração de conhecimento relacionado a tecnologias e processos de software. De maneira a apoiar as discussões, experiências e exemplos extraídos da realização de estudos experimentais serão apresentados. Em particular, processos de experimentação e tecnologias de software voltadas para garantir a qualidade do produto (técnicas de inspeção) e melhoria do processo desenvolvidas com base em experimentação serão exploradas.
MC5 - ONTOLOGIAS: TEORIA E APLICAÇÕES EM QUALIDADE DE SOFTWARE
O mini-curso de Ontologias introduz o tema discutindo a sua importância e motivação. São apresentadas as principais definições para ontologias, assim como os seus componentes, as diferentes classificações e os princípios que devem ser seguidos para a sua construção. Em seguida são discutidas as metodologias, ferramentas e linguagens mais relevantes para o seu desenvolvimento. O desenvolvimento de parte de uma ontologia será exemplificado, utilizando a Ferramenta Protégé, assim como a sua inferência utilizando a máquina de inferência Pellet. Brevemente serão discutidos o mapeamento e a aprendizagem de ontologias. Por fim serão apresentadas aplicações de ontologias em diversas áreas, com ênfase na engenharia de software e, mais especificamente, na qualidade de software.
MC1 - Análise Causal de Defeitos de Software
MC2 - Linhas de Processo de Software: Conceitos, Técnicas e Ferramentas
MC3 - Engenharia de Requisitos Orientada a Metas
MC4 - Experimentação em Engenharia de Software: Fundamentos e Conceitos
MC5 - Ontologias: Teoria e Aplicações em Qualidade de Software
MC6 - Pesquisa em Qualidade de Software: da Concepção ao Relato
MC7 - Avaliação de Qualidade de Linha de Produto de Software baseada em Arquitetura e Métricas
Se eu fosse, tentaria participar do MC4 e o MC5
MC4 - EXPERIMENTAÇÃO EM ENGENHARIA DE SOFTWARE: FUNDAMENTOS E CONCEITOS
Um dos grandes interesses nos estudos experimentais é a crescente visão popular de que a Engenharia de Software deve ter fortes fundamentos de uma disciplina científica de engenharia, e que as técnicas para melhorar o desenvolvimento de software, sistemas e para a evolução dos processos deva estar disponível aos profissionais.
Neste sentido, este mini-curso visa apresentar algumas possibilidades de utilização do método científico (experimentação)e seus diferentes tipos de estudos primários no contexto da Engenharia de Software para a geração de conhecimento relacionado a tecnologias e processos de software. De maneira a apoiar as discussões, experiências e exemplos extraídos da realização de estudos experimentais serão apresentados. Em particular, processos de experimentação e tecnologias de software voltadas para garantir a qualidade do produto (técnicas de inspeção) e melhoria do processo desenvolvidas com base em experimentação serão exploradas.
MC5 - ONTOLOGIAS: TEORIA E APLICAÇÕES EM QUALIDADE DE SOFTWARE
O mini-curso de Ontologias introduz o tema discutindo a sua importância e motivação. São apresentadas as principais definições para ontologias, assim como os seus componentes, as diferentes classificações e os princípios que devem ser seguidos para a sua construção. Em seguida são discutidas as metodologias, ferramentas e linguagens mais relevantes para o seu desenvolvimento. O desenvolvimento de parte de uma ontologia será exemplificado, utilizando a Ferramenta Protégé, assim como a sua inferência utilizando a máquina de inferência Pellet. Brevemente serão discutidos o mapeamento e a aprendizagem de ontologias. Por fim serão apresentadas aplicações de ontologias em diversas áreas, com ênfase na engenharia de software e, mais especificamente, na qualidade de software.
segunda-feira, 14 de fevereiro de 2011
Jolicloud
Quer tentar um sistema operacional nas nuvens ? Jolicloud!
Obs - requer o Google Chrome e é livre
http://www.jolicloud.com/
Obs - requer o Google Chrome e é livre
http://www.jolicloud.com/
sábado, 12 de fevereiro de 2011
terça-feira, 8 de fevereiro de 2011
Revisão Sistemática
Afinal, o que é uma revisão sistemática ???
Segundo a Wikipedia (http://pt.wikipedia.org/wiki/Revis%C3%A3o_sistem%C3%A1tica), revisão sistemática é uma forma de executar revisões abrangentes da literatura de forma não tendenciosa.
Uma revisão sistemática sobre determinado tema possui o critério de seleção explícito, de forma que outros pesquisadores podem avaliar a qualidade da revisão e/ou executá-la novamente.
Outra vantagem desta técnica é a produção de evidências sobre determinado tema, além da investigação de oportunidades de pesquisas nos desvios dos resultados encontrados.
Teve início na medicina, sendo que agora vem sendo utilizada por diversas outras áreas do conhecimento.
E agora, o que é que eu tenho a ver com isso ?
Pois é, tarefa de casa: fazer uma revisão sistemática sobre Computação em Nuvens...
Mas eu tenho fé que o trabalho vai valer a pena!!!
Segundo a Wikipedia (http://pt.wikipedia.org/wiki/Revis%C3%A3o_sistem%C3%A1tica), revisão sistemática é uma forma de executar revisões abrangentes da literatura de forma não tendenciosa.
Uma revisão sistemática sobre determinado tema possui o critério de seleção explícito, de forma que outros pesquisadores podem avaliar a qualidade da revisão e/ou executá-la novamente.
Outra vantagem desta técnica é a produção de evidências sobre determinado tema, além da investigação de oportunidades de pesquisas nos desvios dos resultados encontrados.
Teve início na medicina, sendo que agora vem sendo utilizada por diversas outras áreas do conhecimento.
E agora, o que é que eu tenho a ver com isso ?
Pois é, tarefa de casa: fazer uma revisão sistemática sobre Computação em Nuvens...
Mas eu tenho fé que o trabalho vai valer a pena!!!
Arqueólogo australiano encontra mais de 1000 tumbas pelo Google Earth
Segue um post interessante que li no site da Geek (http://www.geek.com.br/)
Por Daniel Pavani
Para quem gosta de ficar procurando a própria casa, esta aí uma prova de que o serviço da Google tem lá suas utilidades científicas.
Um dos trabalhos que menos têm cara de escritório talvez seja o de um arqueólogo, afinal, parte essencial é vasculhar o planeta atrás de sítios para estudar. Porém, um pesquisador australiano decidiu fazer isso de dentro de sua sala, em um computador, com a ajuda do Google Earth.
O Professor David Kennedy, da Universidade Western Australia, vasculhou 1240 km quadrados da Arábia Saudita e encontrou 1977 potenciais sítios arqueológicos, sendo que, destes, 1082 podem ser túmulos, conta o site do TG Daily.
O pesquisador conseguiu verificar um dos sítios, com a ajuda de um colega que estava no país árabe e foi até o local, confirmando sua suspeita. Segundo Kennedy, a Arábia Saudita é um país de acesso muito difícil para realizar este tipo de varredura, mas o Google Earth torna isso não só possível como relativamente fácil.
Talvez o trabalho de Kennedy seja importante não somente para a Arqueologia, mas também para mostrar que a ferramenta da Google tem a possibilidade de aplicações em outras áreas que não diversão.
fonte: http://dpavani.geek.com.br/posts/14865-arqueologo-australiano-encontra-mais-de-1000-tumbas-pelo-google-earth
sábado, 5 de fevereiro de 2011
Eventos em paralelo que ocorrerão no SBC 2011
Uma série de eventos ocorrerão em paralelo ao SBC 2011:
- COMPUTEC - XIII Computação e Mercado
- CTD - XXIV Concurso de Teses e Dissertações
- CTIC - XXX Concurso de Trabalhos de Iniciação Científica
- ENIA - VIII Encontro Nacional de Inteligência Artificial
- e-Science - V e-Science Workshop
- JAI - XXX Jornadas de Atualização em Informática
- SBCUP - III Simpósio Brasileiro de Computação Ubíqua e Pervasiva
- SECOMU - XLI Seminário de Computação na Universidade
- SEMISH - XXXVIII Seminário Integrado de Software e Hardware
- WCAMA - III Workshop de Computação Aplicada à Gestão do Meio Ambiente e Recursos Naturais
- WEI - XIX Workshop sobre Educação em Computação
- WIM - XI Workshop sobre Informática Médica
- WIT - V Women in Information Technology
- WPerformance - X Workshop sobre Desempenho de Sistemas Computacionais e de Comunicação
Fonte: http://www.dimap.ufrn.br/csbc2011/eventos.php
- COMPUTEC - XIII Computação e Mercado
- CTD - XXIV Concurso de Teses e Dissertações
- CTIC - XXX Concurso de Trabalhos de Iniciação Científica
- ENIA - VIII Encontro Nacional de Inteligência Artificial
- e-Science - V e-Science Workshop
- JAI - XXX Jornadas de Atualização em Informática
- SBCUP - III Simpósio Brasileiro de Computação Ubíqua e Pervasiva
- SECOMU - XLI Seminário de Computação na Universidade
- SEMISH - XXXVIII Seminário Integrado de Software e Hardware
- WCAMA - III Workshop de Computação Aplicada à Gestão do Meio Ambiente e Recursos Naturais
- WEI - XIX Workshop sobre Educação em Computação
- WIM - XI Workshop sobre Informática Médica
- WIT - V Women in Information Technology
- WPerformance - X Workshop sobre Desempenho de Sistemas Computacionais e de Comunicação
Fonte: http://www.dimap.ufrn.br/csbc2011/eventos.php
XXXI Congresso da Sociedade Brasileira de Computação
Ocorrerá em Natal, Rio Grande do Norte, o XXXI Congresso da Sociedade Brasileira de Computação, de 19 a 22 de julho de 2011.
O Congresso da Sociedade Brasileira de Computação (CSBC) é um evento realizado anualmente pela SBC, com a intenção de promover e incentivar a troca de experiências entre as comunidades científica, acadêica e profissional na área da Computação nacional e internacional. Desde sua primeira edição, o CSBC, através de seus diversos eventos satélites, tem-se mostrado um importante local para a exposição de trabalhos científicos, palestras, cursos e debates, tanto de cunho puramente acadêmico e científico quanto social.
Link: http://www.dimap.ufrn.br/csbc2011/
O Congresso da Sociedade Brasileira de Computação (CSBC) é um evento realizado anualmente pela SBC, com a intenção de promover e incentivar a troca de experiências entre as comunidades científica, acadêica e profissional na área da Computação nacional e internacional. Desde sua primeira edição, o CSBC, através de seus diversos eventos satélites, tem-se mostrado um importante local para a exposição de trabalhos científicos, palestras, cursos e debates, tanto de cunho puramente acadêmico e científico quanto social.
Nas últimas décadas, os impactos da Computação estão levando a uma contínua quebra de paradigmas sociais, econômicos, científicos, educacionais e culturais. A mobilidade, a disseminação e a ubiquidade da informação, assim como os mecanismos de cooperação proporcionados pela Computação, estão revolucionando a vida em sociedade de formas inesperadas e surpreendentes. A SBC definiu, em 2006, os Grandes Desafios Científicos da Computação para a próxima década, que exigirão esforços de pesquisa de longo prazo, por grandes equipes interdisciplinares, na solução de problemas de significativa relevância para o Brasil e para a humanidade.
Em 2011, o tema do XXXI Congresso da Sociedade Brasileira de Computação será Computação para todos: No caminho da evolução social. Durante o período de 19 a 22 de julho, a cidade de Natal, no estado do Rio Grande do Norte, será palco de um fórum privilegiado para a ampla discussão e análise da revolução científica associada aos Grandes Desafios, à luz dos impactos que as suas soluções trarão para a sociedade em todas as suas dimensões. Nesse período, os debates e discussões sobre os avanços na área da Computação vão reunir cientistas, técnicos, profissionais, além de estudantes, com o objetivo de trocar informações e experiências entre as comunidades científicas de todo o país.
O CSBC 2011 está sendo organizado pelo Departamento de Informática e Matemática Aplicada (DIMAp) da Universidade Federal do Rio Grande do Norte (UFRN) e será realizado no Centro de Convenções de Natal, localizado nas proximidades dos principais hotéis e atrativos turísticos da cidade, contando com excelente acesso e infraestrutura para a realização de eventos de grande porte, como o CSBC.
Link: http://www.dimap.ufrn.br/csbc2011/
Minicursos aceitos para o SBRC 2011
Segue a lista de minicursos que forma aceitos para o SBRC 2011.
Achei que foram poucos...
Achei que foram poucos...
- Explorando Redes Sociais Online: Da Coleta e Análise de Grandes Bases de Dados às Aplicações
- Alocação de Recursos em Nuvens: Conceitos, Ferramentas e Desafios de Pesquisa
- Web das Coisas: Conectando Dispositivos Físicos ao Mundo Digital
- Pesquisa Experimental para a Internet do Futuro: Uma Abordagem Utilizando Virtualização e o Framework OpenFlow
- Gerência de Identidade na Internet do Futuro
Workshops aceitos para o SBRC 2011
Os seguintes workshops serão realizados em conjunto com o SBRC 2011:
- XVI Workshop de Gerência e Operação de Redes e Serviços - WGRS
- XII Workshop da Rede Nacional de Ensino e Pesquisa (RNP) - WRNP
- XII Workshop de Testes e Tolerância a Falhas - WTF
- IX Workshop em Clouds, Grids e Aplicações - WCGA
- VII Workshop de Redes Dinâmicas e Sistemas Peer-to-Peer - WP2P
- II Workshop de Pesquisa Experimental da Internet do Futuro - WPEIF
- I Workshop on Autonomic Distributed Systems - WoSiDA
- I Workshop de Redes de Acesso em Banda Larga - WRA
XXIX Simpósio Brasileiro de Redes de Computadores e Sistemas Distribuídos
Ocorrerá em Campo Grande, no Mato Grosso do Sul, de 30 de maio a 3 de junho de 2011.
O Simpósio Brasileiro de Redes de Computadores e Sistemas Distribuídos (SBRC) é um evento anual promovido pela Sociedade Brasileira de Computação (SBC) e pelo Laboratório Nacional de Redes de Computadores (LARC). Ao longo dos anos, o SBRC tornou-se o mais importante evento científico nacional em redes de computadores e sistemas distribuídos do país, e um dos mais concorridos em Informática. O SBRC congrega grande parte da comunidade nacional com interesse na área, seja originada do meio acadêmico, seja do meio empresarial e industrial. As últimas edições do simpósio receberam uma média de 1.000 participantes, incluindo professores e pesquisadores nacionais e internacionais, profissionais de empresas, representantes de órgãos governamentais e alunos de graduação e pós-graduação.
A vigésima nona edição do SBRC será realizada pela primeira vez na região Centro Oeste na cidade de Campo Grande, MS, de 30 de maio a 3 de junho de 2011, sob responsabilidade da Faculdade de Computação da Universidade Federal de Mato Grosso do Sul (UFMS). O SBRC 2011 proporcionará uma rica variedade de atividades, tais como sessões técnicas, minicursos, painéis e debates, workshops, salão de ferramentas, palestras e tutoriais proferidos por convidados de renome internacional, e terá como Coordenador Geral o professor Ronaldo Ferreira (UFMS) e Coordenadores do Comitê de Programa os professores Artur Ziviani (LNCC) e Bruno Schulze (LNCC). Campo Grande é a porta de entrada para oPantanal, a maior planície alagada do mundo, que é famoso por sua flora e fauna.
Assinar:
Postagens (Atom)