sábado, 19 de março de 2011

Game Over




Vídeo Game, hoje em sala de aula meu professor de Computação Gráfica passou um filme sobre o inicio da criação do vídeo game. Através do qual pode conhecer um pouco da historias desta esplêndida e maravilhosa criação.
Depois de algum tampo reparei que esta tão interessado pelo filme que nem tinha me dado conta do titulo do Filme “A era dos Vídeo Games” , legal. Ops legal? Já indo embora veio em minha cabeça um mundo de indagações as respeito do filme de vídeo games e tal.
Apesar do filme, documentário, ter sido produzido por uma grande emissora da TV da cabo com e ter um referencial indiscutível dos teus inúmero documentários já apresentado, me atrevo a dizer que a mesmo foi infeliz em escolher tal titulo “A era dos Vídeo Games”.
O termo “A era ...” é utilizado quando queremos nos dirigir a alguma coisa do passado, uma coisa a qual não existe mais ou que pelo menos é historia. E desde quando Vídeo Games é uma coisa do passado?
Não é pelo fato de uma coisa ter sito criada há alguns anos atrás posso falar que ela pertence ao passado, então terias vários documentários da era da roda, era da televisão, era do computador etc.
Vídeo Games é uma coisa ultramoderna, teve seus primeiros passos em computadores, onde foi criado nos Estados Unidos, mais exatamente no laboratório de pesquisas militares Brookhaven National Laboratory. O programa se chamava Tennis for Two e era exibido na tela de um osciloscópio. Uma simulação bem simplificada do esporte. Um ponto piscando representava a bola e os jogadores controlavam seu movimento por cima de uma linha vertical que representava a rede. Não havia na imagem a representação dos jogadores, apenas da 'bola' e da 'quadra' de tênis, numa vista lateral. O jogo nunca saiu do laboratório.

Surgiu na tentativa de trazer ao mundo as pessoas daquela época uma coisa diferente do que estavam acostumadas, extasiadas e cansadas de verem na tv que era a guerra। A pessoas precisavam de ter entretenimento. E alguns mestres na área da Tecnologia mostrou ao mundo que a computação não foi feita só pra criar criar armas de guerra, mas também diversão e alegria.


Depois dos primeiro passos da criação dos jogos em computadores, em 1971, a Magnavox começa a desenvolver o Odyssey, o primeiro videogame para ser conectado à TV, a principio a era de criar a melhor televisão do mundo. Ele pensava em criar uma TV interativa com jogos, mas a idéia não vinga. Uma ótima idéia tendo em vista que nesse tempo os computadores eram compostos pro gigantescas parafornalhas tomando grandes proporções de espaço, sem falar do custo. Então criam-se a Computer Space, uma máquina só para jogar Spacewar. Mais conhecida em minha geração com o famoso Fliperama.
Como a idéia da Spacewar foi uma estou de lucros daí pra frente foram criando novos vídeos games, mais tarde criadoo primeiro console programável com jogos em cartucho da Atari. Entre os títulos, há conversões de jogos para arcade e games criados exclusivamente para o console doméstico. As vendas são um tremendo sucesso e, mesmo assim, acontecem atritos entre Bushnell e Steve Ross, presidente da Warner Communications.
Foi o que foi.., como firam que a idéia de criar jogos era uma coisa que dava dinheiro, foi a gota sugiram inúmeras novas empresas tentando levar uma fatia do bolo. Coisa que não deu muito certo, pos as empresa visavam só ganhar e ganhar dinheiro e acabaram se esquecendo ou não aprenderão que não é só criar, inventar pontinhos coloridos se mexendo de um lado para o outro no visor. Foram criado uma pancada de lixo computacional gráficos. E não é de hoje que nós sempre queremos mais e mais. Com essa demanda descontrolada de lixo computacional gráfico o Vídeo Game passou por um tempo de crise.
O tempo passou e devido a exigências dos adeptos aos jogos as a empresas para se manter tiveram que inverti, tanto em equipamentos quanto em criatividade. Graças aos avanços tecnológicos foram criadas novas ferramentas parceiras desta maravilha que é o Vídeo Games. A placa de vídeo é um exemplo clássico e fundamental para a evolução, com um chip e dispositivos semelhantes ao processador, mas própria pra os jogos, aumentando a qualidade de vídeo.
Na área de computação gráfica, nem é preciso falar. A todo o momento nos deparamos com inúmeras demonstrações do que essa parte da computação é capaz. Leva pra dento do monitor o mundo real. Destorce a realidade. Brincar com o que é real e o que não poder ser. Criam personagens inventam lugares de uma forma onde muitas das vezes nos iludem e nos fazem perde a noção do que é real ou fictício, o que é verdade e o que é miragem. A Computação Gráfica, dá ao profissional o poder de levar pra dentro da tela tudo aquilo que sua imaginação permiti. Chegamos a um nível tão elevado onde essa, onde o olho humano por si só já não consegue capitar e diferenciar onde começa ou termina, prova disso são alguns filmes que já utilizam tal tecnologia. Sou prova vivo do que falo. Fui a uma loja li a sinopec de um Filme, de tão interessante comprei, no que fui assistir levei alguns minutos pra reparar que filme era um desenho (Beowulf em 3D), uma personagem do filme foi inspirada em uma atriz muito famosa, e muita das vezes me perguntava se era ou não desenho. Engraçado ne? Mas quem é que viu o Filme Avatar e se perguntou se era maquiagem ou não!
Com a invenção da tecnologia 3D as imagens de duas dimensões elaboradas de forma a proporcionarem a ilusão de terem três dimensões, assim alterando o ângulo de cada um deles e fazendo com que o cérebro crie a ilusão de profundidade, ou com o auxílio da computação gráfica entre outros recursos, pode-se fazer com que a figura dê a impressão de apresentar, também, profundidade, o que dá maior semelhança com o objeto representado. O vídeo games ganharam personagens mais semelhantes ao homem, traços humanos e muito com estórias. O Jogo se tornou mais dinâmico, interativo o jogo o personagem tem um enredo, um contexto por traz do objetivo do jogo. A cada dia que passa novos jogos e programas são lançados, PayStantion’s 2, 3, ExBox, etc sem falar nos portáteis.
Então, agora caro leito deve entender quando discordo do titulo do Documentário.
Vídeos Games são, e estão se sempre estarão na onda do Momento...

sexta-feira, 4 de junho de 2010

Impressão digital vira forma de pagamento em Xangai

Mais de mil lojas de Xangai já usam esse sistema que substitui cartão de crédito.
Empresa responsável pela tecnologia a classifica como ‘mais segura’.


Mais de mil lojas e restaurantes de Xangai, o principal reduto financeiro e comercial da China, começaram a utilizar um novo sistema de pagamento que substitui o cartão de crédito pelas impressões digitais dos clientes. A informação foi divulgada na edição desta segunda (15) do jornal "Shanghai Daily".

O sistema de biometria foi lançado apenas para os clientes do Banco Agrícola da China, do distrito de Changning.
Para pagar suas compras, o cliente coloca o dedo sobre um terminal de pagamento tátil, o sistema o identifica através de sua impressão digital, e o dinheiro é retirado diretamente da conta bancária para pagar a conta correspondente. No entanto, a leitura das digitais não funciona quando os dedos estão molhados.
Esse sistema de pagamento foi implantado principalmente em lojas de comestíveis e produtos de uso diário que ficam abertas 24 horas, freqüentes nas grandes cidades do país. Não foram divulgados planos sobre sua possível expansão, nem se a idéia teve boa aceitação.
A empresa responsável pelo sistema, a Live By Touch Holdings, assegura que o pagamento através das impressões digitais é “mais seguro" que o dos cartões bancários, já que é praticamente impossível imitar as digitais, o que evita possíveis fraudes

SixthSense ou Sexto sentido

A tecnologia do futuro Evoluímos ao longo de milhões de anos para sentir o mundo que nos rodeia. Quando nos deparamos com algo, alguém ou algum lugar, usamos nossos cinco sentidos naturais para perceber as informações sobre ele, essa informação ajuda-nos a tomar decisões e escolher as ações corretas a tomar. Mas sem dúvida as informações mais úteis que podem nos ajudar a tomar a decisão certa não é, naturalmente, perceptível com os nossos cinco sentidos, ou seja, os dados, informações e conhecimentos que a humanidade acumulou sobre tudo e que é cada vez mais todos os disponíveis online. Apesar da miniaturização dos dispositivos de computação nos permite levar os computadores em nossos bolsos, mantendo-nos continuamente ligado ao mundo digital, não existe qualquer ligação entre os nossos dispositivos digitais e nossas interações com o mundo físico. A informação é tradicionalmente confinadas em papel ou digital em uma tela. pontes SixthSense esta lacuna, trazendo informações, intangível digital para o mundo tangível, e que nos permite interagir com essa informação através de gestos naturais. 'SixthSense' libera as informações de seus limites através da integração contínua com a realidade, e_assim_fazendo_o_mundo_inteiro_seu_computador.
O protótipo do SixthSense é composto de um projetor de bolso, um espelho e uma câmera. Os componentes de hardware são acoplados em um pingente como o dispositivo móvel wearable. Tanto o projetor ea câmera é conectada ao dispositivo de computação móvel no bolso do usuário. Os projetos projetor informação visual superfícies de habilitação, paredes e objetos físicos em torno de nós para ser usado como interfaces, enquanto a câmera reconhece e rastreia os gestos da mão do usuário e os objetos físicos utilizando visão por computador, as técnicas baseadas. O software processa os dados de fluxo de vídeo capturado pela câmera e acompanha a localização dos marcadores coloridos (fiducials monitoramento visual) com a ponta dos dedos do usuário usando técnicas simples de visão por computador. Os movimentos e as modalidades destas fiducials são interpretadas em gestos que funcionam como instruções para as interfaces de interação aplicação projetada. O número máximo de dedos seguido é apenas limitado pelo número de fiducials únicas, assim SixthSense também suporta multi-touch e interaçãओ multi-usuário.



O protótipo do SixthSense implementa várias aplicações que demonstram a utilidade, viabilidade e flexibilidade do sistema. A aplicação do mapa permite que o usuário navegar por um mapa exibido em uma superfície próxima usando gestos com as mãos, similar aos gestos suportados pelo Multi-Touch sistemas de base, permitindo que o usuário aumenta o zoom, zoom ou pan usando os movimentos das mãos e intuitiva. O aplicativo de desenho permite ao usuário desenhar em qualquer superfície, seguindo os movimentos do dedo do dedo do usuário do índice. SixthSense também reconhece gestos freehand usuário (posturas). Por exemplo, o sistema SixthSense gestual implementa uma câmera que tira fotos da cena que o usuário está olhando, detectando o "enquadramento" do gesto. O usuário pode passar por qualquer superfície ou parede e folhear as fotos que ele / ela tomou. SixthSense também permite que o usuário desenhar ícones ou símbolos no ar, usando o movimento do dedo indicador e reconhece esses símbolos como as instruções de interação. Por exemplo, desenhando um símbolo da lupa leva o usuário para o aplicativo do mapa ou desenhar uma "@" símbolo permite ao usuário verificar o seu mail. O sistema também aumenta SixthSense objetos físicos que o usuário está interagindo com a projeção de mais informações sobre esses objetos projetados sobre eles. Por exemplo, um jornal pode mostrar a notícia de vídeo ao vivo e dinâmico de informações podem ser fornecidas em um pedaço de papel comum. O gesto de desenhar um círculo no pulso do usuário projeta um relógio analógico.

quinta-feira, 3 de junho de 2010

Inteligência Artificial




Cientista afirma que cérebro artificial pode ser construído em 10 anos


Um cérebro humano artificial pode ser construído dentro dos próximos 10 anos, segundo Henry Markram, um proeminente cientista sul-africano. "Não é impossível construir um cérebro humano e podemos fazer isso em 10 anos", disse Markram, diretor do Blue Brain Project (BBP), à conferência acadêmica global TED na cidade de Oxford, na Inglaterra.

O BBP é um projeto científico internacional, financiado pelo governo suíço e doações de indivíduos, cujo objetivo é construir uma simulação computadorizada do cérebro de mamíferos. Markram já construiu elementos do cérebro de um camundongo. A equipe do cientista se concentra especificamente na coluna neocortical, conhecida como neocortex.

10 mil laptops

O projeto atualmente tem um modelo de software de dezenas de milhares de neurônios, cada um deles diferente, que os ajudou a construir, artificialmente, uma coluna neocortical. A equipe coloca os dados gerados pelos modelos junto com alguns algoritmos - uma sequência de instruções para solucionar um problema - em um supercomputador.

"Você precisa de um laptop para fazer todos os cálculos para um neurônio", disse ele. "Portanto você precisa de 10 mil laptops", afirmou. Em vez disso, a equipe usa um supercomputador com 10 mil processadores.

As simulações já começaram a fornecer pistas aos pesquisadores sobre o funcionamento do cérebro. Elas podem, por exemplo, mostrar ao cérebro uma imagem, como uma flor, e seguir a atividade elétrica da máquina, ou seja, como é feita a representação da imagem.

"Você estimula o sistema e ele cria sua própria representação", disse ele. O objetivo é extrair esta representação e projetá-la, permitindo que os pesquisadores vejam diretamente como o cérebro funciona.

Segundo Markram, além de ajudar na compreensão dos mecanismos do cérebro, o projeto pode oferecer novos caminhos para se entender os problemas mentais. "Cerca de dois bilhões de pessoas no planeta sofrem de distúrbios mentais", disse o cientista, reforçando os benefícios em potencial do projeto.




Existem dois pontos de partida para definir a I.A. - sonho e tecnologia

Terry Winograd

Inteligência Artificial é hoje um domínio do conhecimento cada vez mais ‘na moda’. Dela fala-se, escreve-se, ouve-se falar, lê-se. Mas saberemos nós o que é na verdade esta ciência, o que estuda, que aplicações práticas tem? A verdade é que muitas vezes os nossos conhecimentos sobre Inteligência Artificial (I.A.) não vão além do ‘isso tem qualquer coisa a ver com computadores, não é?’

A Inteligência Artificial é por um lado uma ciência, que procura estudar e compreender o fenómeno da inteligência, e por outro um ramo da engenharia, na medida em que procura construir instrumentos para apoiar a inteligência humana. A I.A. é inteligência como computação, tenta simular o pensamento dos peritos e os nossos fenómenos cognitivos.

No entanto, a I.A. continua a ser a procura do modo como os seres humanos pensam, com o objectivo de modelizar esse pensamento em processos computacionais, tentando assim construir um corpo de explicações algorítmicas dos processos mentais humanos. É isto o que distingue a I.A. dos outros campos de saber, ela coloca a ênfase na elaboração de teorias e modelos da Inteligência como programas de computador.

Allen Newell em 1977, levantando a questão sobre o que é a Inteligência Artificial responde que "A I.A. é conhecimento - teoria, dados, avaliação - que descreve os meios para alcançar uma classe de fins desejados."

Os estudos em I.A. actualmente dividem-se em quatro ramos fundamentais. Distingamos assim uma área ligada ao estudo das redes neuronais e ao conexionismo que se relaciona também com a capacidade dos computadores aprenderem e reconhecerem padrões. Um outro ramo ligado à biologia molecular na tentativa de construir vida artificial. Um terceiro relacionado com a robótica, ligada à biologia e procurando construir máquinas que alojem vida artificial. E finalmente o ramo clássico da I.A. que se liga desde o início à Psicologia, desde os anos ’70 à epistemologia e desde os anos ’80 à sociologia, e que tenta representar na máquina os mecanismos de raciocínio e de procura.

Mas onde está a I.A.? Certamente ‘dentro dos agentes que são capazes de representar as situações que enfrentam e de realizar acções possuindo processos para manipular essas representações’. Mas estará ela no algoritmo, ou pelo contrário na arquitectura de estados mentais?

A construção de máquinas inteligentes pressupõe a existência de estruturas simbólicas (representação), a capacidade de elas poderem raciocinar (procura) e a existência de conhecimentos (matéria prima). Assim o campo mais popular da I.A. é sem dúvida o da engenharia do conhecimento pois é aí que se concebem os sistemas periciais, que são capazes de representar conhecimentos e de raciocinar.

Uma outra questão que se levantou desde os primeiros anos de I.A. foi se os computadores seriam realmente capazes de aprender. Questão que, a par da questão da representação de conhecimentos, e da capacidade das máquinas serem inteligentes e capazes de raciocinar é um pilar da investigação em I.A.

Avanços em Arquitetura e Tecnologia de silício da Intel





Na era da Lei de Moore a Intel produziu arquitetura e a tecnologia de silício com um incrível número de transistores: dois bilhões na contagem mais recente. Com ganhos contínuos de desempenho com eficiência de uso de energia e usos de novos materiais, nossas inovações continuam a produzir sucessos.




Microarquitetura Intel

Por ser o fundamento da extensa gama de processadores da Intel, as inovações da microarquitetura Intel® desenvolveram tecnologias eficientes no uso de energia de núcleos simples ou múltiplos, tamanhos de cache flexíveis e projetos dinamicamente escaláveis capazes de utilizar menos recursos—e energia—dependendo da carga de trabalho. A inovação proporciona recursos moderníssimos para elevar o padrão do desempenho eficiente no uso de energia. As microarquiteturas Intel servem de catalisador para novos projetos inovadores e novas soluções de software conforme as próximas gerações forem incorporando novas instruções de software para tratar funções específicas.

domingo, 30 de maio de 2010

Nova tecnologia permite deixar o futura mais próximo do Presente

Veja esse video e veja o que vem por ai, veja o que nos espera no futuro, e esteja ciente que isso não é nem o comerço do que a tecnologia nos oferece.

Percepção Humana na Interação Humano-Computador


O Bom relacionamento entre Homens e Máquinas depende de uma boa interação, facilidade de uso.Por mais complexo que seja o sistema a interface é responsavel por parte do produto final.


Interação Homem-Computador (IHC) é uma área multidisciplinar que envolve as áreas de Ciência da Computação, Psicologia, Fatores Humanos, Lingüística, dentre outras. IHC está voltada para a aplicação do conhecimento destas disciplinas para produzir interfaces “amigáveis” (ou user-friendly). Não é uma disciplina essencialmente voltada para o estudo de computação ou do ser humano, mas para a comunicação entre estas duas entidades. Conhecimento sobre as limitações da capacidade humana e restrições da tecnologia existente devem ser ponderados para oferecer ao usuário um meio adequado através do qual eles podem interagir com os computadores. Um dos fatores relevantes à Interface Humano-Computador é a percepção humana. Todavia, antes de discutir ela, explicamos a diferença entre Interação e Interface Humano-Computador(HC). Ambos os termos são usados indistintamente e erroneamente. Interação HC é tudo que ocorre entre o ser humano e um computador utilizado para realizar algumas tarefas, ou seja, é a comunicação entre estas duas entidades. Interface HC é o componente (software) responsável por mapear ações do usuário em solicitações de processamento ao sistema (aplicação), bem como apresentar os resultados produzidos pelo sistema.

É comum encontrarmos interfaces que são difíceis de usar, confusas, e até mesmo frustrantes em alguns casos. Apesar de os projetistas gastarem tempo para desenvolver essas interfaces e que seja improvável que eles façam isto propositadamente, os problemas com interfaces acontecem. Quando consideramos um sistema interativo, o termo fatores humanos assume vários significados. Dentro do nível fundamental, deveríamos entender a percepção visual, a psicologia cognitiva da leitura, a memória humana e os raciocínio dedutivo e indutivo. No outro nível, deveríamos entender o usuário e seu comportamento. Por fim, precisamos entender as tarefas que o software executam para o usuário e as tarefas que são exigidas do usuário quando da interação com o sistema. Aqui, estamos interessados, especificamente, na importância da percepção humana para o desenvolvimento de interface HC.

Os seres humanos percebem as coisas através de seus sentidos, isto é, visual, auditivo e tato. Estes sentidos habilitam o usuário de um sistema interativo perceber a informação, armazená-la (em sua memória) e processar a informação usando o raciocínio dedutivo ou indutivo. Maioria da IHC ocorre através do sentido da visão, como por exemplo: relatórios, gráficos, etc. Neste caso, o olho e o cérebro trabalham juntos a fim de receber e interpretar a informação visual baseada no tamanho, forma, cor(es), orientação e movimento. Muitos elementos discretos de informação são apresentados simultaneamente para o homem absorver. Assim, uma especificação apropriada de comunicação visual é o elemento chave de uma interface amigável.

Embora haja uma tendência para se utilizar manipulação/comunicação gráfica no projeto de interface, muito da informação visual ainda é apresentada na forma textual. A leitura - o processo de extrair informação do texto - é a atividade chave na maioria das interfaces. Os seres humanos precisam decodificar os padrões visuais e recuperar o significado das palavras e frases. Neste caso, a velocidade do processo de leitura é controlada pelo padrão de movimento do olho que escaneia o texto em sacadas do olho feitas em alta velocidade. Adicionalmente, o tipo de caractere fonte, o comprimento de linha do texto e cor(es) afetam a facilidade na qual o processo de leitura ocorre.

Quando a informação é extraída da interface, ela deve ser armazenada para ser recuperada (lembrada) e utilizada posteriormente. Além disso, o usuário precisa lembrar de comandos e seqüências operacionais de uso. Tais informações são armazenadas na memória humana (que é um sistema complexo) composto de duas partes: a memória de curta duração que possui capacidade de armazenamento e tempo de recordação limitados e a memória de longa duração que possui capacidade de armazenamento e tempo de recordação maiores e onde se tem o conhecimento do ser humano. Assim, se o projetista de uma interface HC especifica uma interface que faz solicitações indevidas dessas duas memórias, então o desempenho do usuário do sistema será degradado.

Finalizando, temos que a maioria das pessoas não aplicam raciocínio indutivo ou dedutivo quando se deparam com um problema. Ao invés, é comum aplicar um conjunto de heurísticas (procedimentos, regras, estratégias) baseadas no conhecimento de problemas similares. Tais heurísticas tendem a ser específicas do domínio. Como conseqüência, uma interface HC deve ser especificada de modo que habilite o usuário a desenvolver heurísticas para interação. Todavia, é importante observar que estas heurísticas deveriam permanecer consistentes em diferentes domínios de interação. Devido ao fato do tema Interação Homem-Computador ser extenso, voltaremos numa outra oportunidade com mais informações.