Professional Documents
Culture Documents
Extensão
ANEXO D
PROJETO DE INICIAÇÃO CIENTÍFICA
Título: Realidade Aumentada em Interfaces Tangíveis
Curso: Ciência da Computação
Linha de pesquisa: Interface HomemComputador e Computação Gráfica
Nome do aluno: Fábio Rodrigues
RA:
Série: 1ª
Período: Noturno
Nome do professor orientador: Ms. Leonardo C. Botega
2
Marília, Novembro de 2009
1. Tema (Título do Projeto):
Realidade Aumentada em Interfaces Tangíveis
2. Introdução:
Podemos dizer de forma simplificada que uma interface é qualquer meio físico ou lógico que
permite que alguma coisa interaja com outra coisa de modo que a primeira interfira no
comportamento da segunda. Se essa interação envolve uma pessoa logo temos uma Interface
HumanoComputador (IHC).
As primeiras interfaces humanocomputador podem ser definidas como uma seqüência de
chaves eletromecânica como entrada de dados e uma seqüência de lâmpadas enfileiradas como
saída de dados. Sem levar em consideração os primórdios da computação podemos dizer que a
primeira interface humanocomputador usada amplamente foi a linha de comando, que utiliza
apenas textos e o teclado para entrada de dados. Apos algumas décadas é criado um novo
paradigma: a interface gráfica e o mouse.
As interfaces por linhas de comando usavam apenas texto Essa forma de interface é usada até
hoje, principalmente por desenvolvedores que destacam a velocidade dessa interface. Essa classe
de interfaces requer que o usuário digite os comandos, que normalmente são abreviaturas, no
cursor e até que a todos os comandos e atributos são digitados o computador fica aguardando a
tecla de final de linha para só então responder ao usuário. As vantagens dessa interface são a
eficiência, precisão e velocidade com que comandos simples podem ser executados. No entanto
requer que o usuário saiba diversos comandos, sintaxes e atributos para realizar suas tarefas. A
linha de comando foi usada como principal interface nos primeiros sistemas operacionais, ainda é
utilizada nos terminais Unix ou Linux e em diversos programas de uso profissional como
AutoCAD, 3D Studio Max e outros. Diversos estudos foram realizados com o intuito de otimizar
a linha de comando em se tratando da forma dos comandos, sintaxe e organização. Um consenso
foi que o nome do comando a usar deve ser o mais fácil de se lembrar.
Com o desenvolvimento do “Xerox Star”, um novo tipo de interface foi criada, inicialmente
chamada de WIMP (acrônimo para Janela, Ícone, Menu e Ponteiro) e mais tarde de GUI (Interface
Gráfica de Usuário). Esse tipo de interface abriu uma nova gama de possibilidades para os
usuários interagirem com os computadores e também o modo coma as informação eram exibidas e
organizadas. A GUI apresentou um novo hardware: o mouse e novos elementos gráficos
utilizados para organizar a informação como: janelas, barras de rolagens, caixas de escolha,
painéis, caixas de diálogos, campo/áreas de textos e botões. O conceito básico ainda é mantido nas
interfaces atuais que evoluíram apenas em novas formas e gráficos mais elaborados. Esse conceito
de gerenciamento de janelas se baseia na possibilidade do usuário moverse de aplicação para
aplicação de modo continuo e com boa fluidez sendo capaz de rapidamente mudar para a
aplicação que necessita de uma resposta imediata sem que o mesmo se distraia. Para aumentar a
legibilidade e a usabilidade da informação continua nas diversas janelas do ambiente gráfico os
princípios de espaçamento, agrupamento e simplicidade devem ser aplicados. Uma visão inicial da
GUI com uma taxonomia que ainda é adotada atualmente foi proposta por Brad Myers.
Ao longo dos anos 90s podemos perceber um grande avanço nas interfaces humano
computador pela quantidade de novas propostas de interfaces introduzidas, como: interfaces
gráficas avançadas (incluindo multimídia e realidade virtual), interfaces de reconhecimento de
voz, reconhecimento de escrita e gestos e interfaces de toque.
3
Interfaces multimídia, como o nome mesmo sugere, são interfaces que extrapolam as GUIs
com o uso de diferentes mídias para enriquecer a experiência e interatividade do usuário.
Misturando sons, vídeos, animações e textos essas interfaces permitem que a informação seja
apresentada na forma em que melhor atenda a natureza da informação. Ao apresentar a
informação em diversas formas e formatos acreditase que “mais é melhor” e que a “soma das
partes é melhor que o todo”. Ao interagirmos com diversas mídias percebemos que é mais fácil de
aprender, temos uma melhor compreensão da informação, prestamos mais atenção e aumenta
nosso prazer. Apenas com o poder computacional recente que a capacidade de manipular
diferentes mídias foi alcançado pelos computadores de mesa. O uso mais notório da interface
multimídia surgiu com o nascimento do
primeiro navegador gráfico para a World Wide Web, o Mosaic em 1993 e apos 16 anos, os
navegadores atuais ainda são baseados e mantém muitas das características principais.
Extrapolando o ambiente dos computadores de mesa, as interfaces de realidade virtual
mergulham o usuário num ambiente gerado artificialmente ao invés de colocálo como mero
expectador. Com mais poder computacional passa a ser possível os computadores gerarem,
através da tecnologia gráfica em três dimensões (3D), ambientes virtuais que podem responder
aos estímulos do usuário em tempo real criando a ilusão de que o próprio usuário está imerso e
interagindo com o ambiente. Imersão é um termo comumente usado na Realidade Virtual para
indicar o grau de estimulo sensorial que o usuário está vivenciando ao utilizar uma interface de
realidade virtual. O objetivo dessas interfaces é que o usuário experimente sensações e estímulos
próximos das sentidas nos ambientes reais, que por algum motivo, sejam difíceis de serem
vivenciadas pelo usuário. Diversos tipos de periféricos são usados nesse tipo de interface e cada
um permite um grau maior ou menor de imersão e seus custos podem variar de algumas dezenas a
milhares de dólares americanos. É a interface e não o conteúdo que caracteriza a realidade virtual
e o grau de imersão. As interfaces de RV podem partir de um simples monitor de vídeo (usando
qualquer tecnologia convencional, ex, CRT ou LCD), partindo para óculos equipados com mini
monitores que cobrem todo o campo de visão do usuário, possuem custo acessível e portabilidade
razoável. Um arranjo mais elaborado pode ser alcançado com o uso de um conjunto de 3 a 6
projetores de alta definição. Com um custo muito mais elevado que o uso dos óculos apenas, as
CAVEs como são conhecidas (CAVE Automatic Virtual Environment) são hoje uma das
experiências mais imersivas que se pode obter em interface de realidade virtual. Cinco questões
principais sobre imersão são apresentadas sendo elas: campo de visão – extensão angular que um
observador enxerga; panorama – habilidade da interface envolver o observador; perspectiva
centrada no observador – depende da velocidade e da precisão em detectar a localização do
observador; representação física e do corpo; intrusão – grau com que a interface restringe os
sentidos isolando o usuário do ambiente real. As interfaces de realidade virtual são comumente
usadas para educação, entretenimento e treinamento em pilotagem de aeronaves, espaçonaves e
tarefas de alto risco.
Interfaces móveis são projetadas para serem usadas enquanto o usuário está em trânsito e
portanto precisa de velocidade e agilidade na interação com o dispositivo móvel. Esse tipo de
interface é utilizada nos aparelhos celulares e PDAs principalmente nos dias de hoje. Apenas a
uma década atrás a interface padrão de um celular não passava de um teclado numérico e um
display LCD com capacidade de exibir apenas uma dezena de dígitos numéricos. Desde então,
diversos artefatos tecnológicos são utilizados em conjunto nas interfaces móveis atuais como mini
teclados QWERTY, joysticks óticos, botões de rolagem, botões multidirecionais, sensores de
presença, acelerômetros que determinam o posicionamento do dispositivo e telas sensíveis ao
toque.
Da mesma forma que interfaces multimídias tendem a combinar diversas mídias para
representar a informação da forma mais rica possível, as interfaces multimodais combinam
diversos meios de entrada e saída de dados para enriquecer a experiência do usuário. Ao interagir
com o dispositivo o usuário experimenta diversas modalidades sensoriais ao mesmo tempo como
sons, imagens, vibrações e voz, dessa forma a precisão é aumentada e o sucesso da interação
potencializado.
4
Finalmente, as Interfaces tangíveis acrescentam um novo elemento a detecção da interação:
um ou mais objetos reais. Esses objetos podem ser um cubo, uma garrafa, uma bola de gude ou
qualquer coisa de uso cotidiano, cada um desses objetos tem uma representação digital dentro de
um contexto e ao ser movimentado, sua condição é atualizada no sistema. Quando qualquer objeto
sendo rastreado pelo sistema é manipulado por um usuário, a alteração sofrida pelo objeto é
refletida e interpretada pelo sistema e poderá ser gerado uma mudança no estado e na saída de
dados do sistema.
3. Problema:
Ao efetuar determinadas entradas através de objetos físicos reais, ações específicas são
desencadeadas. Entretanto, ao posicionar um objeto na superfície tangível, alguma entidade
virtual deve simbolizar que naquele instante, uma determinada ação foi provocada no
determinado ponto da mesma, registrando a entrada acionada e o feedback obtido.
4. Hipótese:
Técnicas de Realidade Aumentada podem contribuir para a demarcação de atividades e
saídas obtidas de forma que os objetos utilizados como entrada poderão desta forma serem
deslocados sobre a superfície sem que os feedbacks obtidos sejam perdidos.
5. Objetivo Geral:
6. Objetivos Específicos:
O presente projeto de pesquisa visa estudar paradigmas e implementar técnicas para
Realidade Aumentada em interfaces tangíveis, delimitando uma forma inovadora de se
representar saídas sobre as superfícies tangíveis.
7. Justificativa:
O presente projeto de pesquisa contribuirá para o avanço das pesquisas na área de IHC,
uma vez que existe a constante busca por novas formas de interação, amplamente dependentes
de representações de saídas, as quais são responsáveis por ilustrar as respostas do sistema de
forma precisa.
8. Metodologia
Em um primeiro momento, haverá um estudo intensivo sobre novas modalidades de
interação e interfaces computacionais interativas, a fim de constituir uma base teórica sólida
para o desenvolvimento do projeto em questão, bem como o estudo sobre Realidade
Aumentada, bem como sua origem na Realidade Virtual.
Em seguida, serão desenvolvidos protótipos de representação, a fim de testar técnicas
conhecidas e/ou inovadoras para a exibição de entidades virtuais em ambientes reais, em
linguagem de programação a definir.
5
Finalmente, haverá a integração com os demais módulos do sistema tangível.
6
9. Cronograma [Computar o prazo de 1 (um) ano, a contar da elaboração do projeto]
(Sugestão de Cronograma. Deve ser elaborado conf. orientações do ProfessorOrientador)
Atividades OUT. NOV. JAN. FEV. MAR. ABR. MAIO JUN. JUL. AGO. SET. OUT.
Elaboração do x x
projeto.
Revisão da Literatura x x x
Fichamentos x
Desenvolvimento da x x x x
proposta
Redação Preliminar x
Relatório Parcial x
Apresentação no SIC x
Relatório Final x
10. Bibliografia
Azuma, R. (Agosto de 1997). A Survey of Augmented Reality. Presence: Teleoperators and Virtual
Environments , 6 (4), pp. 355385.
Bouchet, J., & Nigay, L. (2004). ICARE: a componentbased approach for the design and
development of multimodal interfaces. Proceedings of CHI'04, (pp. 13251328).
Cohen, M., Giangola, J., & Balogh, J. (2004). Voice User Interface Design. Harlow, Essex: Addison
Wesley.
CruzNeira, C., Sandin, D. J., Defanti, T., & Kenyon, R. e. (1992). The CAVE: Audio Visual
Experience Automatic Virtual Environment. Comunications of the ACM , 35 (6), 6472.
Dietz, P., & Leigh, D. (2001). DiamondTouch: a multiuser touch technology. Proceedings of the 14th
Annual ACM Symposium on User interface Software and Technology (pp. 219226). Orlando: ACM
Press.
Fishkin, K. P. (2004). A taxonomy for and analysis of tangible interfaces. Proceedings at Pers Ubiqui
Comput. 8, pp. 347358. London: SpringerVerlag London Limited.
Fishkin, K., Gujar, A., Harrison, B., Moran, P., & Want, R. (2000). Embodied user interfaces for
really direct manipulation. Commun ACM, 43, pp. 7480.
Gigante, M. (1993). Virtual Reality: enabling technologies. In: R. A. Earnshaw, M. A.
Ishii, H., & Ullmer, B. (1997). Tangible bits: towards seamless interfaces between people, bits and
atoms. Proceeding CHI'97 (pp. 234241). New York: ACM Press.
J., U., & H., I. (1999). Urp: a luminoustangible workbench for urban planning and design.
Proceedings of the CHI’99 conference on human factors in computing systems (pp. 386393).
Pittsburgh: CHI'99.
Lopuck, L. (1996). Designing Multimedia. Berkeley, CA: Peachpit Press.
Mullet, K., & Sano, D. (1995). Designing Visual Interfaces. Mountain View, CA: Prentice Hall.
7
Myers, B. (1988). Window interfaces: a taxonomy of window manager user interfaces. IEEE
Computer Graphics and Applications (8), 6584.
Raskin, J. (2000). The Humane Interface. Harlow, Essex: AddisonWesley.
Rogers, Y., & Lindley, S. (2004). Collaborating around vertical and horizontal displays: witch way is
best? Interacting With Computers , 16, pp. 3352.
Schmidt, D., Block, F., & Gellersen, H. (2009). A Comparison of Direct and Indirect Multitouch
Input for Large Surfaces . INTERACT 2009 (pp. 582594). Lancaster: International Federation for
Information Processing.