You are on page 1of 7

Pró-Reitoria de Pós-Graduação, Pesquisa e

Extensão

ANEXO D

PROJETO DE INICIAÇÃO CIENTÍFICA

Título: Realidade Aumentada em Interfaces Tangíveis

Curso: Ciência da Computação

Linha de pesquisa: Interface Homem­Computador e Computação Gráfica

Nome do aluno: Fábio Rodrigues

RA:

Série: 1ª

Período: Noturno

Nome do professor orientador: Ms. Leonardo C. Botega
2

Marília,   Novembro de 2009

1. Tema (Título do Projeto):

Realidade Aumentada em Interfaces Tangíveis

2. Introdução: 

Podemos dizer de forma simplificada que uma interface é qualquer meio físico ou lógico que 
permite   que   alguma   coisa   interaja   com   outra   coisa   de   modo   que   a   primeira   interfira   no 
comportamento  da segunda. Se essa interação  envolve  uma pessoa logo temos  uma  Interface 
Humano­Computador (IHC). 
As   primeiras  interfaces  humano­computador  podem  ser  definidas  como  uma  seqüência   de 
chaves eletro­mecânica como entrada de dados e uma seqüência de lâmpadas enfileiradas como 
saída de dados. Sem levar em consideração os primórdios da computação podemos dizer que a 
primeira interface humano­computador usada amplamente foi a linha de comando, que utiliza 
apenas   textos   e   o   teclado   para   entrada   de   dados.   Apos   algumas   décadas   é   criado   um   novo 
paradigma: a interface gráfica e o mouse. 
As interfaces por linhas de comando usavam apenas texto Essa forma de interface é usada até 
hoje, principalmente por desenvolvedores que destacam a velocidade dessa interface. Essa classe 
de interfaces  requer que o usuário digite os comandos, que normalmente são abreviaturas,  no 
cursor e até que a todos os comandos e atributos são digitados o computador fica aguardando a 
tecla de final de linha para só então responder ao usuário. As vantagens dessa interface são a 
eficiência, precisão e velocidade com que comandos simples podem ser executados. No entanto 
requer que o usuário saiba diversos comandos, sintaxes e atributos para realizar suas tarefas. A 
linha de comando foi usada como principal interface nos primeiros sistemas operacionais, ainda é 
utilizada   nos   terminais   Unix   ou   Linux   e   em   diversos   programas   de   uso   profissional   como 
AutoCAD, 3D Studio Max e outros. Diversos estudos foram realizados com o intuito de otimizar 
a linha de comando em se tratando da forma dos comandos, sintaxe e organização. Um consenso 
foi que o nome do comando a usar deve ser o mais fácil de se lembrar. 
Com o desenvolvimento do “Xerox Star”, um novo tipo de interface foi criada, inicialmente 
chamada de WIMP (acrônimo para Janela, Ícone, Menu e Ponteiro) e mais tarde de GUI (Interface 
Gráfica   de   Usuário).   Esse   tipo   de   interface   abriu   uma   nova   gama   de   possibilidades   para   os 
usuários interagirem com os computadores e também o modo coma as informação eram exibidas e 
organizadas.   A   GUI   apresentou   um   novo   hardware:   o   mouse   e   novos   elementos   gráficos 
utilizados   para   organizar   a   informação   como:   janelas,   barras   de   rolagens,   caixas   de   escolha, 
painéis, caixas de diálogos, campo/áreas de textos e botões. O conceito básico ainda é mantido nas 
interfaces atuais que evoluíram apenas em novas formas e gráficos mais elaborados. Esse conceito 
de gerenciamento de janelas se baseia na possibilidade do usuário mover­se de aplicação para 
aplicação   de   modo   continuo   e   com   boa   fluidez   sendo   capaz   de   rapidamente   mudar   para   a 
aplicação que necessita de uma resposta imediata sem que o mesmo se distraia. Para aumentar a 
legibilidade e a usabilidade da informação continua nas diversas janelas do ambiente gráfico os 
princípios de espaçamento, agrupamento e simplicidade devem ser aplicados. Uma visão inicial da 
GUI com uma taxonomia que ainda é adotada atualmente foi proposta por Brad Myers. 
Ao   longo   dos   anos   90s   podemos   perceber   um   grande   avanço   nas   interfaces   humano­ 
computador   pela   quantidade   de   novas   propostas   de   interfaces   introduzidas,   como:   interfaces 
gráficas avançadas (incluindo multimídia e realidade virtual), interfaces de reconhecimento  de 
voz, reconhecimento de escrita e gestos e interfaces de toque. 
3
Interfaces multimídia, como o nome mesmo sugere, são interfaces que extrapolam as GUIs 
com   o   uso   de   diferentes   mídias   para   enriquecer   a   experiência   e   interatividade   do   usuário. 
Misturando sons, vídeos, animações  e textos essas interfaces  permitem que a informação  seja 
apresentada   na   forma   em   que   melhor   atenda   a   natureza   da   informação.   Ao   apresentar   a 
informação em diversas formas e formatos acredita­se que “mais é melhor” e que a “soma das 
partes é melhor que o todo”. Ao interagirmos com diversas mídias percebemos que é mais fácil de 
aprender,  temos  uma  melhor  compreensão  da informação,  prestamos  mais  atenção  e aumenta 
nosso   prazer.     Apenas   com   o   poder   computacional   recente   que   a   capacidade   de   manipular 
diferentes mídias foi alcançado pelos computadores  de mesa. O uso mais notório da interface 
multimídia   surgiu   com   o   nascimento   do 
primeiro  navegador gráfico para a World Wide Web, o Mosaic em  1993 e apos  16 anos,  os 
navegadores atuais ainda são baseados e mantém muitas das características principais.
Extrapolando   o   ambiente   dos   computadores   de   mesa,   as   interfaces   de   realidade   virtual 
mergulham  o  usuário   num  ambiente   gerado  artificialmente   ao  invés  de  colocá­lo  como   mero 
expectador.   Com   mais   poder   computacional   passa   a   ser   possível   os   computadores   gerarem, 
através da tecnologia gráfica em três dimensões (3D), ambientes virtuais que podem responder 
aos estímulos do usuário em tempo real criando a ilusão de que o próprio usuário está imerso e 
interagindo com o ambiente. Imersão é um termo comumente usado na Realidade Virtual para 
indicar o grau de estimulo sensorial que o usuário está vivenciando ao utilizar uma interface de 
realidade virtual. O objetivo dessas interfaces é que o usuário experimente sensações e estímulos 
próximos   das   sentidas   nos   ambientes   reais,   que   por   algum   motivo,   sejam   difíceis   de   serem 
vivenciadas pelo usuário. Diversos tipos de periféricos são usados nesse tipo de interface e cada 
um permite um grau maior ou menor de imersão e seus custos podem variar de algumas dezenas a 
milhares de dólares americanos. É a interface e não o conteúdo que caracteriza a realidade virtual 
e o grau de imersão. As interfaces de RV podem partir de um simples monitor de vídeo (usando 
qualquer tecnologia convencional, ex, CRT ou LCD), partindo para óculos equipados com mini 
monitores que cobrem todo o campo de visão do usuário, possuem custo acessível e portabilidade 
razoável. Um arranjo mais elaborado pode ser alcançado com o uso de um conjunto de 3 a 6 
projetores de alta definição. Com um custo muito mais elevado que o uso dos óculos apenas, as 
CAVEs   como   são   conhecidas   (CAVE   Automatic   Virtual   Environment)   são   hoje   uma   das 
experiências mais imersivas que se pode obter em interface de realidade virtual. Cinco questões 
principais sobre imersão são apresentadas sendo elas: campo de visão – extensão angular que um 
observador   enxerga;   panorama   –   habilidade   da   interface   envolver   o   observador;   perspectiva 
centrada   no  observador   –  depende   da  velocidade   e   da   precisão   em   detectar   a   localização   do 
observador; representação  física e do corpo; intrusão – grau com que a interface restringe os 
sentidos isolando o usuário do ambiente real. As interfaces de realidade virtual são comumente 
usadas para educação, entretenimento e treinamento em pilotagem de aeronaves, espaçonaves e 
tarefas de alto risco. 
Interfaces  móveis são projetadas  para serem usadas enquanto o usuário está em trânsito  e 
portanto precisa de velocidade e agilidade na interação com o dispositivo móvel. Esse tipo de 
interface é utilizada nos aparelhos celulares e PDAs principalmente nos dias de hoje. Apenas a 
uma década atrás a interface padrão de um celular não passava de um teclado numérico e um 
display LCD com capacidade de exibir apenas uma dezena de dígitos numéricos. Desde então, 
diversos artefatos tecnológicos são utilizados em conjunto nas interfaces móveis atuais como mini 
teclados   QWERTY,   joysticks   óticos,   botões   de   rolagem,   botões   multidirecionais,   sensores   de 
presença,       acelerômetros que determinam o posicionamento do dispositivo e telas sensíveis ao 
toque. 
Da   mesma   forma   que   interfaces   multimídias   tendem   a   combinar   diversas   mídias   para 
representar   a   informação   da   forma   mais   rica   possível,   as   interfaces   multimodais   combinam 
diversos meios de entrada e saída de dados para enriquecer a experiência do usuário.  Ao interagir 
com o dispositivo o usuário experimenta diversas modalidades sensoriais ao mesmo tempo como 
sons, imagens, vibrações e voz, dessa forma a precisão é aumentada e o sucesso da interação 
potencializado. 
4
Finalmente, as Interfaces tangíveis acrescentam um novo elemento a detecção da interação: 
um ou mais objetos reais. Esses objetos podem ser um cubo, uma garrafa, uma bola de gude  ou 
qualquer coisa de uso cotidiano, cada um desses objetos tem uma representação digital dentro de 
um contexto e ao ser movimentado, sua condição é atualizada no sistema. Quando qualquer objeto 
sendo   rastreado pelo  sistema  é manipulado  por um usuário, a alteração  sofrida  pelo objeto   é 
refletida e interpretada pelo sistema e poderá ser gerado uma mudança no estado e na saída de 
dados do sistema. 

3. Problema:

Ao efetuar determinadas entradas através de objetos físicos reais, ações específicas são 
desencadeadas. Entretanto, ao posicionar um objeto na superfície tangível, alguma entidade 
virtual   deve   simbolizar   que   naquele   instante,   uma   determinada   ação   foi   provocada   no 
determinado ponto da mesma, registrando a entrada acionada e o feedback obtido.

4. Hipótese:

Técnicas de Realidade Aumentada podem contribuir para a demarcação de atividades e 
saídas obtidas de forma que os objetos utilizados como entrada poderão desta forma serem 
deslocados sobre a superfície sem que os feedbacks obtidos sejam perdidos.

5. Objetivo Geral:

O   objetivo   geral   é   adicionar   técnicas   de   Realidade   Aumentada   como   parte   de   um 


sistema tangível completo, integrando­se com outros módulos da interface e contribuindo para 
a execução do projeto como um todo.

6. Objetivos Específicos:

O presente projeto de pesquisa visa estudar paradigmas e implementar técnicas para 
Realidade   Aumentada   em   interfaces   tangíveis,   delimitando   uma   forma   inovadora   de   se 
representar saídas sobre as superfícies tangíveis.

7. Justificativa:

O presente projeto de pesquisa contribuirá para o avanço das pesquisas na área de IHC, 
uma vez que existe a constante busca por novas formas de interação, amplamente dependentes 
de representações de saídas, as quais são responsáveis por ilustrar as respostas do sistema de 
forma precisa.

8. Metodologia

Em um primeiro momento, haverá um estudo intensivo sobre novas modalidades de 
interação e interfaces computacionais interativas, a fim de constituir uma base teórica sólida 
para   o   desenvolvimento   do   projeto   em   questão,   bem   como   o   estudo   sobre   Realidade 
Aumentada, bem como sua origem na Realidade Virtual.
Em seguida, serão desenvolvidos protótipos de representação, a fim de testar técnicas 
conhecidas   e/ou  inovadoras   para  a   exibição  de  entidades  virtuais  em   ambientes  reais,   em 
linguagem de programação a definir.
5
Finalmente, haverá a integração com os demais módulos do sistema tangível.
6
9. Cronograma [Computar o prazo de 1 (um) ano, a contar da elaboração do projeto]

(Sugestão de Cronograma. Deve ser elaborado conf. orientações do Professor­Orientador)

Atividades OUT. NOV. JAN. FEV. MAR. ABR. MAIO JUN. JUL. AGO. SET. OUT.
Elaboração do  x x
projeto.
Revisão da Literatura x x x
Fichamentos x
Desenvolvimento da  x x x x
proposta
Redação Preliminar x
Relatório Parcial x
Apresentação no SIC x
Relatório Final x

10. Bibliografia 

Azuma, R. (Agosto de 1997). A Survey of Augmented Reality. Presence: Teleoperators and Virtual 
Environments , 6 (4), pp. 355­385. 

Bouchet,   J.,   &   Nigay,   L.   (2004).   ICARE:   a   component­based   approach   for   the   design   and 
development of multimodal interfaces. Proceedings of CHI'04, (pp. 1325­1328). 

Cohen, M., Giangola, J., & Balogh, J. (2004). Voice User Interface Design. Harlow, Essex: Addison­
Wesley. 

Cruz­Neira,   C.,   Sandin,   D.   J.,   Defanti,   T.,   &   Kenyon,   R.   e.   (1992).   The   CAVE:   Audio   Visual 
Experience Automatic Virtual Environment. Comunications of the ACM , 35 (6), 64­72. 

Dietz, P., & Leigh, D. (2001). DiamondTouch: a multi­user touch technology. Proceedings of the 14th 
Annual ACM Symposium on User interface Software and Technology (pp. 219­226). Orlando: ACM 
Press. 

Fishkin, K. P. (2004). A taxonomy for and analysis of tangible interfaces. Proceedings at Pers Ubiqui 
Comput. 8, pp. 347­358. London: Springer­Verlag London Limited. 

Fishkin, K., Gujar, A., Harrison, B., Moran, P., & Want, R. (2000). Embodied user interfaces for 
really direct manipulation. Commun ACM, 43, pp. 74­80. 
                                                                                     
Gigante, M. (1993). Virtual Reality: enabling technologies. In: R. A. Earnshaw, M. A. 

Ishii, H., & Ullmer, B. (1997). Tangible bits: towards seamless interfaces between people, bits and 
atoms. Proceeding CHI'97 (pp. 234­241). New York: ACM Press. 

J.,   U.,   &   H.,   I.   (1999).   Urp:   a   luminous­tangible   workbench   for   urban   planning   and   design. 
Proceedings   of   the   CHI’99   conference   on   human   factors   in   computing   systems   (pp.   386­393). 
Pittsburgh: CHI'99. 

Lopuck, L. (1996). Designing Multimedia. Berkeley, CA: Peachpit Press. 

Mullet, K., & Sano, D. (1995). Designing Visual Interfaces. Mountain View, CA: Prentice Hall. 
7
Myers,   B.   (1988).   Window   interfaces:   a   taxonomy   of   window   manager   user   interfaces.   IEEE 
Computer Graphics and Applications (8), 65­84. 

Raskin, J. (2000). The Humane Interface. Harlow, Essex: Addison­Wesley. 

Rogers, Y., & Lindley, S. (2004). Collaborating around vertical and horizontal displays: witch way is 
best? Interacting With Computers , 16, pp. 33­52. 

Schmidt, D., Block, F., & Gellersen, H. (2009). A Comparison of Direct and Indirect Multi­touch 
Input for Large Surfaces . INTERACT 2009 (pp. 582­594). Lancaster: International Federation for 
Information Processing. 

Shneiderman,   B.   (1998).   Designing   the   UserInterface:   Strategies   for   Effective   Human­Computer 


Interaction (3rd Edition ed.). Reading, MA: Addison­Wesley. 

You might also like