Para demonstrar isso, um pequeno robô amarelo recebe
voluntários que entram no laboratório: "Oi, eu sou
Wakamaru, prazer em te conhecer. Eu tenho uma tarefa
para você: organize esses objetos sobre a mesa por
categorias, colocando-os nas caixas."
Com alguns
voluntários, o robô, muito naturalmente, olha em direção
aos objetos enquanto fala. Com outros, o robô apenas
olha diretamente para a pessoa.
Mutlu diz que os resultados são bastante claros:
"Quando o robô usa o olhar como um humano o faria, as
pessoas são muito mais rápidas em localizar os objetos
que têm que mover."
Modelagem de comportamentos
E é principalmente assim, observando humanos, que os
dois pesquisadores estão rastreando o papel do olhar, e
as informações que o olhar humano transmite na
comunicação, que eles planejam desenvolver algoritmos de
controle que possam ser associados com as informações
textuais que os robôs ou personagens virtuais têm que
passar.
"São comportamentos que podem ser modelados e, em
seguida, programados nos robôs para que eles, os
comportamentos, possam ser usados pelo robô sempre que
necessário, para se referir a algo e certificar-se de
que as pessoas entendam a que o robô está se referindo,"
explica Mutlu.
A teoria está sendo testada em um agente virtual,
este sim, capaz de dar aulas pelo computador.
Ao dizer "Olá. Hoje eu vou lhes falar um pouco sobre
a história da China Antiga", o personagem "sabe" que há
um mapa da China sendo projetado atrás de si e, de forma
quase natural, vira-se, olha e aponta para o mapa, como
se fosse a moça da previsão do tempo durante os
telejornais.
Isso encorajou os dois pesquisadores a falarem em
robôs em salas de aula, não como alunos, mas como
professores.
"Nós podemos projetar tecnologias que realmente
beneficiem as pessoas no aprendizado, na saúde e no
bem-estar, e em trabalhos colaborativos," conclui Mutlu.