20.7.07

Interacção entre humanos e robots


Há algum tempo publicámos aqui uma série de notas sobre o programa ELIZA, criado por Joseph Weizenbaum no MIT entre 1964 e 1966:


ELIZA, o seu psicoterapeuta automático para este fim de semana;

O "teste de Turing" e o psicoterapeuta automático;

Uma consulta de ELIZA;

O mecanismo interno de ELIZA;

O que os computadores podem mas não devem fazer;

Onde ELIZA leva à questão ética.


O programa ELIZA "estabelecia uma conversa" em linguagem natural (inglês) entre um computador e um utilizador humano. Na versão mais conhecida e usada pelo seu criador para efeitos de demonstração, a máquina programada desempenha o papel de um psicoterapeuta rogeriano. Um dos elementos de credibilização do sistema consiste precisamente no pressuposto de que um psiquiatra dessa escola incentivará o seu paciente a esclarecer todas as suas afirmações, devolvendo sistematicamente as suas falas com pedidos de melhor esclarecimento sobre os tópicos suscitados. O utilizador do sistema escreve as suas “falas” no teclado e recebe respostas também escritas com tempos de reacção que não desmentem a humanidade do interlocutor. São relatadas as mais diversas histórias acerca da forma espantosa como muitas pessoas, interagindo com este programa, se convenciam de que estavam a conversar com um psicoterapeuta. Por exemplo, uma das secretárias do sector onde Weizenbaum trabalhava terá chegado a pedir aos circunstantes que a deixassem a sós com o “psicoterapeuta” para poder falar com a necessária privacidade.


Weizenbaum explicou ter escolhido o psicoterapeuta como o seu “personagem” porque a entrevista psiquiátrica lhe pareceu um dos poucos exemplos de comunicação em linguagem natural com dois intervenientes em que parece natural, para uma das partes, a pose de quase completa ignorância acerca do mundo real. Quando um paciente diz “Fui dar uma grande volta de barco” e o psiquiatra responde “Fale-me de barcos”, não pensamos que ele seja ignorante acerca de barcos, mas que ele tem algum objectivo em mente para orientar a conversa desse modo.

Weizenbaum é muito claro ao afirmar: os pressupostos são lá postos pelo humano; quem atribui conhecimento e inteligência ao seu interlocutor é o humano. Neste caso, o autor do programa é completamente transparente: mostra toda a operação interna do ELIZA e explica que, além dos truques relativamente simples que lá colocou, tudo o resto é fornecido pelo humano utilizador. A este fenómeno de atribuição de "humanidade" ao agente artificial passou a chamar-se "o efeito ELIZA".


Voltamos a lembrar estas coisas porque SEEDMagazine publicou recentemente uma matéria que lida com o "efeito ELIZA": RISE OF ROBOETHICS: Grappling with the implications of an artificially intelligent culture. Vale a pena ler.

Junto com o texto vêm as ligações para uma série de vídeos que exemplificam os trabalhos que se desenvolvem actualmente para implementar interacções "de tipo humano" (com "emoções artificiais" e com linguagem, nomeadamente) entre humanos e robots. Alguns dos exemplos são os seguintes:



Aqui, o bebé-robot Kismet "diz" a frase "Do you really think so?" com o que se pretende serem diferentes expressões faciais e vocais:







Aqui, o robor Leo "aprende" o que é isso de "ligar os botões todos":







Aqui, o robot Jules "fala" com vocabulário emocional:







Aqui, o Babybot aprende a lidar com certos objectos:







O melhor é começar já a preparar as suas emoções para lidar com parceiros robóticos!