8.6.07

Micro Audio Waves

Eles vêm aí de novo. Alerta, pois. Para ir ajeitando os nervos, fica uma das clássicas deles.



push down

gently

but firmly

until the body is fully connected


by touching

a grounded metal surface

firmly

until the body is fully connected


(excerto de “Fully Connected”, do álbum No Waves dos Micro Audio Waves)





Onde ELIZA leva à questão ética (Eliza-5/5)


Quando, a partir do programa ELIZA e das interpretações que dele se fizeram, Weizenbaum se põe a reflectir sobre o papel das máquinas programadas na sociedade dos humanos, o seu ponto central é este: certos objectivos e propósitos humanos não devem ser delegados nos computadores, independentemente de isso ser ou não ser tecnicamente possível; em certos domínios, o desenvolvimento do poder dos computadores é moralmente repugnante.


Há uma área de aplicações que é simplesmente obscena: substituir um humano por um computador numa função que careça de respeito interpessoal, de compreensão ou de amor. Exemplos: um psicoterapeuta, um juiz. Nesta categoria incluem-se também as aplicações que “representam um ataque à vida”, como seja um projecto (então em vista) para ligar o cérebro e o sistema visual de um animal a um computador. Outra área de aplicações computacionais deve ser evitada, ou pelo menos desenvolvida com particular atenção, devido aos efeitos indirectos que pode despoletar. O exemplo dado é o do reconhecimento automático da fala, porque isso facilitaria aos governos o controlo das comunicações entre os cidadãos, com uma eficácia sem precedentes e com a consequente invasão de privacidade.


O ponto, para Weizenbaum, é que a relação dos humanos com o mundo é específica à condição humana. Mesmo que uma máquina possa ser suficientemente desenvolvida para ser considerada um tipo de animal (por exemplo, sentindo e agindo sobre o ambiente, sendo modificada pelas suas experiências no mundo, adquirindo algum tipo de sentido de si), mesmo assim cada espécie é socializada de uma determinada maneira. Os humanos tornam-se humanos em sentido pleno sendo tratados como seres humanos por outros humanos (por exemplo, sendo alimentados, protegidos e acarinhados desde a mais tenra infância) – e esse processo, que depende largamente de termos corpo, não é transferível “por programação” para uma máquina. Qualquer inteligência da máquina é uma inteligência que nos é estranha, porque os problemas da máquina não são os nossos problemas, escreve Weizenbaum em 1976.


A questão, para Weizenbaum, é ética: ele não pode admitir a pergunta que McCarthy um dia lhe fez: “O que é que um juiz sabe que não possamos ensinar a um computador?” – porque a resposta implícita era “Nada!”.


Logo em 1976 Weizenbaum viu aspectos importantes do problema. Em alguns aspectos a sua perspectiva ética já terá talvez sido derrotada (provisoriamente?). Mas o ponto continua a merecer reflexão.

7.6.07

Einstein recomenda este blogue



O que os computadores podem mas não devem fazer (Eliza-4/5)


Em 1976, Joseph Weizenbaum publica Computer Power and Human Reason. Um dos pontos de partida dessa obra é o seu programa ELIZA e as reacções que o programa provocou - e que o chocaram.


Primeiro, muitas pessoas usando o programa envolviam-se emocionalmente na situação, como se estivessem mesmo a consultar um psiquiatra, chegando ao ponto de querer ter privacidade para os seus “diálogos” (o que aconteceu com a própria secretária do programador, apesar de ela “saber” perfeitamente quem tinha feito o ELIZA).

Segundo, aparecerem psiquiatras no activo a sugerir seriamente que o ELIZA podia ser desenvolvido para ser transformado numa forma automática de psicoterapia. Um dos exemplares mais notáveis é K.M. Colby, que desenvolveu ainda nos anos 1960 programas de análise da neurose, começando com um programa que “tratava” de uma mulher que acreditava que o seu pai a tinha abandonado, mas não aceitava conscientemente que o odiava por isso.

Terceiro, muitos investigadores consideravam que o ELIZA abria uma via promissora para a resolução do problema da compreensão da linguagem natural pelos computadores.


Este conjunto de reacções ao ELIZA, atribuindo maravilhas à sua obra que ele próprio negava veementemente, levou Weizenbaum a interessar-se pelos problemas suscitados pela facilidade com que as pessoas fazem atribuições extraordinárias a uma tecnologia que não compreendem. Postas as coisas nesses termos, não lhe basta a questão “técnica” de saber o que os computadores serão ou não serão capazes de fazer: quer averiguar a questão mais central de saber o que os computadores devem ou não devem ser autorizados a fazer em substituição dos humanos. A sua resposta é clara: certas áreas da acção humana não devem ser entregues nunca à máquina.


Amanhã veremos o seu argumento um pouco mais em pormenor.


[Próxima nota desta série: Onde ELIZA leva à questão ética.]

6.6.07

PERSEPOLIS, da BD ao cinema





Primeiro foi uma grande Banda Desenhada. Agora é um filme de animação. PERSEPOLIS é a história de uma rapariguinha iraniana que vive a queda do Xá e o início da República Islâmica no Irão - e que vive tudo isso nas contradições de todos os que tiveram esperança em coisas nas quais é perigoso ter esperança. A rapariguinha vem depois para o Ocidente, para ser poupada às eventualidades do poder religioso - e aí encontra outros motivos de perplexidade.

PERSEPOLIS, o filme, recebeu este ano o Prémio do Júri no Festival de Cannes. Vai aparecer em vários países europeus neste mês de Junho. Quanto a Portugal, não sabemos, nem sabemos se alguém sabe. Fica aqui o clip de apresentação, que está disponível, com mais material interessante, aqui no My Space.





O mecanismo interno de ELIZA (Eliza-3/5)


O esquema básico do funcionamento do ELIZA era simples: na frase inserida pelo utilizador era procurada uma palavra-chave; a cada palavra-chave correspondia um conjunto de regras de decomposição e uma delas era aplicada para transformar a frase numa sequência de palavras manipulável pelo programa; sobre essa sequência era aplicada uma das regras de recomposição associadas à mesma palavra-chave, de modo a produzir a sequência de palavras que constitui a resposta do computador. O programa variava as respostas: não usava sempre as mesmas regras de decomposição e de recomposição para ocorrências diferentes da mesma palavra-chave. Um exemplo é o seguinte:



O programa dispõe de um dicionário de palavras-chave, que permite determinar se alguma das palavras contidas numa frase inserida pelo utilizador é uma palavra-chave. O utilizador pode inserir, de uma só vez, mais do que uma frase ou uma frase composta, mas o ELIZA só pode transformar uma frase simples de cada vez. Por isso, quando analisa uma inserção do utilizador e encontra uma vírgula ou um ponto final, se já encontrou até aí uma palavra-chave ignora tudo o que aparece a seguir a esse sinal de pontuação; se ainda não encontrou nenhuma palavra-chave, apaga tudo o que “lera” até aí e concentra-se no restante. Se numa entrada não encontra nenhuma palavra-chave, o ELIZA ou retoma um tópico anterior ou responde com uma frase do género “Porque é que pensa assim?”, destinada a ter cabimento em qualquer contexto.


Weizenbaum explica que escolheu o psicoterapeuta como o seu “personagem” porque a entrevista psiquiátrica lhe pareceu um dos poucos exemplos de comunicação em linguagem natural com dois intervenientes em que parece natural, para uma das partes, a pose de quase completa ignorância acerca do mundo real. Quando um paciente diz “Fui dar uma grande volta de barco” e o psiquiatra responde “Fale-me de barcos”, não pensamos que ele seja ignorante acerca de barcos, mas que ele tem algum objectivo em mente para orientar a conversa desse modo.


Weizenbaum é muito claro ao afirmar: os pressupostos são lá postos pelo humano; quem atribui conhecimento e inteligência ao seu interlocutor é o humano. Neste caso, o autor do programa é completamente transparente: mostra toda a operação interna do ELIZA e explica que, além dos truques relativamente simples que lá colocou, tudo o resto é fornecido pelo humano utilizador.


Amanhã veremos as reflexões que ELIZA mereceu a Weizenbaum alguns anos mais tarde.


5.6.07

Avatar




Imagem da Presidência Portuguesa da União Europeia

Esta é a imagem da próxima presidência portuguesa (do Conselho) da União Europeia.

Está no sítio da mesma.



Um estranho mal desfigura a cidade e contudo as gentes dormem


(Foto de Porfírio Silva)

Uma consulta de ELIZA (Eliza-2/5)


O programa ELIZA, desenvolvido por Joseph Weizenbaum no MIT entre 1964 e 1966, estabelece um conversa em linguagem natural (inglês) entre um computador e um utilizador humano.


Na versão mais conhecida e usada pelo seu criador para efeitos de demonstração, a máquina programada desempenha o papel de um psicoterapeuta rogeriano. Um dos elementos de credibilização do sistema consiste precisamente no pressuposto de que um psiquiatra dessa escola incentivará o seu paciente a esclarecer todas as suas afirmações, devolvendo sistematicamente as suas falas com pedidos de melhor esclarecimento sobre os tópicos suscitados. O utilizador do sistema escreve as suas “falas” no teclado e recebe respostas também escritas com tempos de reacção que não desmentem a humanidade do interlocutor. Um exemplo de “conversa”, fornecido pelo próprio Weizenbaum, é apresentado na caixa abaixo. (Clicar sobre a caixa para obter uma imagem aumentada e mais nítida.)


São relatadas as mais diversas histórias acerca da forma espantosa como muitas pessoas, interagindo com este programa, se convenciam de que estavam a conversar com um psicoterapeuta. Por exemplo, uma das secretárias do sector onde Weizenbaum trabalhava terá chegado a pedir aos circunstantes que a deixassem a sós com o “psicoterapeuta” para poder falar com a necessária privacidade.


Amanhã veremos como funcionava o programa.




[Próxima nota desta série: O mecanismo interno de ELIZA.]

4.6.07

Lamentamos mas o dia vai longo e os nossos melhores sonhos já foram vendidos


(Foto de Porfírio Silva)

O "teste de Turing" e o psicoterapeuta automático (Eliza-1/5)


Na posta anterior sugerimos que se consultassem com o "psicoterapeuta" ELIZA, um velhinho programa de computador. Vamos agora (hoje e nos dias seguintes) enquadrar o significado dessa experiência na história das ciências do artificial.


Num artigo de 1950 o matemático Alan Turing lança uma forma muito particular de reflexão acerca da relação entre mente e máquina.


Querendo considerar a questão "as máquinas pensam?", mas considerando-a, nessa forma, uma questão "demasiado desprovida de sentido para merecer discussão", Turing propõe-se expressá-la noutra forma. Para isso introduz o "jogo da imitação". Sejam três pessoas: A, um homem; B, uma mulher; C, um interrogador humano que permanece numa sala separada de A e B. O objectivo do jogo é: para o interrogador, determinar, com base nas perguntas que dirige a A e a B e nas respostas obtidas, qual é o homem e qual é a mulher; para a mulher, ajudar o interrogador (dizendo a verdade); para o homem, enganar o interrogador, fazendo-o crer ser ele a mulher. Para que o tom de voz de A ou de B não ajude o interrogador, as respostas ser-lhe-ão transmitidas por telétipo.


Agora, a questão "as máquinas pensam?" pode ser substituída pela questão seguinte, relativa a um particular computador digital C: "É verdade que, modificando esse computador para ter uma capacidade de memória adequada, aumentando satisfatoriamente a sua velocidade de trabalho e fornecendo-lhe um programa apropriado, podemos fazer com que C desempenhe satisfatoriamente o papel de A no jogo da imitação, sendo o papel de B desempenhado por um homem?". De acordo com a distribuição de papéis no jogo, o desempenho satisfatório do computador diz respeito à capacidade para evitar que o interrogador o identifique como tal.


Nesta segunda fase do jogo, tanto o homem como o computador imitam uma mulher. No entanto, tanto Turing no resto do artigo, como a maioria dos comentadores, ignoram o aspecto "género" da questão. Em geral, o jogo é entendido como dizendo respeito à capacidade de uma máquina para, quanto à sua inteligência expressa no comportamento "escrever em linguagem natural", se fazer passar por um humano quando apreciado precisamente por um humano.


A "aposta" de Turing é então explicitada: por volta do ano 2000 haverá computadores que jogarão tão bem o jogo da imitação que um interrogador humano médio não terá mais do que 70% de hipóteses de fazer uma identificação correcta após 5 minutos de interrogatório, de tal modo que alguém que fale em máquinas pensantes não correrá o risco de ser contraditado. A variadas formas do desafio criado por esta aposta passou a chamar-se "o teste de Turing".


Uma área de desenvolvimento do teste de Turing é a implementação de robots de software que "conversam" com humanos. Várias competições cujo objectivo é passar versões do teste de Turing têm sido organizadas. Talvez a mais famosa seja a que começou a ser organizada em 1991 por Hugh Loebner. Na edição de 1991, além de vários programas terem sido julgados humanos, também aconteceu um humano (que tinha um conhecimento fora do comum da obra de Shakespeare) ser tomado por um programa de computador. Muitos programas deste género seguem o modelo do ELIZA, precisamente o programa que estamos a analisar nesta série de notas.


Amanhã diremos mais sobre o ELIZA.




Ilustração de Ann Witbrock in Copeland, B.J., Artificial Intelligence, Blackwell,Oxford, 1993



[Próxima nota desta série: Uma consulta de ELIZA.]