Experiência divertida testa a Primeira Lei de Asimov (com video)

0
Experiência divertida testa a Primeira Lei de Asimov (com video)
A Primeira Lei da Robótica de Isaac Asimov diz que "um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal".

Isso parece bastante simples, mas uma experiência recente mostra o quão difícil vai ser conseguir fazer com que as máquinas tomem a decisão certa.

O roboticista Alan Winfield do Bristol Robotics Laboratory, no Reino Unido, criou recentemente uma experiência para testar uma versão simplificada da Primeira Lei de Asimov.

Ele e a sua equipa programaram um robô para evitar que outros autómatos, mimetizando os seres humanos, caíssem num buraco. Veja abaixo o video da experiência.


Na primeira experiência, o robô foi bem sucedido na sua tarefa. Com o robô humano a dirigir-se para o buraco, o robô correu para empurrá-lo para fora do caminho do perigo. Porém, quando a equipa adicionou um segundo robô humano, o robô foi forçado a escolher quem salvar.

A maior parte das vezes ele conseguiu salvar apenas um robô humano, mas algumas vezes ele conseguiu salvar ambos, afirma a NewScientist. Mas em 14 dos 33 testes, o robô perdeu tanto tempo a preocupar-se com a sua decisão que os robôs humanos caíram no buraco.

Winfield descreve o seu robot como um "zumbi ético" que não tem escolha além de se comportar de determinada maneira. Embora possa salvar outros de acordo com um código programado de conduta, não entender o raciocínio por trás das suas ações.

Experiências como estas estão a tornar-se cada vez mais importantes, sobretudo tendo em conta que os robôs podem conduzir carros, onde terão de pesar a segurança dos seus passageiros contra o risco de prejudicar outros condutores ou pedestres. Estes são cenários extremamente complicados.

Mas como assinala o artigo da NewScientist, robôs projetados para o combate militar pode oferecer algumas soluções. Ronald Arkin, um cientista de computação da Georgia Institute of Technology, em Atlanta, construiu um conjunto de algoritmos para robôs militares, apelidados de "governador ético".

Tais algoritmos destinam-se a ajudar robôs a tomar decisões inteligentes no campo de batalha. Testes em combate simulado, mostraram que os drones podem escolher não atirar, ou minimizar baixas durante uma batalha perto de uma área protegida de combate, como uma escola ou hospital. [io9]
Temas

Postar um comentário

0Comentários
Postar um comentário (0)