Com o desenvolvimento de carros sem motorista, surge o problema de dotá-los de softwares que lidem com dilemas morais.
Caso clássico: você vê que um trem vai matar 5 pessoas, mas tem a chance de desviá-lo para que mate só uma. O que fazer?
Como programar um carro sem motorista para os casos abaixo?
1) O carro vai cair num abismo. O único jeito de salvar o passageiro é abalroar outro carro, fazendo-o cair e matando quem estiver dentro.
2) Um carro com 5 bandidos avança o sinal. Opções: seguir em frente e matar os bandidos ou desviar e matar um cientista que descobriu a cura do câncer.
No primeiro caso, a escolha é entre salvar o dono do carro ou matá-lo para salvar um desconhecido.
No segundo caso, a decisão de matar os bandidos pode parecer óbvia porque é um caso extremo, mas como o software vai atribuir valores às pessoas entre esses extremos? E se ele decidir que a vida do outro passageiro vale mais que a sua?
O ateísmo é uma consequência em mim, não uma militância sistemática.
'' O homem sábio molda a sí mesmo, os tolos só vivem para morrer.'' (O Messias de Duna - F.Herbert)
Direitos reservados de acordo com cada publicação, 2001 ~ 2014, Fórum Religião é Veneno.
As opiniões expressas e o conteúdo publicado neste fórum por seus usuários são de responsabilidade exclusiva dos seus respectivos autores e não representam as opiniões dos administradores e moderadores do "Religião é Veneno".
Comentários
Bem, é melhor deixar como está, com motorista!
'' O homem sábio molda a sí mesmo, os tolos só vivem para morrer.'' (O Messias de Duna - F.Herbert)