sicnot

Perfil

Mundo

MIT quer humanos a ajudar máquinas a decidir (quem morre)

O dilema: o acidente é inevitável. Quem morre?

MIT

A "Máquina Moral" é uma plataforma online que recolhe a perspetiva humana em decisões que terão de ser tomadas por uma máquina. Por exemplo, quando um carro sem condutor se depara com o dilema do mal menor: em quem acertar - para evitar outros - num acidente de viação.

O acidente é inevitável. Quem morre? É esta a questão que os investigadores do Massachusetts Institute of Technology (MIT) querem ver respondida pelas pessoas que acedem à sua "Máquina Moral".

Não há uma resposta certa ou errada, é uma questão moral que depende do livre arbítrio humano. Que uma máquina obviamente não tem.

Os investigadores querem obter o máximo de respostas para poder extrair a que foi escolhida pela maioria e introduzi-la na máquina.

Na simulação são apresentados alguns cenários interessantes. Será a vida humana mais valiosa que a de um animal? Deverão ser atropelados dois criminosos e dois inocentes ou deverá morrer o condutor e três passageiros (todos inocentes)? Serão os idosos menos valiosos que os jovens? Uma mulher será mais valiosa que um homem? Tudo questões sem respostas certas em cenários que têm uma ínfima hipótese de ocorrer durante a vida.

De qualquer forma, serão respostas úteis para os programadores de carros sem condutor, porque darão a perspetiva humana de como as pessoas acham que um carro deve atuar em tais circunstâncias únicas.

  • Alterações nos horários das farmácias têm o objetivo de evitar duplicação de serviços
    1:50
  • Troika nem sempre protegeu os mais vulneráveis, conclui avaliação do FMI

    Economia

    O organismo de avaliação independente do FMI concluiu que as medidas aplicadas pela troika em Portugal nem sempre protegeram as pessoas com menos rendimentos, apontando que a primeira preocupação do Fundo era a redução dos défices, apurou o gabinete independente de avaliação do Fundo Monetário Internacional (FMI),