O risco dos robôs assassinos

O uso de robôs assassinos vem se tornando algo corriqueiro em zonas de confronto. Este tipo de atividade é liderado pelo EUA e outros países possuem em sua agenda militar a aquisição de tais dispositivos. Harvard Law School de Direitos Humanos e a Human Rights International defendem a necessidade de regulamentação e ética no uso de tecnologias autônomas na guerra.

Entre os argumentos está a defesa da proibição do desenvolvimento e uso de armas totalmente autônomas. Robôs totalmente autônomos podem decidir por si próprios quando eliminar um inimigo.

Segundo o relatório de 50 páginas, tais dispositivos serão desenvolvidos dentro de 20 a 30 anos ou “ainda mais cedo”. Atualmente sistemas de armas que exigem pouca intervenção humana já existem.

O EUA trabalha com robôs de ataque no Paquistão, Afeganistão, Iêmen e em outros lugares. Mas estes são controlados por operadores humanos em bases no solo e não são capazes de matar sem autorização.

No entanto, laboratórios espalhados pelo mundo em diversos países estudam e buscam meios de criar robôs totalmente autônomos para ações de guerra. Existem pesados investimentos neste tipo de pesquisa.

O problema com a entrega de poder de decisão, mesmo para os robôs mais sofisticados é que não haveria nenhuma maneira clara de fazer qualquer juízo para os inevitáveis erros, disse Noel Sharkey, professor de robótica da Universidade de Sheffield. “Se um robô cometer um erro ou crime, quem é o responsável? Certamente não será o robô”, disse ele.

O robô pode levar uma arma de destruição em massa sem que exista uma maneira de determinar quem é responsável pela ação e isso vai ser um grande problema na garantia da obediência das leis da guerra. Como iremos determinar o proprietário do robô assassino?

Sem uma rigorosa regulamentação e controle, corremos o risco de convivermos num futuro próximo, com robôs assassinos totalmente anônimos.


Garanta sua privacidade!
Baixe aqui o Navegador Brave.