¿La gente realmente está tratando de prohibir los robots asesinos? Si es así, ¿por qué?

Hay mucha confusión sobre lo que los robots son capaces de hacer de forma autónoma. El público piensa en I, Robot y Terminator, pero la realidad es mucho más prosaica.

Es muy fácil confundir el software de reconocimiento de patrones de imagen de uso general (http://www.dailymail.co.uk/scien…). En el estado actual de la IA, los robots tienen la moral y el buen juicio de una tostadora.

Un robot terrestre puede moverse por sí solo. El estado del arte es evitar caer en agujeros. Los drones aéreos pueden volar a una ubicación y eliminar las ordenanzas según las indicaciones, pero no pueden distinguir a un objetivo legítimo de un grupo de excursionistas sin un controlador humano.

La preocupación es si los militares creen que están obteniendo sistemas que son más capaces de lo que son. El profesor Sharkey tiene razón, no hay software que pueda discriminar entre objetivos civiles y militares. Los militares deberían estar igual de preocupados: quien autorice el uso de robots asesinos entre una población civil podría ser culpable de un crimen de guerra. Los robots son propiedad y sus propietarios siempre son responsables de cualquier accidente, daño o muerte causados ​​por un uso inadecuado.