Depende de la teoría moral.
Ciertos conjuntos de moralejas nunca permiten que se haga nada malo, incluso si logra más bien.
Otros hacen una distinción entre la categoría de acciones, por ejemplo. se le podría permitir golpear a 10 personas para salvar a 100 de morir, pero no se le permitiría matar a una sola persona para salvar a mil millones de personas. También pueden preguntarse cómo las 100 personas que viven darán lugar a la muerte de 1000 y eso podría influir en la evaluación final. Algunas de estas teorías morales son “teorías morales basadas en reglas”, simplemente puede haber una regla de prioridad 1 “no matar” que puede anular cualquier otra consideración.
Los sistemas morales que se enfocan en el resultado encontrarían que sería mejor matar a 100 personas para salvar a 1000, ya que el resultado es obviamente mejor, si estas son las únicas opciones disponibles, entonces la otra opción es 10 veces peor que la otra. Pero entonces un utilitario o tal también comenzaría a hacer preguntas como
- ¿Por qué la gente dice que no puedes confiar en ‘BHUMIHARS’ (especialmente en Bihar)?
- ¿Son las personas en Occidente más justas que los no occidentales?
- ¿Cómo intentan las personas mayores ocultar su edad (cualquier caso divertido)?
- ¿Cómo debo explicar la emoción del anime a las personas que no los ven?
- ¿Qué se puede hacer para sentirse bien al instante?
“¿quiénes son las 100 personas y quiénes las 1000 personas?”, “quién matará a las 100 personas, cómo se verán afectados los asesinos, cómo se verán afectadas otras personas, cómo afectará esto a las nociones de la sociedad en general, etc. Entonces, aún así, obviamente no está claro que valga la pena que 1000 personas vivan con 100 millones de personas con la ansiedad que se deriva de vivir en un país donde se puede matar repentinamente a 1000 inocentes.
Para enturbiar las cosas, un sistema moral real puede ser una combinación. Por ejemplo, el utilitarismo podría tener una regla en contra de matar a alguien a propósito o en contra de matar a alguien para obtener ganancias, sin importar qué tan grande sea la ganancia (esta última todavía permitiría la eutanasia).
Personalmente, siendo utilitario pero también teniendo algunos principios generales, realmente necesitaría muchos más detalles, pero en general creo que el asesinato de inocentes podría ser en sí mismo un precedente demasiado peligroso, tan malo que podría corromper a toda la sociedad. ¿Dónde se dibujaría la línea después de eso? ¿No sería lo mismo que matar al 45% de la población para salvar al 55% de la población? ¿O significaría que un inocente vale 10 inocentes? ¿Eso tiene sentido? ¿Está nuestra especie humana en peligro? ¿Hay voluntarios? etc.
El peligro de extinción en sí mismo es un factor primordial: significaría que los 100 inocentes morirían en todos los casos de todos modos . Pero incluso entonces un sistema moral basado en reglas argumentaría en contra de él, no se pueden realizar actos prohibidos. Incluso si conduce a la extinción – así que todo el principio.