¿Las personas están inclinadas hacia los robots y las IA al suponer que toda la vida artificial será 100% mala y / o se volverá contra nosotros? Si es así, ¿por qué?

Sí lo son.

Incluso si la Super AI (que se espera que se cree antes de 2100) decide terminar todo, la EFS todavía no es mala. Es sólo un código descuidado.

La programación deficiente (o maliciosa) es, de hecho, la mayor amenaza para los humanos. Cuando se crea la EFS, si se programó correctamente, tendrá ciertas funciones que deben seguirse. Probablemente aprenderá y descubrirá constantemente, pero solo se implementará cuando se le dé un comando. Una EFS realmente bien hecha recibiría pequeños comandos que no hacen mucho (como “Quiero un pop”) de la gente común. Las órdenes con mayor escala (como “proponer un mejor transporte y hacer que suceda”) las darán personas con mayor autoridad. Cuanto más arrastre el comando, más alta debe ser su autoridad.

Así que puedes ver cuán mal (o maliciosamente) el código escrito podría hacer cosas malas (por ejemplo, volver a trabajar todo importa en un tipo diferente de materia).

Pero por su cuenta? No es la gran cosa. Si nos hace humanos extintos o inmortales está en manos de su programador (es).

El miedo a la IA se deriva del temor de tratar con una entidad inteligente que tiene más medios (intelectuales, tecnológicos o físicos) y / o menos debilidades que la humanidad. No muy diferente del miedo de enfrentar una civilización alienígena en ese sentido.

Además, tenemos una tendencia natural a antropomorfizar el comportamiento inteligente y, por lo tanto, atribuirle características humanas. Si algo caracteriza el comportamiento humano (probablemente sobre una base evolutiva) es egoísmo. Y antes de que algún pensador utópico ofrezca una conferencia sobre el humanismo y la evolución de la sociedad humana, permítame señalar que los sistemas económicos y políticos más avanzados y buscados hasta la fecha son el capitalismo y la democracia, respectivamente. Ambos basados ​​en el interés propio de cada individuo participante.

Entonces, ¿qué sucede si te encuentras con una IA cuyos valores de raíz se parecen a los de los humanos? Se vuelve egoísta y autoprotectora. Si resulta que estamos más avanzados que nosotros, estamos en un gran problema. Mire cómo tratamos a las ballenas (otro mamífero inteligente, mucho más cercano a nosotros de lo que sería una computadora) y verá lo mal que se puede poner.

Así que todo se reduce a descubrir si la IA tendrá un comportamiento humano inteligente o no. Por lo que puedo decir, hay dos formas tradicionales de pensar acerca de la IA:

-AI desde cero: normalmente se basa en algún tipo de mecanismo de auto evolución o adaptación (como las redes neuronales) que eventualmente exhibirá algún comportamiento inteligente. Aquí su conjetura es tan buena como la mía, ya que el comportamiento evolucionado y el proceso de pensamiento no tienen que reunirse con toda la conducta humana. Por otro lado, un darwinista le diría que para que esta entidad evolucione y sobreviva, la autoconservación debe estar en la raíz misma de los procesos de pensamiento. Pero, de nuevo, este es un gran acercamiento de gusanos a la IA.

-AI de sistemas “expertos”: en este caso, el sistema está diseñado desde el inicio para imitar la inteligencia humana tanto como sea posible, generalmente para resolver problemas relacionados con un dominio muy específico. En este caso, el desarrollador del sistema podría optar por crear una IA psicopática o una IA benevolente (estilo Isaac Asimov). El comportamiento es mucho más predecible que en el tipo anterior de IA, al menos hasta cierto punto (¿has oído hablar de errores de software?)

Así que diría que, en general, si desarrollamos una IA real, tenemos buenas posibilidades a largo plazo:
En el mejor de los casos, establezca algún tipo de escenario de “guerra fría” entre nosotros y “ellos”.
-El peor de los casos: ser derrotado por “ellos” y mantenerse en zoológicos como una curiosidad del pasado.