El miedo a la IA se deriva del temor de tratar con una entidad inteligente que tiene más medios (intelectuales, tecnológicos o físicos) y / o menos debilidades que la humanidad. No muy diferente del miedo de enfrentar una civilización alienígena en ese sentido.
Además, tenemos una tendencia natural a antropomorfizar el comportamiento inteligente y, por lo tanto, atribuirle características humanas. Si algo caracteriza el comportamiento humano (probablemente sobre una base evolutiva) es egoísmo. Y antes de que algún pensador utópico ofrezca una conferencia sobre el humanismo y la evolución de la sociedad humana, permítame señalar que los sistemas económicos y políticos más avanzados y buscados hasta la fecha son el capitalismo y la democracia, respectivamente. Ambos basados en el interés propio de cada individuo participante.
Entonces, ¿qué sucede si te encuentras con una IA cuyos valores de raíz se parecen a los de los humanos? Se vuelve egoísta y autoprotectora. Si resulta que estamos más avanzados que nosotros, estamos en un gran problema. Mire cómo tratamos a las ballenas (otro mamífero inteligente, mucho más cercano a nosotros de lo que sería una computadora) y verá lo mal que se puede poner.
Así que todo se reduce a descubrir si la IA tendrá un comportamiento humano inteligente o no. Por lo que puedo decir, hay dos formas tradicionales de pensar acerca de la IA:
-AI desde cero: normalmente se basa en algún tipo de mecanismo de auto evolución o adaptación (como las redes neuronales) que eventualmente exhibirá algún comportamiento inteligente. Aquí su conjetura es tan buena como la mía, ya que el comportamiento evolucionado y el proceso de pensamiento no tienen que reunirse con toda la conducta humana. Por otro lado, un darwinista le diría que para que esta entidad evolucione y sobreviva, la autoconservación debe estar en la raíz misma de los procesos de pensamiento. Pero, de nuevo, este es un gran acercamiento de gusanos a la IA.
-AI de sistemas “expertos”: en este caso, el sistema está diseñado desde el inicio para imitar la inteligencia humana tanto como sea posible, generalmente para resolver problemas relacionados con un dominio muy específico. En este caso, el desarrollador del sistema podría optar por crear una IA psicopática o una IA benevolente (estilo Isaac Asimov). El comportamiento es mucho más predecible que en el tipo anterior de IA, al menos hasta cierto punto (¿has oído hablar de errores de software?)
Así que diría que, en general, si desarrollamos una IA real, tenemos buenas posibilidades a largo plazo:
En el mejor de los casos, establezca algún tipo de escenario de “guerra fría” entre nosotros y “ellos”.
-El peor de los casos: ser derrotado por “ellos” y mantenerse en zoológicos como una curiosidad del pasado.