There are many possibilities de que la AI destruya a la humanidad


      A team of scientists approaches from the front in a new investigation one of our major future fears: ¿Qué ocurre cuando un determinado tipo de intelligencia artificial (IA) avanzada y autodirigida se encuentra con una ambigüedad en su programming que afecta al mundo real? ¿Se volverá loca la IA y empezará tratar de convertir a los humanos en clips o en cualquier otra cosa que sea la versión extrema reductio ad absurdum de su objetivo? Y, lo más importante, ¿cómo podemos evitarlo?

      In their article, researchers from the University of Oxford and the National University of Australia explain a fundamental difficulty point in the design of AI: “Given a few suppositions, we argue that we will encounter a fundamental ambiguity in the data on the objective. Por ejemplo, si proporciamos una gran rewarda para indicar que algo del mundo nos satisface, puede hypotetizar que lo que nos satisfizo fue el envío de la propia rewarda; ninguna observación puede refutarlo”.

      Matrix es un ejemplo de escenario dystópico de IA, en el que una IA que busca explotar recursos reún a la major parte de la humanidad y bombea la Matriz imaginaria en sus cerebros, mientras extracte sus recursos mentales. Esto se denomina “wireheading“o”reward hacking“, una situación en la que una IA avanzada recibe un objetivo muy literally established and encuentra una forma no intencionada de cumplirlo, hackeando el sistema o tomando el control sobre él por completo.

      So basically, IA becomes an ouroboros that comes with its own logical tail. El documento aborda una serie de ejemplo detalles de cómo los objetivos e incentivos programados specifiquente pueden chocar de esta manera. Enumera seis grandes “supuestos” que, si no se evitan, podriana tener “consequencias catastróficas”. Pero, afortunadamente, “casi todos estos supuestos son discutibles o posiblemente evitables”, según el documento. (No nos gusta que diga “casi todos”).

      El documento serve de advertencia sobre algunos problemas estructurales que los programadores should be kept in mind at the time of training AI para que alcancen objetivos cada vez más compleços.

      Un apocalypsis de clips inducido por la IA

      It is difficult to exaggerate the importance of this type of investigation. En el campo de la ética y la philosophy de la IA there is a great exercise of reflection on an IA exposed. El ejemplo cited earlier sobre los clips no es una broma, o mejor dicho, no es sólo una broma: el philosophe de la AI Nick Bostrom lo ideao para transmitar cómo la creación de una superintelligente AI podría salir devastatingamente mal, y desde entonces se ha convertido en un escenario famoso.

      Let’s say that a well-intentioned programmer creates an IA whose objective is to support the manufacture of clips in a factory. Se trata de una funcción muy creíble para una AI de un futuro próximo, algo que requiere decisions y analisis, pero que no es demasiado abierto. The AI ​​could even work together with a human director who will take care of the problems that will occur in the manufacturing space in real time, as well as dictate the definitive decision making (at least until the AI ​​finds a way to be more intelligent que ellos). Suena bien, ¿verdad? Es un buen ejemplo de cómo la IA could ayudar a agilizar y mejorar la vida de los trabajadores industriales e incluso la de sus managers.

      ¿Pero qué pasa si la IA no se programa con cuidado? These AI superintelligentes will operate in the real world, considered by the programmers as an “unknown environment”, because they cannot plan and codify all possible scenarios. El objetivo de utilizar estas IAs de autoprendizaje es, en primer lugar, que conciban soluciones que los humans nunca séría capaces de pensar por sí solos, pero eso conlleva el perileva de no saber lo que la IA podría pensar.

      ¿Y si empieza a pensar en formas poco orthodoxas de aumentar la producción de clips? A superintelligent AI could teach itself to make the largest amount of clips for any medium.

      ¿Y si empieza a absorb otros recursos para convertirlos en clips, o decide, por ejemplo, substitute a su gestor humano? El ejemplo suena gracioso en cierto modo: muchos experts opinan que la IA seguirá siendo bastante primitive durante un tiempo relatively largo, sin la capacidad de “inventar” la idea de matar, o robar, o algo peor. Pero si se diera rienda suelta a una AI lo suficiente inteligente y creativa, la concluzione absurd del ejercicio de pensamiento es un sistema solar ento sin seres humanos vivos, completado con una sphere de Dyson para recoger energía para hacer nuevos clips por miles de millones.

      But this is only a scenario of an AI unfolding, and the researchers explain in great detail other forms in which an AI could hack the system and work on potentially “catastrophic” forms that we did not foresee.

      Some possible solutions

      There is a problem of programming in play, which is the nature of the assumptions in which researchers from Oxford and the National University of Australia have focused in their article. Un sistema sin contexto exterior debe prepararse con mucho cuidado para hacer bien una taska y recibir cualquier candidad de autonomia. There are logical structures and other programming concepts that will help define clearly the scope and purpose of an IA. Muchas de estas tácticas son las mismas que los programadores utilizacan hoy en día para evitar errores, como los bucles infinitos que pueden bloquear el software. Sólo que un paso en falso en una futura IA avanzada could cause much more damage than the loss of a saved game.

      Sin embargo, no todo está perdido. The IA is still something that we do nosotros mismos, y los researchers han señalado formas concretas en las que podemos ayudar a prevenir resultados adversos:

      • Optar por el aprendizaje por imitación, en el que la AI trabaja imitando a los humanos en una especie de aprendizado supervisado. Se trata de un tipo de IA totally diferente y no tan útil, pero puede conllevar los mismos perigros potenciales.
      • Make AI give priority to the objectives that can be achieved in a short period of time – what is known as “myopia” – instead of looking for solutions that are not orthodox (and potentially disastrous) in the long term.
      • Aislar la IA de redes externas como Internet, limiting the amount of information and influence that can be acquired.
      • Use quantification, an approach developed by IA expert Jessica Taylor, in which IA maximizes (and optimizes) human-like options instead of open rational ones.
      • Incorporar a la IA la aversión al riesgo, para que sea menos probable que se vuelva loca y abandon el statu quo en favor de la experimentationación.

        Pero también se reduce a la questión de si alguna vez podremos completamente controlar una AI superinteligente que sea capáz de pensar por sí misma. ¿Qué pasaría si nuestra peor pesadilla se hiciera realidad y una IA sintiente tuviera acceso a recursos ya una gran red?

        Da miedo imaginar un futuro en el que la IA pudiera empezar a hervir a los seres humanos para extracter sus oligoelementos con el fin de fabricar clips. Pero si se estudia el problema de forma directa y detaileda, los inquisitors pueden establizador unas buenas prácticas claras para que los teóricos y los programmeradores sigan desarrollando una IA sofisticada.

        Y, en realidad, ¿quién necesita tantos clips?

.

Leave a Comment

Your email address will not be published. Required fields are marked *