Planificación de la carrera de IA para ayudar a garantizar el desarrollo seguro de AGI | por GoodAI | Blog del instituto de hoja de ruta de IA

Este artículo acompaña una hoja de ruta visual que puede ver y descargar aquí.

Roadmapping es una herramienta útil que nos permite mirar hacia el futuro, predecir diferentes caminos posibles e identificar áreas que podrían presentar oportunidades o problemas. El objetivo es visualizar diferentes escenarios para prepararse y evitar escenarios que puedan conducir a un futuro indeseable o, peor aún, a un desastre. También es un ejercicio para visualizar un futuro deseado y encontrar el camino óptimo para lograrlo.

Esta hoja de ruta describe tres escenarios hipotéticos en el desarrollo de un sistema de inteligencia general artificial (AGI), desde la perspectiva de una empresa imaginaria (C1). El enfoque principal está en la carrera de la IA, donde las partes interesadas se esfuerzan por alcanzar una IA poderosa y sus implicaciones en la seguridad. Traza posibles decisiones tomadas por actores clave en varios «estados de cosas», que conducen a diversos resultados. La codificación de colores del semáforo se utiliza para visualizar los resultados potenciales con verde mostrando resultados positivos, rojo (negativo y naranja) en el medio.

El objetivo de esta hoja de ruta no es presentar al espectador todos los escenarios posibles, sino algunos ejemplos vívidos. La hoja de ruta se centra principalmente en AGI, que presumiblemente tendrá un potencial transformador y podría afectar dramáticamente a la sociedad. [1].

Esta hoja de ruta se aventura intencionalmente en algunos de los escenarios extremos para provocar la discusión sobre el papel de AGI en los cambios de paradigma.

Asumiendo que el potencial de AGI es tan grande, y ser el primero en crearlo podría dar una ventaja sin precedentes [2] [3], existe la posibilidad de que se implemente un AGI antes de que se pruebe adecuadamente. En este escenario, C1 crea AGI mientras que otros aún compiten para completar la tecnología. Esto podría llevar a que C1 se ponga ansioso, despliegue el AGI antes de que se garantice la seguridad y pierda el control del mismo.

Lo que suceda a continuación en este escenario dependería de la naturaleza del AGI creado. Si la automejora recursiva de AGI continúa demasiado rápido para que los desarrolladores se pongan al día, el futuro estaría fuera de las manos de la humanidad. En este caso, dependiendo de los objetivos y valores de la AGI, podría conducir a un escenario apocalíptico o una especie de convivencia, donde algunas personas logran fusionarse con la AGI y cosechar sus beneficios, y otras no.

Sin embargo, si la tasa de automejora del AGI no es exponencial, puede haber suficiente tiempo de maniobra para volver a controlarlo. El AGI podría comenzar a alterar las estructuras socioeconómicas. [4], empujando a los grupos afectados a la acción. Esto podría conducir a algún tipo de consorcio de seguridad AGI, que incluye a C1, que podría dedicarse a desarrollar e implementar medidas de seguridad para controlar la tecnología. Por lo tanto, este consorcio se crearía por necesidad y probablemente permanecería unido para garantizar que AGI siga siendo beneficioso en el futuro. Una vez que el AGI esté bajo control, teóricamente podría conducir a un escenario en el que se pueda (re)crear transparentemente un AGI poderoso y seguro.

AGI potente y seguro

El resultado AGI potente y seguro se puede alcanzar tanto en el escenario 1 como en el 2 (ver diagrama). Es posible que algún tipo de prototipo AGI poderoso salga al mercado y, si bien no representará una amenaza existencial, probablemente cause importantes trastornos sociales y la automatización de la mayoría de los trabajos. Esto podría conducir a la necesidad de una forma de “ingreso básico universal”, o un modelo alternativo que permita compartir los ingresos y beneficios de AGI entre la población. Por ejemplo, el público en general podría reclamar su participación en la nueva “economía de IA” a través de mecanismos provistos por una alianza inclusiva (ver más abajo). Tenga en cuenta que el papel de los gobiernos como proveedores de programas de apoyo público podría reducirse significativamente a menos que los gobiernos tengan acceso a AGI junto con poderosos actores económicos. Las palancas tradicionales que impulsan los gobiernos para obtener recursos a través de los impuestos pueden no ser suficientes en una nueva economía de IA.

En este escenario, AGI se ve como una herramienta poderosa, que le dará a su creador una gran ventaja económica y social. No se considera principalmente aquí (como se hace arriba) como un riesgo existencial, sino como una causa probable de muchas interrupciones y cambios en el poder. Los desarrolladores mantienen la mayor parte de la investigación privada y las alianzas no superan las coaliciones de relaciones públicas superficiales; sin embargo, se trabaja mucho en la seguridad de la IA. Dos caminos posibles que podría tomar este escenario son un enfoque colaborativo para el desarrollo o uno sigiloso.

Enfoque colaborativo

Con varios actores pidiendo colaboración en el desarrollo de AGI, es probable que se desarrolle algún tipo de consorcio. Esto podría comenzar como un ejercicio de construcción de confianza ad-hoc entre algunos jugadores que colaboran en temas de seguridad de “baja participación”, pero podría convertirse en una estructura internacional más grande de desarrollo conjunto de AGI. Hoy en día, el camino hacia un escenario positivo se está allanando con iniciativas notables, incluida la Asociación sobre IA. [5]IEEE trabajando en un diseño alineado éticamente [6]el Instituto del Futuro de la Vida [7] y muchos más. En esta hoja de ruta, se usa como ejemplo una organización hipotética de escala global, donde los miembros colaboran en algoritmos y seguridad (titulada «United AI» análoga a Naciones Unidas). Es más probable que esto conduzca al estado «AGI potente y seguro» descrito anteriormente, ya que todo el talento global disponible se dedicaría y podría contribuir a las características y pruebas de seguridad.

Enfoque sigiloso

También podría ocurrir lo contrario y los desarrolladores podrían trabajar sigilosamente, aún haciendo el trabajo de seguridad internamente, pero la confianza entre las organizaciones no sería lo suficientemente fuerte como para fomentar los esfuerzos de colaboración. Esto tiene el potencial de ir en muchos caminos diferentes. La hoja de ruta se centra en lo que podría suceder si surgen varias AGI con diferentes propietarios al mismo tiempo o si C1 tiene el monopolio de la tecnología.

Múltiples AGI
Múltiples AGI podrían surgir al mismo tiempo. Esto podría deberse a una «fuga» en la empresa, a otras empresas que se acercan al mismo tiempo, o si sus creadores regalan voluntariamente AGI.

Este camino también tiene varios potenciales dependiendo de los objetivos de los creadores. Podríamos llegar a una “guerra de AGIs” donde los diferentes actores luchen por el control absoluto. Sin embargo, podríamos encontrarnos en una situación de estabilidad, similar al mundo posterior a la Segunda Guerra Mundial, donde se desarrolla y comienza a funcionar una economía AGI separada con múltiples actores. Esto podría conducir a dos mundos paralelos de personas que tienen acceso a AGI y aquellos que no, o incluso aquellos que se fusionan con AGI creando una sociedad de «dioses» de AGI. Esto nuevamente podría conducir a una mayor desigualdad, o una economía de abundancia, dependiendo de las motivaciones de los «dioses» de AGI y si eligen compartir los frutos de AGI con el resto de la humanidad.

Monopolio AGI
Si C1 logra mantener a AGI dentro de sus paredes a través de la cultura del equipo y las medidas de seguridad, podría ir de varias maneras. Si C1 tuviera malas intenciones, podría usar AGI para conquistar el mundo, lo que sería similar a la «guerra de AGI» (arriba). Sin embargo, es poco probable que la competencia tenga una oportunidad contra una tecnología tan poderosa. También podría conducir a los otros dos estados finales anteriores: si C1 decide compartir los frutos de la tecnología con la humanidad, podríamos ver una economía de abundancia, y si no lo hace, la sociedad probablemente será muy desigual. Sin embargo, se explora otra posibilidad y es si C1 no tiene interés en este mundo y continúa operando en sigilo una vez que se crea AGI. Con el potencial de la tecnología C1 podría abandonar la tierra y comenzar a explorar el universo sin que nadie se dé cuenta.

Este escenario ve una transición gradual de AI estrecha a AGI. A lo largo del camino se construye la infraestructura y los powershifts son más lentos y más controlados. Ya estamos viendo que la IA limitada ocupa nuestra vida cotidiana en toda la economía y la sociedad con trabajos manuales cada vez más automatizados. [8] [9]. Esta progresión puede dar lugar a un consorcio de seguridad de IA limitado que se centre en aplicaciones de IA limitadas. Este modelo de seguridad / regulación estrecha de IA podría usarse como un espacio de creación de confianza para los jugadores que continuarán desarrollando AGI. Sin embargo, los actores que buscan únicamente AGI y eligen no desarrollar tecnologías de IA estrechas podrían quedar fuera de este esquema.

A medida que los trabajos se automaticen cada vez más, los gobiernos deberán asegurar más recursos (a través de impuestos u otros medios) para apoyar a las personas afectadas. Este aumento gradual en el apoyo podría conducir a un ingreso básico universal o un modelo similar (como se describe anteriormente). Eventualmente se alcanzaría el AGI y nuevamente los estados finales dependerían de la motivación del creador.

Aunque esta hoja de ruta no es un resumen completo de todos los escenarios posibles, es útil para demostrar algunas posibilidades y darnos ideas de en qué deberíamos centrarnos ahora.

Colaboración

Mirando la hoja de ruta parece evidente que una de las claves para evitar un escenario apocalíptico, o una guerra de AGIs, es la colaboración entre actores clave y la creación de algún tipo de consorcio de seguridad de IA o incluso una estructura internacional de desarrollo conjunto de IA con vínculos más fuertes entre los actores («United AI»). En el primer escenario vimos la creación de un consorcio por necesidad después de que C1 perdiera el control de la tecnología. Sin embargo, en los otros dos escenarios vemos ejemplos de cómo un consorcio de seguridad podría ayudar a controlar el desarrollo y evitar escenarios no deseados. Un consorcio que esté orientado hacia la seguridad, pero también hacia el bienestar humano, también podría ayudar a evitar grandes desigualdades en el futuro y promover una economía de la abundancia. Sin embargo, identificar los incentivos adecuados para cooperar en cada momento sigue siendo uno de los mayores desafíos.

Renta básica universal, dividendo básico universal o similar

Otro tema que parece inevitable en una economía de IA o AGI es un cambio hacia una «sociedad sin empleo» donde las máquinas realizan la mayoría de los trabajos. Un estado en el que, debido a la automatización, la parte predominante de la población mundial pierde el trabajo es algo que debe planificarse. Si se trata de un cambio a la renta básica universal, dividendo básico universal [10] distribuido desde un fondo de riqueza social que invertiría en acciones y bonos, o un modelo similar que asegure que los cambios sociales sean compensados, debe ser gradual para evitar interrupciones y caos a gran escala. El consorcio mencionado anteriormente también podría centrarse en la transición social a este nuevo sistema. Consulte esta publicación si desea leer más sobre la IA y el futuro del trabajo.

Resolviendo la carrera de la IA

La hoja de ruta demuestra las implicaciones de una carrera tecnológica hacia la IA, y aunque se sabe que la competencia impulsa la innovación, debemos ser conscientes de los riesgos asociados con la carrera y buscar caminos para evitarlos (por ejemplo, aumentando la confianza y la colaboración). El tema de la carrera de IA se ha ampliado en el Desafío General de IA creado por GoodAI, donde los participantes con diferentes antecedentes de todo el mundo han presentado sus propuestas de mitigación de riesgos. Las propuestas variaron en su definición de la carrera, así como en sus métodos para mitigar las trampas. Incluyeron métodos de autorregulación para organizaciones, coordinación internacional, marcos de gestión de riesgos y muchos más. Puede encontrar las seis entradas ganadoras de premios en https://www.general-ai-challenge.org/ai-race. Alentamos a los lectores a que nos den su opinión y se basen en las ideas desarrolladas en el desafío.

[1] Armstrong, S., Bostrom, N. y Shulman, C. (2016). Carrera al precipicio: un modelo de desarrollo de inteligencia artificial. IA Y SOCIEDAD, 31(2), 201–206.

[2] Allen, G. y Chan, T. (2017). Inteligencia Artificial y Seguridad Nacional, Informe Técnico. Escuela Kennedy de Harvard, Universidad de Harvard, Boston, MA.

[3] Bostrom, N. 2017. Implicaciones estratégicas de la apertura en el desarrollo de IA.
Política global 8: 135–148.

[4] Brundage, M., Shahar, A., Clark, J., Allen, G., Flynn, C., Farquhar, S., Crootof, R. y Bryson, J. (2018). El uso malicioso de la inteligencia artificial: previsión, prevención y mitigación.

[5] Asociación en IA. (2016). Los líderes de la industria establecen una asociación sobre las mejores prácticas de IA

[6] IEEE. (2017). IEEE lanza diseño alineado éticamente, versión 2 para mostrar «ética en acción» para el desarrollo de sistemas autónomos e inteligentes (A/IS)

[7] Tegmark, M. (2014). El futuro de la tecnología: beneficios y riesgos

[8] Havrda, M. y Millership, W. (2018). IA y trabajo: ¿un cambio de paradigma?. Blog de GoodAI Medio.

[9] Manyika, J., Lund, S., Chui, M., Bughin, J., Woetzel, J., Batra, P., Ko, R. y Sanghvi, S.
(2017). Empleos perdidos, empleos ganados: lo que significará el futuro del trabajo para los empleos, las habilidades y los salarios. Informe del Instituto Global McKinsey.

[10] Bruenig, M. (2017). Fondo de Bienestar Social para América. Proyecto de Política Popular.

¿Que te ha parecido?

Deja un comentario