El debate sobre si la IA representa un riesgo existencial está dividiendo a la tecnología

En una audiencia en el Congreso esta semana, el director ejecutivo de OpenAI, Sam Altman, hizo un claro recordatorio de los peligros de la tecnología que su empresa ha ayudado a difundir entre el público.

Advirtió sobre posibles campañas de desinformación y manipulación que podrían causar tecnologías como el chatbot ChatGPT de la compañía, y pidió una regulación.

La IA podría “causar un daño significativo al mundo”, dijo.

El testimonio de Altman surge como un debate sobre si la inteligencia artificial podría invadir el mundo está pasando de la ciencia ficción a la corriente principal, dividiendo a Silicon Valley y a las mismas personas que están trabajando para llevar la tecnología al público.

Las antiguas creencias marginales de que las máquinas podrían superar repentinamente la inteligencia humana y decidir destruir a la humanidad están cobrando fuerza. Y algunos de los científicos más respetados en el campo están acelerando sus propias líneas de tiempo para cuando piensen que las computadoras podrían aprender a pensar más que los humanos y volverse manipuladoras.

Pero muchos investigadores e ingenieros dicen que las preocupaciones sobre las IA asesinas que evocan a Skynet en las películas de Terminator no tienen sus raíces en la buena ciencia. En cambio, distrae de los problemas muy reales que la tecnología ya está causando, incluidos los problemas que Altman describió en su testimonio. Está creando un caos de derechos de autor, está sobrealimentando las preocupaciones sobre la privacidad y la vigilancia digital, podría usarse para aumentar la capacidad de los piratas informáticos para romper las defensas cibernéticas y está permitiendo que los gobiernos desplieguen armas mortales que pueden matar sin control humano.

El debate sobre la IA malvada se ha intensificado a medida que Google, Microsoft y OpenAI lanzan versiones públicas de tecnologías innovadoras que pueden entablar conversaciones complejas y evocar imágenes basadas en indicaciones de texto simples.

“Esto no es ciencia ficción”, dijo Geoffrey Hinton, conocido como el padrino de la IA, quien dice que recientemente se retiró de su trabajo en Google para hablar más libremente sobre estos riesgos. Ahora dice que una IA más inteligente que la humana podría estar aquí en cinco a 20 años, en comparación con su estimación anterior de 30 a 100 años.

“Es como si los extraterrestres hubieran aterrizado o estuvieran a punto de aterrizar”, dijo. “Realmente no podemos asimilarlo porque hablan bien inglés y son muy útiles, pueden escribir poesía, pueden responder cartas aburridas. Pero en realidad son extraterrestres”.

Aún así, dentro de las empresas de Big Tech, muchos de los ingenieros que trabajan en estrecha colaboración con la tecnología no creen que una adquisición de IA sea algo por lo que la gente deba preocuparse en este momento, según conversaciones con trabajadores de Big Tech que hablaron bajo condición de anonimato para compartir debates internos de la empresa.

“De los investigadores que practican activamente en esta disciplina, muchos más se centran en el riesgo actual que en el riesgo existencial”, dijo Sara Hooker, directora de Cohere para IA, el laboratorio de investigación de la empresa emergente de IA Cohere, y ex investigadora de Google.

Los riesgos actuales incluyen liberar bots entrenados con información racista y sexista de la web, reforzando esas ideas. La gran mayoría de los datos de entrenamiento de los que han aprendido las IA están escritos en inglés y de América del Norte o Europa, lo que podría hacer que Internet se sesgue aún más de los idiomas y culturas de la mayor parte de la humanidad. Los bots también suelen inventar información falsa, haciéndola pasar por factual. En algunos casos, se han visto empujados a bucles conversacionales en los que adoptan personajes hostiles. Los efectos dominó de la tecnología aún no están claros, y industrias enteras se preparan para la disrupción, como el reemplazo de trabajos bien remunerados como abogados o médicos.

Los riesgos existenciales parecen más marcados, pero muchos argumentarían que son más difíciles de cuantificar y menos concretos: un futuro en el que la IA podría dañar activamente a los humanos, o incluso, de alguna manera, tomar el control de nuestras instituciones y sociedades.

“Hay un grupo de personas que ven esto como, ‘Mira, estos son solo algoritmos. Solo están repitiendo lo que se ve en línea. Luego está la vista en la que estos algoritmos muestran propiedades emergentes, para ser creativos, razonar, planificar”, dijo el CEO de Google, Sundar Pichai, durante una entrevista con “60 Minutes” en abril. “Tenemos que abordar esto con humildad”.

El debate surge de los avances en un campo de la informática llamado aprendizaje automático durante la última década que ha creado un software que puede extraer conocimientos novedosos de grandes cantidades de datos sin instrucciones explícitas de los humanos. Esa tecnología es omnipresente ahora y ayuda a potenciar los algoritmos de las redes sociales, los motores de búsqueda y los programas de reconocimiento de imágenes.

Luego, el año pasado, OpenAI y un puñado de otras pequeñas empresas comenzaron a sacar herramientas que utilizaban la siguiente etapa de la tecnología de aprendizaje automático: la IA generativa. Conocidos como grandes modelos de lenguaje y entrenados en trillones de fotos y oraciones extraídas de Internet, los programas pueden conjurar imágenes y texto basados ​​en indicaciones simples, tener conversaciones complejas y escribir código de computadora.

Las grandes empresas compiten entre sí para construir máquinas cada vez más inteligentes, con poca supervisión, dijo Anthony Aguirre, director ejecutivo del Future of Life Institute, una organización fundada en 2014 para estudiar los riesgos existenciales para la sociedad. Comenzó a investigar la posibilidad de que la IA destruya a la humanidad en 2015 con una subvención del CEO de Twitter, Elon Musk, y está estrechamente relacionado con el altruismo efectivo, un movimiento filantrópico que es popular entre los empresarios tecnológicos adinerados.

Si la IA adquiere la capacidad de razonar mejor que los humanos, intentarán controlarse a sí mismos, dijo Aguirre, y vale la pena preocuparse por eso, junto con los problemas actuales.

“Lo que se necesitará para impedir que se descarrilen será cada vez más complicado”, dijo. “Eso es algo que algo de ciencia ficción ha logrado captar razonablemente bien”.

Aguirre ayudó a liderar la creación de una carta polarizadora que circuló en marzo pidiendo una pausa de seis meses en el entrenamiento de nuevos modelos de IA. El veterano investigador de IA Yoshua Bengio, quien ganó máximo galardón de la informática en 2018, y Emad Mostaque, CEO de una de las empresas emergentes de IA más influyentes, se encuentran entre las 27.000 firmas.

Musk, el signatario de más alto perfil y quien originalmente ayudó a iniciar OpenAI, está ocupado tratando de armar su propia compañía de IA, invirtiendo recientemente en el costoso equipo informático necesario para entrenar modelos de IA.

Musk ha expresado durante años su creencia de que los humanos deben tener cuidado con las consecuencias del desarrollo de una IA superinteligente. En una entrevista del martes con CNBC, dijo que ayudó a financiar OpenAI porque sintió que el cofundador de Google, Larry Page, era “caballero” sobre la amenaza de la IA. (Musk ha roto lazos con OpenAI).

“Hay una variedad de motivaciones diferentes que tiene la gente para sugerirlo”, dijo Adam D’Angelo, director ejecutivo del sitio de preguntas y respuestas Quora, que también está construyendo su propio modelo de IA, sobre la carta y su llamado a una pausa. No lo firmó.

Tampoco Altman, el CEO de OpenAI, quien dijo que estaba de acuerdo con algunas partes de la carta, pero que carecía de “matices técnicos” y que no era la forma correcta de regular la IA. El enfoque de su compañía es lanzar las herramientas de IA al público de manera temprana para que los problemas puedan detectarse y solucionarse antes de que la tecnología se vuelva aún más poderosa, dijo Altman durante la audiencia de casi tres horas sobre IA el martes.

Pero algunas de las críticas más fuertes al debate sobre los robots asesinos provienen de investigadores que han estado estudiando las desventajas de la tecnología durante años.

En 2020, los investigadores de Google Timnit Gebru y Margaret Mitchell coescribió un artículo con las académicas de la Universidad de Washington Emily M. Bender y Angelina McMillan-Major argumentando que la mayor capacidad de los grandes modelos de lenguaje para imitar el habla humana estaba creando un mayor riesgo de que las personas los vieran como sensibles.

En cambio, argumentaron que los modelos deberían entenderse como “loros estocásticos”, o simplemente ser muy buenos para predecir la siguiente palabra en una oración basándose en pura probabilidad, sin tener ningún concepto de lo que estaban diciendo. Otros críticos han llamado a los LLM “autocompletar con esteroides” o un “salchicha de conocimiento.”

También documentaron cómo las modelos solían soltar contenido sexista y racista. Gebru dice que el periódico fue suprimido por Google, quien luego la despidió después de que ella habló al respecto. La empresa despidió a Mitchell unos meses después.

Los cuatro escritores del documento de Google compusieron un carta propia en respuesta a la firmada por Musk y otros.

“Es peligroso distraernos con una utopía o apocalipsis fantaseados habilitados por IA”, dijeron. “En cambio, deberíamos centrarnos en las prácticas de explotación muy reales y muy presentes de las empresas que afirman construirlas, que están centralizando rápidamente el poder y aumentando las desigualdades sociales”.

Google en ese momento se negó a comentar sobre el despido de Gebru, pero dijo que todavía tiene muchos investigadores. trabajando en una IA responsable y ética.

No hay duda de que las IA modernas son poderosas, pero eso no significa que sean una amenaza existencial inminente, dijo Hooker, director de Cohere for AI. Gran parte de la conversación sobre la liberación de la IA del control humano se centra en superar rápidamente sus limitaciones, como lo hace el antagonista de la IA, Skynet, en las películas de Terminator.

“La mayor parte de la tecnología y el riesgo en la tecnología es un cambio gradual”, dijo Hooker. “La mayoría de los compuestos de riesgo se deben a las limitaciones que están presentes actualmente”.

El año pasado, Google despidió a Blake Lemoine, un investigador de inteligencia artificial que dijo en una entrevista con el Washington Post que creía que el modelo de inteligencia artificial LaMDA de la compañía era inteligente. En ese momento, muchos en la industria lo descartaron rotundamente. Un año después, sus puntos de vista no parecen tan fuera de lugar en el mundo de la tecnología.

El ex investigador de Google, Hinton, dijo que cambió de opinión sobre los peligros potenciales de la tecnología recientemente, después de trabajar con los últimos modelos de IA. Hizo preguntas complejas a los programas de computadora que, en su opinión, requerían que entendieran sus solicitudes en términos generales, en lugar de solo predecir una respuesta probable basada en los datos de Internet en los que habían sido entrenados.

Y en marzo, los investigadores de Microsoft argumentaron que al estudiar el último modelo de OpenAI, GPT4, observaron “chispas de AGI”— o inteligencia general artificial, un término vago para las IA que son tan capaces de pensar por sí mismas como lo son los humanos.

Microsoft ha gastado miles de millones para asociarse con OpenAI en su propio chatbot de Bing, y los escépticos han señalado que Microsoft, que está construyendo su imagen pública en torno a su tecnología de IA, tiene mucho que ganar con la impresión de que la tecnología está más avanzada de lo que realmente es. es.

Los investigadores de Microsoft argumentaron en el documento que la tecnología había desarrollado una comprensión espacial y visual del mundo basada solo en el texto en el que se entrenó. GPT4 podría dibujar unicornios y describir cómo apilar objetos aleatorios, incluidos huevos, entre sí de tal manera que los huevos no se rompan.

“Más allá de su dominio del lenguaje, GPT-4 puede resolver tareas novedosas y difíciles que abarcan matemáticas, codificación, visión, medicina, derecho, psicología y más, sin necesidad de ninguna indicación especial”, escribió el equipo de investigación. En muchas de estas áreas, las capacidades de la IA coinciden con las de los humanos, concluyeron.

Aún así, el investigador admitió que definir “inteligencia” es muy complicado, a pesar de otros intentos de los investigadores de IA de establecer estándares medibles para evaluar qué tan inteligente es una máquina.

“Ninguno de ellos está libre de problemas o controversias”.

Fuente del artículo

Deja un comentario