¿Más cerca de AGI? – O´Reilly

El nuevo modelo de DeepMind, Gato, ha provocado un debate sobre si la inteligencia artificial general (AGI) está más cerca, casi al alcance de la mano, solo una cuestión de escala. Gato es un modelo que puede resolver múltiples problemas no relacionados: puede juegue una gran cantidad de juegos diferentes, etiquete imágenes, chatee, opere un robot y más. No hace muchos años, un problema con la IA era que los sistemas de IA solo eran buenos en una cosa. Después de que Deep Blue de IBM derrotara a Garry Kasparov en ajedrez, fue fácil decir: «Pero la capacidad de jugar al ajedrez no es realmente lo que entendemos por inteligencia». Un modelo que juega al ajedrez no puede jugar también a las guerras espaciales. Eso obviamente ya no es cierto; ahora podemos tener modelos capaces de hacer muchas cosas diferentes. 600 cosas, de hecho, y los modelos futuros sin duda harán más.

Entonces, ¿estamos al borde de la inteligencia artificial general, como Nando de Frietas (director de investigación de DeepMind) afirma? ¿Que el único problema que queda es la escala? No me parece. Parece inapropiado hablar de AGI cuando realmente no tenemos una buena definición de «inteligencia». Si tuviéramos AGI, ¿cómo lo sabríamos? Tenemos muchas nociones vagas sobre la prueba de Turing, pero en el análisis final, Turing no estaba ofreciendo una definición de inteligencia artificial; estaba probando la pregunta de lo que significa la inteligencia humana.

Aprende más rápido. Excavar más hondo. Ver más lejos.

La conciencia y la inteligencia parecen requerir algún tipo de agencia. Una IA no puede elegir lo que quiere aprender, ni puede decir “No quiero jugar al Go, prefiero jugar al Ajedrez”. Ahora que tenemos computadoras que pueden hacer ambas cosas, ¿pueden “querer” jugar un juego u otro? Una de las razones por las que sabemos que nuestros hijos (y, en realidad, nuestras mascotas) son inteligentes y no solo autómatas es que son capaces de desobedecer. Un niño puede negarse a hacer la tarea; un perro puede negarse a sentarse. Y esa negativa es tan importante para la inteligencia como la capacidad de resolver ecuaciones diferenciales o de jugar al ajedrez. De hecho, el camino hacia la inteligencia artificial se trata tanto de enseñarnos lo que no es la inteligencia (como sabía Turing) como de construir un AGI.

Incluso si aceptamos que Gato es un gran paso en el camino hacia AGI, y que escalar es el único problema que queda, es más que un poco problemático pensar que escalar es un problema que se resuelve fácilmente. No sabemos cuánta energía se necesitó para entrenar a Gato, pero GPT-3 requirió aproximadamente 1,3 gigavatios-hora: aproximadamente 1/1000 de la energía que se necesita para ejecutar el Gran Colisionador de Hadrones por un año. De acuerdo, Gato es mucho más pequeño que GPT-3, aunque no funciona tan bien; El rendimiento de Gato es generalmente inferior al de los modelos de una sola función. Y por supuesto, se puede hacer mucho para optimizar el entrenamiento (y DeepMind ha hecho mucho trabajo en modelos que requieren menos energía). Pero Gato tiene poco más de 600 capacidades, centrándose en el procesamiento del lenguaje natural, la clasificación de imágenes y los juegos. Estas son solo algunas de las muchas tareas que deberá realizar un AGI. ¿Cuántas tareas sería capaz de realizar una máquina para calificar como una «inteligencia general»? ¿Miles? ¿Millones? ¿Pueden incluso enumerarse esas tareas? En algún momento, el proyecto de entrenar una inteligencia general artificial suena a algo sacado de la novela de Douglas Adams La Guía del autoestopista galácticoen el que la Tierra es una computadora diseñada por una IA llamada Deep Thought para responder a la pregunta «¿Cuál es la pregunta a la que 42 es la respuesta?»

Construir modelos cada vez más grandes con la esperanza de lograr de alguna manera inteligencia general puede ser un proyecto de investigación interesante, pero es posible que la IA ya haya alcanzado un nivel de rendimiento que sugiera una capacitación especializada además de la existente. modelos de cimientos obtendrá muchos más beneficios a corto plazo. Un modelo de base entrenado para reconocer imágenes se puede entrenar aún más para ser parte de un automóvil autónomo, o para crear arte generativo. Un modelo de base como GPT-3 capacitado para comprender y hablar el lenguaje humano puede ser entrenado más profundamente para escribir código de computadora.

Yann LeCun publicó un Hilo de Twitter sobre inteligencia general (consolidado en Facebook) indicando algunos «hechos simples». Primero, LeCun dice que no existe tal cosa como «inteligencia general». LeCun también dice que la «IA a nivel humano» es un objetivo útil, reconociendo que la inteligencia humana en sí misma es algo menos que el tipo de inteligencia general que se busca para la IA. Todos los humanos están especializados hasta cierto punto. Soy humano; Podría decirse que soy inteligente; Puedo jugar Chess and Go, pero no xiangqi (a menudo llamado ajedrez chino) o golf. Presumiblemente podría aprender a jugar otros juegos, pero no tengo que aprenderlos todos. También sé tocar el piano, pero no el violín. Puedo hablar algunos idiomas. Algunos humanos pueden hablar docenas, pero ninguno de ellos habla todos los idiomas.

Hay un punto importante sobre la experiencia oculta aquí: esperamos que nuestros AGI sean «expertos» (para vencer a los jugadores de Chess y Go de alto nivel), pero como ser humano, solo soy regular en ajedrez y pobre en Go. ¿La inteligencia humana requiere experiencia? (Pista: vuelve a leer El artículo original de Turing sobre el Juego de Imitación y verifique las respuestas de la computadora.) Y si es así, ¿qué tipo de experiencia? Los seres humanos son capaces de una amplia pero limitada experiencia en muchas áreas, combinada con una profunda experiencia en un pequeño número de áreas. Entonces, este argumento es realmente sobre terminología: ¿podría Gato ser un paso hacia la inteligencia a nivel humano (experiencia limitada para una gran cantidad de tareas), pero no la inteligencia general?

LeCun está de acuerdo en que nos faltan algunos «conceptos fundamentales» y aún no sabemos cuáles son esos conceptos fundamentales. En resumen, no podemos definir adecuadamente la inteligencia. Sin embargo, más específicamente, menciona que «algunos otros creen que la manipulación basada en símbolos es necesaria». Eso es una alusión al debate (a veces en twitter) entre LeCun y Gary Marcus, quien ha argumentado muchas veces que combinar el aprendizaje profundo con el razonamiento simbólico es la única manera de que la IA progrese. (En su respuesta al anuncio de Gato, Marcus etiqueta esta escuela de pensamiento como “Inteligencia alternativa.”) Ese es un punto importante: impresionante como modelos como GPT-3 y GLaM son, cometen muchos errores. A veces esos son simples errores de hecho, como cuando GPT-3 escribió un artículo sobre la Iglesia Metodista Unida que se equivocó en varios hechos básicos. A veces, los errores revelan una horrible (o hilarante, a menudo son los mismos) falta de lo que llamamos “sentido común”. ¿Venderías a tus hijos por negarse a hacer los deberes? (Para dar crédito a GPT-3, señala que vender a sus hijos es ilegal en la mayoría de los países y que existen mejores formas de disciplina).

No está claro, al menos para mí, que estos problemas puedan resolverse a «escala». ¿Cuánto texto más necesitarías para saber que los humanos, normalmente, no venden a sus hijos? Puedo imaginarme “vendiendo niños” apareciendo en comentarios sarcásticos o frustrados por parte de los padres, junto con textos que hablan sobre la esclavitud. Sospecho que hay pocos textos que digan que vender a tus hijos es una mala idea. Del mismo modo, ¿cuánto texto más necesitaría para saber que las conferencias generales metodistas se llevan a cabo cada cuatro años, no anualmente? La conferencia general en cuestión generó cierta cobertura de prensa, pero no mucha; es razonable suponer que GPT-3 tenía la mayoría de los datos disponibles. ¿Qué datos adicionales necesitaría un modelo de lenguaje grande para evitar cometer estos errores? Actas de conferencias anteriores, documentos sobre reglas y procedimientos metodistas y algunas otras cosas. A medida que avanzan los conjuntos de datos modernos, probablemente no sea muy grande; unos cuantos gigas, como máximo. Pero entonces la pregunta es «¿Cuántos conjuntos de datos especializados necesitaríamos para entrenar una inteligencia general para que sea precisa en cualquier tema concebible?» ¿Esa respuesta es un millón? ¿Un billón? ¿Cuáles son todas las cosas que nos gustaría saber? Incluso si un solo conjunto de datos es relativamente pequeño, pronto nos encontraremos construyendo el sucesor de Deep Thought de Douglas Adams.

La escala no va a ayudar. Pero en ese problema hay, creo, una solución. Si tuviera que construir un bot terapeuta artificial, ¿querría un modelo de lenguaje general? ¿O me gustaría un modelo de lenguaje que tuviera un conocimiento amplio, pero que haya recibido una capacitación especial para darle una experiencia profunda en psicoterapia? De manera similar, si quiero un sistema que escriba artículos de noticias sobre instituciones religiosas, ¿quiero una inteligencia completamente general? ¿O sería preferible entrenar un modelo general con datos específicos de instituciones religiosas? Este último parece preferible, y ciertamente es más similar a la inteligencia humana del mundo real, que es amplio, pero con áreas de profunda especialización. Construir una inteligencia de este tipo es un problema que ya estamos en camino de resolver, mediante el uso de grandes «modelos básicos» con capacitación adicional para personalizarlos para propósitos especiales. de GitHub Copiloto es uno de esos modelos; O’Reilly Answers es otro.

Si una “IA general” no es más que “un modelo que puede hacer muchas cosas diferentes”, ¿realmente la necesitamos o es solo una curiosidad académica? Lo que está claro es que necesitamos mejores modelos para tareas específicas. Si el camino a seguir es construir modelos especializados sobre modelos básicos, y si este proceso se generaliza a partir de modelos de lenguaje como GPT-3 y O’Reilly Answers a otros modelos para diferentes tipos de tareas, entonces tenemos un conjunto diferente de preguntas para responder. Primero, en lugar de intentar construir una inteligencia general haciendo un modelo aún más grande, deberíamos preguntarnos si podemos construir un buen modelo base que sea más pequeño, más barato y más fácil de distribuir, tal vez como fuente abierta. Google ha hecho un excelente trabajo para reducir el consumo de energía, aunque sigue siendo enormey Facebook ha lanzado su Modelo OPT con licencia de código abierto. ¿Un modelo básico realmente requiere algo más que la capacidad de analizar y crear oraciones que sean gramaticalmente correctas y estilísticamente razonables? En segundo lugar, necesitamos saber cómo especializar estos modelos de manera efectiva. Obviamente podemos hacer eso ahora, pero sospecho que el entrenamiento de estos modelos subsidiarios se puede optimizar. Estos modelos especializados también podrían incorporar la manipulación simbólica, como sugiere Marcus; para dos de nuestros ejemplos, la psicoterapia y las instituciones religiosas, la manipulación simbólica probablemente sería esencial. Si vamos a construir un bot de terapia impulsado por IA, prefiero tener un bot que pueda hacer eso bien que un bot que cometa errores que son mucho más sutiles que decirle a los pacientes que se suiciden. Prefiero tener un bot que pueda colaborar de manera inteligente con los humanos que uno que deba ser vigilado constantemente para garantizar que no cometa errores graves.

Necesitamos la capacidad de combinar modelos que realicen diferentes tareas, y necesitamos la capacidad de interrogar a esos modelos sobre los resultados. Por ejemplo, puedo ver el valor de un modelo de ajedrez que incluía (o estaba integrado con) un modelo de lenguaje que le permitiría responder preguntas como «¿Cuál es el significado del movimiento 13 de las negras en el cuarto juego de FischerFisher vs. Spassky? ” O «Has sugerido Dc5, pero ¿cuáles son las alternativas y por qué no las elegiste?» Responder esas preguntas no requiere un modelo con 600 habilidades diferentes. Requiere dos habilidades: el ajedrez y el lenguaje. Además, requiere la capacidad de explicar por qué la IA rechazó ciertas alternativas en su proceso de toma de decisiones. Que yo sepa, poco se ha hecho sobre esta última cuestión, aunque la posibilidad de exponer otras alternativas podría ser importante en aplicaciones como el diagnóstico médico. “¿Qué soluciones rechazó y por qué las rechazó?” parece información importante que deberíamos poder obtener de una IA, ya sea «general» o no.

Una IA que pueda responder esas preguntas parece más relevante que una IA que simplemente pueda hacer muchas cosas diferentes.

Optimizar el proceso de especialización es crucial porque hemos convertido una cuestión tecnológica en una cuestión económica. ¿Cuántos modelos especializados, como Copilot u O’Reilly Answers, puede soportar el mundo? Ya no estamos hablando de un AGI masivo que requiere teravatios-hora para entrenar, sino de entrenamiento especializado para una gran cantidad de modelos más pequeños. Un bot de psicoterapia podría pagarse solo, aunque necesitaría la capacidad de volver a entrenarse en los eventos actuales, por ejemplo, para tratar con pacientes que están ansiosos por, digamos, la invasión de Ucrania. (Hay la investigación en curso en modelos que pueden incorporar nueva información según sea necesario). No está claro que un bot especializado para producir artículos de noticias sobre instituciones religiosas sería económicamente viable. Esa es la tercera pregunta que debemos responder sobre el futuro de la IA: ¿qué tipo de modelos económicos funcionarán? Dado que los modelos de IA básicamente improvisan respuestas de otras fuentes que tienen sus propias licencias y modelos comerciales, ¿cómo compensarán nuestros futuros agentes a las fuentes de las que se deriva su contenido? ¿Cómo deberían abordar estos modelos cuestiones como la atribución y el cumplimiento de licencias?

Finalmente, proyectos como Gato no nos ayudan a comprender cómo los sistemas de IA deberían colaborar con los humanos. En lugar de simplemente construir modelos más grandes, los investigadores y empresarios deben explorar diferentes tipos de interacción entre los humanos y la IA. Esa pregunta está fuera del alcance de Gato, pero es algo que debemos abordar independientemente de si el futuro de la inteligencia artificial es general o estrecho pero profundo. La mayoría de nuestros sistemas de IA actuales son oráculos: les das un aviso, producen un resultado. Correcto o incorrecto, obtienes lo que obtienes, lo tomas o lo dejas. Las interacciones de Oracle no aprovechan la experiencia humana y corren el riesgo de perder el tiempo humano en respuestas «obvias», donde el humano dice «Ya lo sé; No necesito que una IA me lo diga”.

Hay algunas excepciones al modelo de Oracle. Copilot coloca su sugerencia en su editor de código y los cambios que realice se pueden realimentar al motor para mejorar futuras sugerencias. a mitad de caminouna plataforma para el arte generado por IA que actualmente se encuentra en versión beta cerrada, también incorpora un circuito de retroalimentación.

En los próximos años, inevitablemente dependeremos cada vez más del aprendizaje automático y la inteligencia artificial. Si esa interacción va a ser productiva, necesitaremos mucho de la IA. Necesitaremos interacciones entre humanos y máquinas, una mejor comprensión de cómo entrenar modelos especializados, la capacidad de distinguir entre correlaciones y hechos, y eso es solo el comienzo. Productos como Copilot y O’Reilly Answers dan una idea de lo que es posible, pero son solo los primeros pasos. La IA ha hecho un progreso espectacular en la última década, pero no obtendremos los productos que queremos y necesitamos simplemente escalando. Tenemos que aprender a pensar diferente.

¿Que te ha parecido?

Deja un comentario