Publicación de invitado de Simon Andersson, científico investigador sénior @GoodAI
- El seguimiento de los principales problemas no resueltos en IA puede mantenernos honestos sobre lo que queda por lograr y facilitar la creación de hojas de ruta hacia la inteligencia artificial general.
- Este documento identifica actualmente 29 problemas abiertos.
- Para cada problema principal, se sugieren pruebas de ejemplo para evaluar el progreso de la investigación.
Este documento identifica problemas abiertos en la IA. Busca brindar una visión general concisa de los mayores desafíos en el campo y del estado actual del arte, en línea con el “preguntas abiertas de investigacion†tema de enfoque de la Instituto de hoja de ruta de IA.
Los retos se agrupan en AI-completa problemas, problemas de dominio cerrado y problemas fundamentales en el razonamiento de sentido común, el aprendizaje y la capacidad sensoriomotora.
Me doy cuenta de que este primer intento de encuestar los problemas abiertos será necesariamente incompleto y bienvenido lector. comentario.
Para ayudar a acelerar la búsqueda de inteligencia artificial general, buena IA esta organizando el Desafío general de IA (GoodAI, 2017), que tiene como objetivo resolver algunos de los problemas que se describen a continuación, a través de una serie de desafíos importantes que comenzarán a principios de 2017.
La colección de problemas que aquí se presenta es el resultado de una revisión de la literatura en las áreas de
- Aprendizaje automático
- Percepción de máquinas y robótica
- Problemas abiertos de IA
- Evaluación de sistemas de IA
- Pruebas para el logro de la inteligencia a nivel humano
- Puntos de referencia y competiciones
Para ser considerado para su inclusión, un problema debe ser
- Altamente relevante para lograr inteligencia artificial general
- De alcance cerrado, no sujeto a extensión abierta
- Comprobable
Los problemas varían en alcance y, a menudo, se superponen. Algunos pueden estar contenidos completamente en otros. El segundo criterio (alcance cerrado) excluye algunos problemas interesantes como aprender todas las profesiones humanas; algunos problemas de este tipo se mencionan por separado de la lista principal. Para garantizar que los problemas sean comprobables, cada uno se presenta junto con pruebas de ejemplo.
Varios sitios web, algunos de los cuales se enumeran a continuación, proporcionan problemas de desafío para la IA.
En el contexto de la evaluación de sistemas de IA, Hernández-Orallo (2016a) revisa una serie de problemas abiertos de IA. lago et al. (2016) ofrece una crítica del estado actual del arte en IA y analiza problemas como la física intuitiva, la psicología intuitiva y el aprendizaje a partir de pocos ejemplos.
Se propusieron una serie de problemas de desafío para la IA en (Brooks, et al., 1996) y (Brachmann, 2006).
El resto del documento enumera los desafíos de la IA como se describe a continuación.
- Problemas completos de IA
- Problemas de dominio cerrado
- Razonamiento de sentido común
- Aprendiendo
- Problemas sensoriomotores
Es probable que los problemas completos de IA contengan toda o la mayor parte de la inteligencia artificial general a nivel humano. A continuación se enumeran algunos problemas de esta categoría.
- Cuadro de diálogo de dominio abierto
- Comprensión de texto
- Máquina traductora
- Pruebas de aptitud e inteligencia humana
- Resolución de correferencia (esquemas de Winograd)
- Comprensión de palabras compuestas
El diálogo de dominio abierto es el problema de llevar a cabo de manera competente un diálogo con un ser humano cuando el tema de la discusión no se conoce de antemano. El desafío incluye la comprensión del lenguaje, el diálogo pragmática, y comprensión del mundo. Las versiones de las tareas incluyen diálogo hablado y escrito. La tarea se puede ampliar para incluir la interacción multimodal (p. ej., entrada gestual, salida multimedia). Los posibles criterios de éxito son la utilidad y la capacidad de llevar a cabo un diálogo indistinguible del diálogo humano (“prueba de Turing†).
Pruebas
Los sistemas de diálogo suelen ser evaluados por jueces humanos. Los eventos en los que esto se ha hecho incluyen
- El premio Loebner (Loebner, 2016)
- El desafío del chat de Robo (Desafío de chat de Robo, 2014)
La comprensión de textos es un problema sin resolver. Ha habido un progreso notable en el área de respuesta a preguntas, pero los sistemas actuales aún fallan cuando se requiere conocimiento del mundo basado en el sentido común, más allá del proporcionado en el texto.
Pruebas
- McCarthy (1976) proporcionó un problema de desafío de comprensión de texto temprano.
- Brachman (2006) planteó el problema de leer un libro de texto y resolver sus ejercicios.
La traducción automática es completa con IA, ya que incluye problemas que requieren una comprensión del mundo (p. ej., resolución de correferencias, discutida a continuación).
Pruebas
Si bien la calidad de la traducción se puede evaluar automáticamente utilizando corpus paralelos, la prueba definitiva es el juicio humano de la calidad. corpus como el Corpus de inglés americano contemporáneo (Davies, 2008) contienen muestras de texto de diferentes géneros. La calidad de la traducción se puede evaluar utilizando muestras de
- Texto del periódico
- Ficción
- Transcripciones de lenguaje hablado
Pruebas de aptitud e inteligencia humana (Hernández-Orallo, 2017) son interesantes porque están diseñados para estar al límite de la capacidad humana y para que sean difíciles o imposibles de resolver usando el conocimiento memorizado. Se ha informado sobre el rendimiento a nivel humano para las matrices progresivas de Raven (Lovett y Forbus, 2017), pero los sistemas artificiales aún carecen de las habilidades generales de razonamiento para abordar una variedad de problemas al mismo tiempo (Hernández-Orallo2016b).
Pruebas
- Brachman (2006) sugirió usar el SE SENTÓ como un problema de desafío de IA.
Los problemas superpuestos de resolución de correferencia, desambiguación de pronombresy esquemas de Winograd requieren seleccionar los referentes de pronombres o frases nominales.
Pruebas
- Davis (2011) enumera 144 esquemas de Winograd.
- Razonamiento de sentido común (2016b) enumera problemas de desambiguación de pronombres: 62 problemas de muestra y 60 problemas utilizados en el primer Desafío de esquema de WinogradCelebrado en IJCAI-16.
En muchos idiomas, hay palabras compuestas con significados fijos. Se pueden producir nuevas palabras compuestas, y somos buenos para adivinar su significado. Entendemos que un ave acuática es un ave que vive cerca del agua, no un ave que contiene o está constituida por agua, y que schadenfreude se siente cuando otros, no nosotros, son lastimados.
Pruebas
- “El significado de las frases nominalesen (Commonsense Reasoning, 2015)
Los problemas de dominio cerrado son aquellos que combinan elementos importantes de inteligencia pero reducen la dificultad al limitarse a un dominio de conocimiento circunscrito. Los agentes de juego son ejemplos de esto y los agentes artificiales han logrado un rendimiento sobrehumano en Go (Plata et al., 2016) y más recientemente póquer (Aupperlee, 2017; Marrón y Sandholm, 2017). Entre los problemas abiertos están:
- Aprendiendo a jugar juegos de tablero, cartas y fichas a partir de descripciones
- Producción de programas a partir de descripciones.
- Comprensión del código fuente
A diferencia de los jugadores de juegos especializados, los sistemas que tienen que aprender nuevos juegos a partir de las descripciones de las reglas no pueden depender de algoritmos prediseñados para juegos específicos.
Pruebas
- El problema de aprender nuevos juegos a partir de descripciones en lenguaje formal apareció como un desafío en la conferencia AAAI (Genesereth et al., 2005; AAAI, 2013).
- Aún más desafiante es el problema de aprender juegos a partir de descripciones en lenguaje natural; tales descripciones para juegos de cartas y fichas están disponibles en varios sitios web (p. ej., McLeod, 2017).
La producción de programas en un lenguaje de programación como C a partir de una entrada de lenguaje natural es un problema de evidente interés práctico.
Pruebas
- El “Descripción2Código†reto propuesto en (IA abierta, 2016) tiene 5000 descripciones de programas recopiladas por Ethan Caballero.
Relacionado con la producción de código fuente está la comprensión del código fuente, donde el sistema puede interpretar la semántica del código y detectar situaciones en las que el código difiere en formas no triviales de la intención probable de su autor. Allamanis et al. (2016) informa sobre el progreso en la predicción de los nombres de los procedimientos.
Pruebas
- El Concurso internacional de código C ofuscado (OCCC, 2016) publica código que es intencionalmente difícil de entender. La comprensión del código fuente podría probarse como la capacidad de mejorar la legibilidad del código según lo califican los jueces humanos.
Es probable que el razonamiento de sentido común sea un elemento central de la inteligencia artificial general. Algunos de los principales problemas en esta área se enumeran a continuación.
- Razonamiento causal
- razonamiento contrafáctico
- Física intuitiva
- psicología intuitiva
El razonamiento causal requiere reconocer y aplicar relaciones causa-efecto.
Pruebas
- “Fuerza de la evidenciaen (Commonsense Reasoning, 2015)
- “lobos y conejosen (Commonsense Reasoning, 2015)
Se requiere un razonamiento contrafáctico para responder preguntas hipotéticas. Utiliza el razonamiento causal junto con otras capacidades de modelado y razonamiento del sistema para considerar situaciones posiblemente diferentes a cualquier cosa que haya sucedido en el mundo.
Pruebas
- “El cruel e inusual problema del tiroteo en Yaleen (Commonsense Reasoning, 2015)
Una comprensión básica del mundo físico, incluida la permanencia de los objetos y la capacidad de predecir trayectorias probables, ayuda a los agentes a aprender más rápido y hacer mejores predicciones. Esta es ahora un área de investigación muy activa; algunos trabajos recientes se informan en (Agrawal et al., 2016; Chang et al., 2016; Degrave et al., 2016; Denil et al., 2016; Finn et al., 2016; Fragkiadaki et al., 2016; Hamrick et al., 2016; Li et al., 2016; Mottaghi et al., 2016; Nair et al., 2016; Stewart y Ermon, 2016).
Pruebas
- La sección de “Razonamiento físico” en (Razonamiento de sentido común, 2015) (8 problemas)
- “El problema del mangoen (Commonsense Reasoning, 2015)
Psicología intuitiva, o teoria de la mentepermite al agente comprender metas y creencias e inferirlas del comportamiento de otros agentes.
Pruebas
- La sección “Psicología ingenua” en (Razonamiento de sentido común, 2015) (4 problemas)
A pesar de los notables avances en el aprendizaje automático, la mayoría de los problemas importantes relacionados con el aprendizaje siguen sin resolverse. Incluyen:
- aprendizaje gradual
- Aprendizaje sin supervisión
- Fuerte generalización
- Aprendizaje de categorías a partir de algunos ejemplos.
- Aprendiendo a aprender
- Aprendizaje composicional
- Aprender sin olvidar
- Transferencia de aprendizaje
- Saber cuando no sabes
- Aprender a través de la acción
Los seres humanos son capaces de aprender de por vida tareas cada vez más complejas. Los agentes artificiales también deberían serlo. Se han discutido versiones de esta idea bajo las rúbricas de para toda la vida (Thrun y Mitchell, 1995), continuo, y incremental aprendiendo. En buena IAhemos adoptado el término aprendizaje gradual (Rosa et al., 2016) para la acumulación a largo plazo de conocimientos y habilidades. Requiere la combinación de varias habilidades discutidas a continuación:
- Aprendizaje composicional
- Aprendiendo a aprender
- Aprender sin olvidar
- Transferencia de aprendizaje
Pruebas
- Una posible prueba se aplica a un robot doméstico que aprende tareas domésticas y de mantenimiento de la casa, incluida la obtención de herramientas y materiales para el trabajo. La prueba evalúa al agente según dos criterios: Operación continua (Nilsson en Brooks, et al., 1996) donde el agente necesita funcionar de manera autónoma sin reprogramación durante su vida, y mejorar la capacidaddonde el agente debe exhibir, en diferentes puntos de su evolución, capacidades no presentes en un momento anterior.
El aprendizaje no supervisado se ha descrito como el próximo gran desafío en el aprendizaje automático (Le Cun 2016). Parece ser fundamental para el aprendizaje humano a lo largo de toda la vida (las señales supervisadas y de refuerzo no proporcionan suficientes datos) y está estrechamente relacionado con la predicción y el razonamiento de sentido común (“completar las partes que faltan”). Un problema duro (Yoshua Bengio, en el â€oeCerebros y bits†panel en NIPS 2016) es el aprendizaje no supervisado en sistemas jerárquicos, con componentes de aprendizaje conjunto.
Pruebas
Además de las posibles pruebas en el dominio de la visión, el reconocimiento de voz también presenta oportunidades para el aprendizaje no supervisado. Mientras que los reconocedores de voz de última generación actuales se basan en gran medida en el aprendizaje supervisado en grandes corpus, el reconocimiento no supervisado requiere descubrir, sin supervisión, fonemas, segmentación de palabras y vocabulario. Se ha informado de progreso en esta dirección, hasta ahora limitado al reconocimiento de vocabulario pequeño (Riccardi y Hakkani-Tur, 2003, Parque y Cristal, 2008, Kamper et al., 2016).
- Una prueba a gran escala de reconocimiento de voz no supervisado podría ser entrenar en la parte de audio de un corpus de voz transcrito (por ejemplo, TIMITAR (Garofolo, 1993)), luego aprenda a predecir las transcripciones con muy poca supervisión.
Los seres humanos pueden transferir conocimientos y habilidades a través de situaciones que comparten una estructura de alto nivel pero que, por lo demás, son radicalmente diferentes, adaptándose a las particularidades de un nuevo entorno y conservando la esencia de la habilidad, una capacidad que (Tarlow, 2016; Gaunt et al., 2016) referirse como fuerte generalización. Si aprendemos a limpiar una habitación, sabemos cómo limpiar la mayoría de las otras habitaciones.
Pruebas
- Un robot de ensamblaje general podría aprender a construir un castillo de juguete con un material (p. ej., bloques de lego) y probar su construcción con otros materiales (arena, piedras, palos).
- Se podría entrenar a un robot doméstico en tareas de limpieza y cocina en un entorno y probarlo en entornos muy diferentes.
lago et al. (2015) logró el reconocimiento a nivel humano y la generación de personajes utilizando pocos ejemplos. Sin embargo, aprender categorías más complejas a partir de pocos ejemplos sigue siendo un problema abierto.
Pruebas
- El ImageNet base de datos (Deng et al., 2009) contiene imágenes organizadas por la jerarquía semántica de WordNet (Molinero, 1995). Determinar correctamente las categorías de ImageNet a partir de imágenes con muy pocos datos de entrenamiento podría ser una prueba desafiante de aprendizaje a partir de unos pocos ejemplos.
Aprendiendo a aprender o meta-aprendizaje (p. ej., Harlow, 1949; Schmidhuber, 1987; Thrun y Pratt, 1998; Andrychowicz et al., 2016; Chen et al., 2016; de Freitas, 2016; Duan et al., 2016; Lago et al., 2016; Wang et al., 2016) es la adquisición de habilidades y sesgos inductivos que facilitan el aprendizaje futuro. Los escenarios considerados en particular son aquellos en los que un proceso de aprendizaje más general y más lento produce uno más rápido y más especializado. Un ejemplo es la evolución biológica que produce aprendices eficientes como los seres humanos.
Pruebas
- Aprender a jugar videojuegos de Atari es un área que ha visto algunos éxitos recientes notables, incluso en el aprendizaje de transferencia (Parisotto et al., 2016). Sin embargo, hasta el momento no existe ningún sistema que primero aprenda a jugar videojuegos, luego sea capaz de aprender un nuevo juego, como pueden hacerlo los humanos, a partir de unos pocos minutos de juego (Lago et al., 2016).
Aprendizaje compositivo (de Freitas, 2016; Lago et al., 2016) es la capacidad de recombinar representaciones primitivas para acelerar la adquisición de nuevos conocimientos. Está íntimamente relacionado con aprender a aprender.
Pruebas
Las pruebas para el aprendizaje composicional necesitan verificar tanto que el alumno es efectivo como que utiliza representaciones compositivas.
- Alguno ImageNet las categorías corresponden a clases de objetos definidas en gran medida por la disposición de sus componentes, por ejemplo, sillas y taburetes, o monociclos, bicicletas y triciclos. Una prueba podría evaluar la capacidad del agente para aprender categorías con pocos ejemplos y para informar las partes del objeto en un imagen.
- El aprendizaje compositivo debería ser extremadamente útil para aprender videojuegos (Lago et al., 2016). Un alumno podría ser evaluado en un juego que ya domina, pero donde los elementos componentes han cambiado de apariencia (por ejemplo, peces de aspecto diferente en el Congelación juego). Debería poder jugar la variante del juego con poco o ningún aprendizaje adicional.
Para aprender continuamente a lo largo de su vida, un agente debe ser capaz de generalizar sobre nuevas observaciones mientras retiene el conocimiento adquirido previamente. El progreso reciente hacia este objetivo se informa en (Kirkpatrick et al., 2016) y (Li y Hoiem, 2016). Trabajar en redes neuronales de memoria aumentada (p. ej., Graves et al., 2016) también es relevante.
Pruebas
Una prueba para aprender sin olvidar necesita presentar las tareas de aprendizaje secuencialmente (las tareas anteriores no se repiten) y prueba la retención de conocimientos tempranos. También puede probar la disminución del tiempo de aprendizaje para nuevas tareas, para comprobar que el agente explota los conocimientos adquiridos hasta el momento.
- Una prueba desafiante para aprender sin olvidar sería aprender a reconocer todas las categorías en ImageNetpresentado secuencialmente.
Transferencia de aprendizaje (Pan y Yang, 2010) es la capacidad de un agente entrenado en un dominio para dominar otro. Los resultados en el área de comprensión de texto son actualmente deficientes a menos que el agente reciba alguna capacitación en el nuevo dominio (Kadlec, et al., 2016).
Pruebas
Clasificación de sentimiento (Blitzer et al., 2007) ofrece un posible campo de pruebas para el aprendizaje por transferencia. Los alumnos pueden capacitarse en un corpus, evaluarse en otro y compararse con un alumno de referencia capacitado directamente en el dominio de destino.
- Las reseñas de películas y de negocios son dos dominios lo suficientemente diferentes como para que la transferencia de conocimientos sea un desafío. Los corpus de los dominios son reseñas de películas de Rotten Tomatoes (Pang y Lee, 2005) y el Conjunto de datos del desafío Yelp (Yelp, 2017).
Si bien la incertidumbre es modelada de manera diferente por diferentes algoritmos de aprendizaje, parece ser cierto en general que los sistemas artificiales actuales no son tan buenos como los humanos para “saber cuándo no saben”. Un ejemplo son las redes neuronales profundas que logran precisión de última generación en el reconocimiento de imágenes, pero asigna un 99,99 % de confianza a la presencia de objetos en imágenes completamente irreconocibles para los humanos (Nguyen et al., 2015).
El desempeño humano en la estimación de confianza incluiría
- En tareas de inducción, como la inducción de programas o la finalización de secuencias, saber cuándo los ejemplos proporcionados son insuficientes para la inducción (múltiples hipótesis razonables podrían explicarlos)
- En el reconocimiento de voz, saber cuándo un enunciado no se ha interpretado de forma fiable
- En tareas visuales como detección de peatones, saber cuando una parte de la imagen no ha sido analizada de forma fiable
Pruebas
- Un reconocedor de voz se puede comparar con una línea de base humana, midiendo la relación entre la confianza promedio y la confianza en los ejemplos en los que falla el reconocimiento.
- La confianza de los sistemas de reconocimiento de imágenes se puede probar en ejemplos contradictorios generados.
Se sabe que los bebés humanos aprenden sobre el mundo a través de experimentos, observando los efectos de sus propias acciones (Smith y Gasser, 2005; Malik, 2015). Esto parece aplicarse tanto a la cognición como a la percepción de nivel superior. Los experimentos con animales han confirmado que la capacidad de iniciar el movimiento es crucial para el desarrollo de la percepción (Held y Hein, 1963) y se han logrado algunos avances recientes en el uso del movimiento en el aprendizaje de la percepción visual (Agrawal et al., 2015). En (Agrawal et al., 2016), un robot aprende a predecir los efectos de una acción de pinchar.
“Aprender a través de la acción†por lo tanto abarca varias áreas, incluyendo
- Aprendizaje activo, donde el agente selecciona los ejemplos de entrenamiento que probablemente sean instructivos
- Emprender acciones epistemológicas, es decir, actividades dirigidas principalmente a recopilar información.
- Aprender a percibir a través de la acción.
- Aprender acerca de las relaciones causales a través de la acción.
Quizás lo más importante, para los sistemas artificiales, aprender la estructura causal del mundo a través de la experimentación sigue siendo un problema abierto.
Pruebas
Para el aprendizaje a través de la acción, es natural considerar problemas de manipulación motora donde además de los efectos inmediatos de las acciones del agente, también deben considerarse efectos secundarios.
- Aprender a jugar al billar: un agente con pocos conocimientos previos y sin datos de entrenamiento fijos puede explorar una mesa de billar real o virtual y debe aprender a jugar bien al billar.
Los problemas sobresalientes en robótica y percepción de máquinas incluyen:
- Navegación autónoma en entornos dinámicos
- Análisis de escena
- Robusto reconocimiento y detección general de objetos
- Mapeo y ubicación simultáneos robustos y de por vida (GOLPE)
- Integración multimodal
- Manipulación diestra adaptativa
A pesar de los avances recientes en conducción autónoma coches de empresas como tesla, Waymo (anteriormente el proyecto de automóvil autónomo de Google) y muchos otros, la navegación autónoma en entornos altamente dinámicos sigue siendo un problema en gran parte sin resolver, que requiere el conocimiento de la semántica de objetos para predecir de manera confiable los estados futuros de la escena (Ess et al., 2010).
Pruebas
- La conducción completamente automática en calles concurridas de la ciudad y áreas residenciales sigue siendo una prueba desafiante para la navegación autónoma.
El desafío del análisis de escenas se extiende mucho más allá del reconocimiento de objetos e incluye la comprensión de las superficies formadas por múltiples objetos, la estructura 3D de la escena, las relaciones causales (Lago et al., 2016), y prestaciones. No se limita a la visión, sino que puede depender de la audición, el tacto y otras modalidades, por ejemplo, electrorrecepción y ecolocalización (Lewicki et al., 2014; Kondo et al., 2017). Si bien se ha avanzado, por ejemplo, en el reconocimiento de escenas anómalas e improbables (Choi et al., 2012), predecir la dinámica de objetos (Fouhey y Zitnick, 2014), y descubrir la funcionalidad del objeto (Yao et al., 2013), aún estamos lejos del desempeño a nivel humano en esta área.
Pruebas
Algunos posibles desafíos para comprender la estructura causal en escenas visuales son:
- Reconocimiento de situaciones peligrosas: se podría crear un corpus de imágenes sintéticas donde los mismos objetos se recombinan para formar escenas “peligrosas” y “seguras” según la clasificación de los humanos.
- Reconocimiento de escenas físicamente improbables: se podría crear un corpus sintético para mostrar escenas físicamente plausibles e inverosímiles que contengan los mismos objetos.
- Reconocimiento de objetos inútiles: Las imágenes de objetos inútiles han sido creadas por (Kamprani, 2017).
Si bien el reconocimiento de objetos ha experimentado un gran progreso en los últimos años (por ejemplo, Han et al., 2016), iguala o supera el rendimiento humano en muchos problemas (Karpatía, 2014), y puede acercarse a la perfección en ambientes cerrados (Canción et al., 2015), los sistemas de última generación aún luchan con los casos más difíciles, como objetos abiertos (intercalados con el fondo), objetos rotos, truncamiento y oclusión en entornos dinámicos (p. ej., Rajaram et al., 2015).
Pruebas
Es probable que los entornos desordenados y que contienen objetos extraídos de un conjunto de tipos grande, abierto y cambiante sean un desafío para un sistema de reconocimiento de objetos. un ejemplo seria
- Ver fotos del interior de despensas y refrigeradores y enumerar los ingredientes disponibles para los propietarios
Si bien el problema de la ubicación y el mapeo simultáneos (GOLPE) se considera resuelto para algunas aplicaciones, el desafío de SLAM para robots autónomos de larga duración, en entornos variables en el tiempo a gran escala, permanece abierto (Cadena et al., 2016).
Pruebas
- Ubicación y mapeo de por vida, sin mapas detallados proporcionados por adelantado y resistente a los cambios en el entorno, para un automóvil autónomo basado en una gran ciudad
La integración de múltiples sentidos (Lahat, 2015) es importante, por ejemplo, en la comunicación humana (Morency, 2015) y comprensión de la escena (Lewicki et al., 2014; Kondo et al., 2017). Tener múltiples sistemas sensoriales superpuestos parece ser esencial para permitir que los niños humanos se eduquen percibiendo y actuando en el mundo.Smith y Gasser, 2005).
Pruebas
La comunicación hablada en entornos ruidosos, donde la lectura de labios y las señales gestuales son indispensables, puede presentar desafíos para la fusión multimodal. un ejemplo seria
- Un cantinero robot: el agente debe interpretar las solicitudes de los clientes en un bar ruidoso.
Los robots manipuladores actuales no se acercan a la versatilidad de la mano humana (Ciocarlie, 2015). Los problemas difíciles incluyen manipular objetos deformables y operar desde una plataforma móvil.
Pruebas
- Sacar la ropa de una lavadora y colgarla en tendederos y perchas en varios lugares mientras se mantiene fuera del camino de los humanos.
Algunos problemas dignos de mención se omitieron de la lista por tener un alcance demasiado abierto: abarcan conjuntos de tareas que evolucionan con el tiempo o pueden extenderse infinitamente. Esto hace que sea difícil decidir si un problema ha sido resuelto. Los problemas de este tipo incluyen
- Inscribirse en una universidad humana y tomar clases como humanos (Goertzel, 2012)
- Automatización de todo tipo de trabajo humano (Nilsson, 2005)
- Desafíos de la búsqueda de rompecabezas, por ejemplo, el anual TMOU juego en la República Checa (TMOU, 2016)
He revisado una serie de problemas abiertos en un intento por delinear las líneas de frente actuales de la investigación de IA. La lista de problemas en esta primera versión, así como las descripciones de los problemas, las pruebas de ejemplo y las menciones del trabajo en curso en las áreas de investigación, son necesariamente incompletas. Planeo ampliar y mejorar el documento gradualmente y agradezco cordialmente las sugerencias, ya sea en la sección de comentarios a continuación o en la del instituto. foro de discurso.
Agradezco a Jan Feyereisl, Martin Poliak, Petr Dluhoš y al resto de los buena IA equipo por valiosas discusiones y sugerencias.
AAAI. “AAAI-13 Competición general internacional de juegos†. En línea bajo http://www.aaai.org/Conferences/AAAI/2013/aaai13games.php (2013)
Agrawal, Pulkit, Joao Carreira y Jitendra Malik. “Aprender a ver moviéndose.†Actas de la Conferencia Internacional IEEE sobre Visión por Computador. 2015.
Agrawal, Pulkit, et al. “Aprender a pinchar pinchando: aprendizaje experiencial de física intuitiva”. preimpresión de arXiv arXiv:1606.07419 (2016).
AI•ON. “La colección AI•ON de problemas abiertos de investigación”. En línea bajo http://ai-on.org/proyectos (2016)
Allamanis, Miltiadis, Hao Peng y Charles Sutton. “Una red de atención convolucional para el resumen extremo del código fuente”. preimpresión de arXiv arXiv:1602.03001 (2016).
Andrychowicz, Marcin, et al. “Aprender a aprender por descenso de gradiente por descenso de gradiente.†Avances en sistemas de procesamiento de información neuronal. 2016.
Aupperlee, Aaron. “Sin farol: la supercomputadora supera a los humanos en la revancha de póquer”. En línea bajo http://triblive.com/local/allegheny/11865933-74/rematch-aaron-aupperlee (2017)
Blitzer, John, Mark Dredze y Fernando Pereira. “Biografías, Bollywood, boom-boxes y mezcladores: Adaptación del dominio para la clasificación de sentimientos”. LCA. vol. 7. 2007.
Brachman, Ronald J. “AI más que la suma de sus partes”. Revista IA 27.4 (2006): 19.
Brooks, R., et al. “Problemas de desafío para la inteligencia artificial”. XIII Congreso Nacional de Inteligencia Artificial-AAAI. 1996.
Brown, Noam y Tuomas Sandholm. “Resolución segura y anidada de finales para juegos con información imperfecta”. En línea bajo http://www.cs.cmu.edu/~noamb/papers/17-AAAI-Refinement.pdf (2017)
Cadena, César, et al. “Pasado, presente y futuro de la localización y el mapeo simultáneos: hacia la era de la percepción robusta”. Transacciones IEEE sobre robótica 32.6 (2016): 1309–1332.
Chang, Michael B., et al. “Un enfoque compositivo basado en objetos para el aprendizaje de la dinámica física”. preimpresión de arXiv arXiv:1612.00341 (2016).
Chen, Yutian, et al. “Aprender a aprender para la optimización global de las funciones de caja negra†. preimpresión de arXiv arXiv:1611.03824 (2016).
Choi, Myung Jin, Antonio Torralba y Alan S. Willsky. “Modelos de contexto y objetos fuera de contexto.†Letras de reconocimiento de patrones 33.7 (2012): 853–862.
Ciocarlie, Matei. “Versatilidad en la manipulación robótica: el largo camino a todas partes”. En línea bajo https://www.youtube.com/watch?v=wiTQ6qOR8o4 (2015)
Razonamiento de sentido común. “Página de problemas de razonamiento de sentido común.†En línea bajo http://commonsensereasoning.org/problem_page.html (2015)
Razonamiento de sentido común. “Razonamiento de sentido común DesafÃo del esquema de Winograd.†En línea bajo http://commonsensereasoning.org/winograd.html (2016a)
Razonamiento de sentido común. “Problemas de desambiguación de pronombres de razonamiento de sentido común” En línea bajo http://commonsensereasoning.org/desambiguación.html (2016b)
Davis, Mark. El corpus del inglés americano contemporáneo. BYE, Universidad Brigham Young, 2008.
Davis, Ernesto. “Colección de esquemas de Winograd”. En línea bajo http://www.cs.nyu.edu/faculty/davise/papers/WinogradSchemas/WSCollection.html (2011)
de Freitas, Nando. “Aprender a aprender y composicionalidad con redes neuronales recurrentes profundas: aprender a aprender y composicionalidad”. Actas de la 22ª Conferencia Internacional ACM SIGKDD sobre Descubrimiento de Conocimiento y Minería de Datos. ACM, 2016.
Degrave, Jonas, Michiel Hermans y Joni Dambre. “Un motor de física diferenciable para el aprendizaje profundo en robótica”. preimpresión de arXiv arXiv:1611.01652 (2016).
Deng, Jia y col. “Imagenet: una base de datos de imágenes jerárquicas a gran escala”. Computer Vision and Pattern Recognition, 2009. CVPR 2009. Conferencia IEEE sobre. IEEE, 2009.
Denil, Misha, et al. “Aprender a realizar experimentos de física a través del aprendizaje de refuerzo profundo”. preimpresión de arXiv arXiv:1611.01843 (2016).
Duan, Yan, et al. “RL²: Aprendizaje por refuerzo rápido a través del aprendizaje por refuerzo lento.†preimpresión de arXiv arXiv:1611.02779 (2016).
Ess, Andreas, et al. “Detección y seguimiento de objetos para la navegación autónoma en entornos dinámicos”. La revista internacional de investigación en robótica 29.14 (2010): 1707-1725.
Finn, Chelsea y Sergey Levine. “Previsión visual profunda para planificar el movimiento del robot”. preimpresión de arXiv arXiv:1610.00696 (2016).
Fouhey, David F. y C. Lawrence Zitnick. “Predicción de la dinámica de objetos en escenas”. Actas de la Conferencia IEEE sobre visión artificial y reconocimiento de patrones. 2014.
Fragkiadaki, Katerina, et al. “Aprendizaje de modelos predictivos visuales de fÃsica para jugar al billar.†preimpresión de arXiv arXiv:1511.07404 (2015).
Garofolo, John, et al. “TIMIT Acoustic-Phonetic Continuous Speech Corpus LDC93S1”. Descarga web. Filadelfia: Consorcio de datos lingüísticos, 1993.
Gaunt, Alexander L., et al. “Terpret: un lenguaje de programación probabilístico para la inducción de programas”. preimpresión de arXiv arXiv:1608.04428 (2016).
Genesereth, Michael, Nathaniel Love y Barney Pell. “Juego general: descripción general de la competencia AAAI”. revista IA 26.2 (2005): 62.
Goertzel, Ben. “¿Qué cuenta como una máquina de pensamiento consciente?” En línea bajo https://www.newscientist.com/article/mg21528813.600-what-counts-as-a-conscious-thinking-machine (2012)
Buena AI. “Desafío general de IA”. En línea bajo https://www.general-ai-challenge.org/ (2017)
Graves, Alex, et al. “Computación híbrida utilizando una red neuronal con memoria externa dinámica”. Naturaleza 538.7626 (2016): 471–476.
Hamrick, Jessica B, et al. “Toma de decisiones basada en la imaginación con modelos físicos en redes neuronales profundas”. En línea bajo http://phys.csail.mit.edu/papers/5.pdf (2016)
Han, Dongyoon, Jiwhan Kim y Junmo Kim. “Redes residuales piramidales profundas”. preimpresión de arXiv arXiv:1610.02915 (2016).
Harlow, Harry F. “La formación de conjuntos de aprendizaje”. revisión psicológica 56.1 (1949): 51.
Held, Richard y Alan Hein. “Estimulación producida por el movimiento en el desarrollo del comportamiento guiado visualmente”. Revista de psicología comparada y fisiológica. 56.5 (1963): 872.
Hernández-Orallo, José. “Evaluación en inteligencia artificial: de la medición orientada a tareas a la medición orientada a habilidades”. Revisión de inteligencia artificial(2016a): 1–51.
Hernández-Orallo, José, et al. “Modelos informáticos que resuelven problemas de pruebas de inteligencia: avances e implicaciones”. Inteligencia artificial 230 (2016b): 74-107.
Hernández-Orallo, José. “La medida de todas las mentes.†Cambridge University Press, 2017.
IOCCC. “El Concurso Internacional de Código C Ofuscado.†En línea bajo http://www.ioccc.org (2016)
Kadlec, Rudolf, et al. “Encontrar un experto en todos los oficios: un examen del aprendizaje semisupervisado en comprensión de lectura”. Bajo revisión en ICLR 2017, en línea bajo https://openreview.net/pdf?id=rJM69B5xx
Kamper, Herman, Aren Jansen y Sharon Goldwater. “Segmentación de palabras sin supervisión y descubrimiento de léxico mediante incrustaciones acústicas de palabras”. Transacciones IEEE/ACM sobre procesamiento de audio, voz y lenguaje (TASLP) 24.4 (2016): 669–679.
Kamprani, Katerina. “Lo incómodo.†En línea bajo http://www.kkstudio.gr/#el-incomodo (2017)
Karpatia, Andrej. “Lo que aprendí al competir contra un ConvNet en ImageNet”. En línea bajo http://karpathy.github.io/2014/09/02/what-i-learned-from-competing-against-a-convnet-on-imagenet (2014)
Kirkpatrick, James, et al. “Superar el olvido catastrófico en las redes neuronales”. preimpresión de arXiv arXiv:1612.00796 (2016).
Kondo, HM, et al. “Análisis auditivo y visual de la escena: una visión general†. Transacciones filosóficas de la Royal Society de Londres. Serie B, Ciencias biológicas 372.1714 (2017).
Lahat, Dana, Tülay Adali y Christian Jutten. “Fusión de datos multimodal: una descripción general de los métodos, desafíos y perspectivas”. Actas del IEEE 103.9 (2015): 1449–1477.
Lake, Brenden M., Ruslan Salakhutdinov y Joshua B. Tenenbaum. “Aprendizaje de conceptos a nivel humano a través de la inducción de programas probabilísticos”. Ciencia 350.6266 (2015): 1332–1338.
Lago, Brenden M., et al. “Construir máquinas que aprendan y piensen como personas.†preimpresión de arXiv arXiv:1604.00289 (2016).
Le Cun, Yann. “La próxima frontera en IA: aprendizaje no supervisado”. En línea bajo http://www.ri.cmu.edu/event_detail.html?event_id=1211&&menu_id=242&event_type=seminars (2016)
Lewicki, Michael S., et al. “Análisis de la escena en el medio natural.†Fronteras en psicología 5 (2014): 199.
Li, Wenbin, AleÅ¡ Leonardis y Mario Fritz. “Predicción de la estabilidad visual y su aplicación a la manipulación”. preimpresión de arXiv arXiv:1609.04861 (2016).
Li, Zhizhong y Derek Hoiem. “Aprender sin olvidar.†Congreso Europeo de Visión por Computador. Publicaciones internacionales de Springer, 2016.
Loebner, Hugo. “Página de inicio del premio Loebner: la primera prueba de Turing.†En línea bajo http://www.loebner.net/Prizef/loebner-prize.html (2016).
Lovett, Andrew y Kenneth Forbus. “Modelado de resolución de problemas visuales como razonamiento analógico”. Revisión psicológica 124.1 (2017): 60.
Malik, Jitendra. “Los problemas de Hilbert de la visión por computadora”. En línea bajo https://www.youtube.com/watch?v=QaF2kkez5XU (2015)
McCarthy, John. “Un ejemplo para la comprensión del lenguaje natural y los problemas de IA que plantea”. En línea bajo http://www-formal.stanford.edu/jmc/mrhug/mrhug.html (1976)
MacLeod, John. “Reglas del juego de cartas: juegos de cartas y juegos de fichas de todo el mundo”. En línea bajo https://www.pagat.com (2017)
Miller, George A. “WordNet: una base de datos léxica para inglés”. Comunicaciones de la ACM 38.11 (1995): 39-41.
Mottaghi, Roozbeh, et al. ““Qué sucede si…†Aprendiendo a predecir el efecto de las fuerzas en imágenes†. Congreso Europeo de Visión por Computador. Publicaciones internacionales de Springer, 2016.
Morency, Louis-Philippe. “Aprendizaje Automático Multimodal†. En línea bajo https://www.youtube.com/watch?v=pMb_CIK14lU (2015)
Nair, Ashvin, et al. “Combinando el aprendizaje autosupervisado y la imitación para la manipulación de cuerdas basada en la visión”. En línea bajo http://phys.csail.mit.edu/papers/15.pdf (2016)
Nguyen, Anh, Jason Yosinski y Jeff Clune. “Las redes neuronales profundas son fáciles de engañar: predicciones de alta confianza para imágenes irreconocibles”. Conferencia IEEE 2015 sobre visión artificial y reconocimiento de patrones (CVPR). IEEE, 2015.
Nilsson, Nils J. “¿Inteligencia artificial a nivel humano? ¡Sé serio!. revista IA 26.4 (2005): 68.
IA abierta. “Solicitudes de investigación†. En línea bajo https://openai.com/solicitudes-de-investigacion (2016)
Pan, Sinno Jialin y Qiang Yang. “Una encuesta sobre el aprendizaje por transferencia†. Transacciones IEEE sobre conocimiento e ingeniería de datos 22.10 (2010): 1345-1359.
Pang, Bo y Lillian Lee. “Ver estrellas: explotar las relaciones de clase para la categorización de sentimientos con respecto a las escalas de calificación”. Actas de la 43.ª reunión anual de la asociación de lingüística computacional. Asociación de Lingüística Computacional, 2005.
Parisotto, Emilio, Jimmy Lei Ba y Ruslan Salakhutdinov. “Imitador de actor: multitarea profunda y aprendizaje de refuerzo de transferencia”. preimpresión de arXiv arXiv:1511.06342 (2015).
Park, Alex S. y James R. Glass. “Descubrimiento de patrones no supervisados en el habla”. Transacciones IEEE sobre procesamiento de audio, voz y lenguaje 16.1 (2008): 186–197.
Rajaram, Rakesh Nattoji, Eshed Ohn-Bar y Mohan M. Trivedi. “Una exploración de por qué y cuándo falla la detección de peatones”. 2015 IEEE 18.ª Conferencia internacional sobre sistemas de transporte inteligentes. IEEE, 2015.
Riccardi, Giuseppe y Dilek Z. Hakkani-Tür. “Aprendizaje activo y no supervisado para reconocimiento de voz automático.†interdiscurso. 2003.
Desafío de chat Robo. “Desafío de chat Robo 2014”. En línea bajo http://www.robochatchallenge.com (2014)
Rosa, Marek, Jan Feyereisl y The GoodAI Collective. “Un marco para la búsqueda de inteligencia artificial general”. preimpresión de arXiv arXiv:1611.00685 (2016).
Schmidhuber, Jurgen. “Principios evolutivos en el aprendizaje autorreferencial.†Sobre aprender a aprender: El meta-meta-… gancho.) Tesis de Diploma, Institut f. Informática, Tecnología. Universidad Munich (1987).
Plata, David, et al. “Dominar el juego de Go con redes neuronales profundas y búsqueda de árboles”. Naturaleza 529.7587 (2016): 484–489.
Smith, Linda y Michael Gasser. “El desarrollo de la cognición incorporada: Seis lecciones de los bebés”. Vida artificial 11.1–2 (2005): 13–29.
Song, Shuran, Linguang Zhang y Jianxiong Xiao. “Robot en una habitación: hacia el reconocimiento perfecto de objetos en entornos cerrados”. CoRR (2015).
Stewart, Russell y Stefano Ermon. “Supervisión sin etiquetas de redes neuronales con fÃsica y conocimiento del dominio†. preimpresión de arXiv arXiv:1609.05566 (2016).
Tarlow, Daniel. “En busca de una generalización fuerte†. En línea bajo https://uclmr.github.io/nampi/talk_slides/tarlow-nampi.pdf (2016)
Thrun, Sebastian y Tom M. Mitchell. “Aprendizaje de robots de por vida”. Robótica y sistemas autónomos 15.1-2 (1995): 25-46.
Thrun, Sebastian y Lorien Pratt. “Aprender a aprender: Introducción y descripción general†. Aprendiendo a aprender. Springer EE. UU., 1998. 3–17.
TMOU. “Archivo TMOU.†En línea bajo http://www.tmou.cz/archiv/index (2016)
Verschae, Rodrigo, and Javier Ruiz-del-Solar. “Detección de objetos: direcciones actuales y futuras”. Fronteras en robótica e IA 2 (2015): 29.
Wang, Jane X., et al. “Aprender a reforzar el aprendizaje.†preimpresión de arXiv arXiv:1611.05763 (2016).
Yao, Bangpeng, Jiayuan Ma y Li Fei-Fei. “Descubriendo la funcionalidad de los objetos†. Actas de la Conferencia Internacional IEEE sobre Visión por Computador. 2013.
Yelp, “El desafío del conjunto de datos de Yelp”. en línea bajo https://www.yelp.com/dataset_challenge (2017)